Highlights

Nuværende Fellows

Fellow
Periode:
01.02.2026
30.06.2026
Lucas Paulsen
Aalborg Universitet (AAU)

Lucas er videnskabelig assistent ved Aalborg Universitet og forsker i digitale teknologier, læring og samarbejde.

I sit CAISA Fellowship undersøger Lucas, hvordan kunstig intelligens kan anvendes til at understøtte fair, konsistent og transparent bedømmelse ved mundtlige eksaminer.

Fellow
Periode:
01.02.2026
31.12.2026
Aysel Küçüksu
Københavns Universitet (KU)

Aysel er adjunkt i jura, menneskerettigheder og digitalisering ved Københavns Universitet. Hendes forskning fokuserer på, hvordan digitale teknologier og kunstig intelligens i den offentlige sektor påvirker rettigheder, forvaltning og offentlig beslutningstagning. Hun er medstifter af Danmarks første database over brugen af AI i den offentlige sektor.

I sit CAISA Fellowship arbejder Aysel med at videreudvikle databasen som en bæredygtig gennemsigtigheds- infrastruktur, der understøtter offentlig kontrol med algoritmisk forvaltning og den nationale debat om digital suverænitet.

Fellow
Periode:
01.03.2026
31.05.2026
Ilker Kesen
Københavns Universitet (KU)

Ilker er postdoc I Language and Multimodal Processing Group ved Datalogisk Institutionelt ved Københavns Universitet. Hans primær forskning fokuserer på natural language processing (NLP) med særlig interesse for pixel-baseret sprogmodellering og multimodal læring.

I sit CAISA fellowship undersøger Ilker, hvordan generative multimodale AI-modeller modererer indhold om politiske og offentlige personer. Han kortlægger skævheder på tværs af lande og modeller og bidrager med ny viden om politisk bias i generativ AI.

Fellow
Periode:
01.04.2026
30.06.2026
Agnete Meldgaard Hansen
Roskilde Universitet (RUC)

Agnete Meldgaard Hansen er lektor ved Institut for Mennesker og Teknologi på Roskilde Universitet. Hun forsker i omsorgsarbejde inden for sundheds- og ældresektoren med fokus på, hvordan brugen af nye teknologier, herunder AI, påvirker omsorgspraksis, relationer og etik i omsorgsarbejdet.

I sit CAISA fellowship undersøger Agnete de etiske konsekvenser ved brug af AI i ældreplejen og samler eksisterende viden i en praksisnær research brief. Gennem interviews med kommuner og centrale aktører kvalificerer hun de centrale etiske dilemmaer, som opstår, når AI indgår i omsorgsarbejde – og bidrager dermed til en bredere, mere nuanceret debat om ansvarlig AI i den danske ældrepleje.

Fellow
Periode:
01.04.2026
31.05.2026
Anja Bechmann
Aarhus Universitet (AU)

Anja er professor I medievidenskab og leder af DATALAB ved Aarhus Universitet. Hun forsker i, hvordan AI-drevne algoritmer påvirker kollektiv adfærd og demokratiske processer, og har haft centrale roller i internationale ekspertgrupper om desinformation og digitalt demokrati. Hun er formand for EU's adfærdskodeks om transparens i AI-genereret indhold.

I sit CAISA Fellowship arbejder Anja på at færdiggøre EU's adfærdskodeks, som skal vejlede virksomheder i compliance med AI-reguleringen. Arbejdet involverer dialog med industrien, civilsamfundet og forskningen samt løbende input fra medlemslande og EU-institutioner frem mod publicering i juni 2026.

Fellow
Periode:
01.04.2026
30.06.2026
Samuel Rhys Cox
Aalborg Universitet (AAU)

Samuel Rhys Cox forsker i menneskecentreret AI, særligt samtalerobotter. Hans arbejde undersøger, hvordan AI-systemer kan designes til at støtte mennesker i følsomme eller refleksive sammenhænge, såsom inden for sundhed, trivsel og kreative processer.

I sit CAISA fellowship vil Samuel undersøge, hvordan indramning og præsentationen af en chatbots hukommelse og dataopbevaring påvirker menneskers komfort, privathedsopfattelser og selvafslørende adfærd.

Fellow
Periode:
01.05.2026
30.06.2026
Jun Liu
Københavns Universitet (KU)

Jun er lektor ved Center for Tracking and Society, Københavns Universitet, hvor han leder Sapere Aude: DFF-Starting Grant Projektet. Hans arbejde består i at undersøge forholdet mellem mennesker og digitale teknologier, med fokus på dataficering, ledelse og AI fra et komparativt perspektiv.

I sit CAISA fellowship vil Jun undersøge, hvordan AI-benchmarks fungerer so de facto infrastrukturer, der former udviklingen af AI-systemer – ikke som neutrale standarder, men som sociotekniske praksisser præget af magtforhold, institutionelle interesser og geopolitiske ambitioner, og som aktivt påvirker, hvad der opfattes som legitim viden, performance og fremskridt inden for AI.

This is some text inside of a div block.
Forskning
Digital Suverænitet: Fra begreb til strategisk ramme
Digital suverænitet er flerdimensionel og kræver prioritering

I en tid med geopolitisk ustabilitet og hurtig AI-udvikling er kontrol over digital infrastruktur og data blevet afgørende. Selvom der er bred enighed om behovet for handling på nationalt, nordisk og EU-plan, mangler der et fælles sprog om digital suverænitet. Denne uenighed fører til enten handlingslammelse eller snævre tekniske løsninger uden strategisk retning.

Briefets kerneargument er, at digital suverænitet er et flerdimensionelt fænomen, der involverer både principiel stillingtagen og pragmatiske valg. Reducerer man det til tekniske løsninger, mister man synet for de værdier og valg, der bestemmer, hvem der kontrollerer og drager fordel af løsninger. Fokuserer man kun på værdier, ender man med tomme principper uden den nødvendige praktiske implementering og handlekraft. Digital suverænitet handler sjældent om et valg mellem fuld selvforsyning eller total afhængighed. I stedet drejer det sig om at balancere ofte modsatrettede krav om åbenhed, sikkerhed, konkurrenceevne, vækst, værdier og rettigheder i en verden med ujævnt fordelte kapaciteter.

Det betyder, at man må definere, hvem eller hvad der præcist skal beskyttes eller fremmes – inden for domænerne sikkerhed, økonomisk vækst eller borgerrettigheder – og erkende, at valg i ét domæne kan styrke eller underminere et andet. Briefet fokuserer på AI som det område, hvor digital suverænitet aktualiseres skarpest, men begreberne gælder for digital infrastruktur og data bredere. Briefet giver beslutningstagere redskaber til at håndtere disse dilemmaer ved at præsentere:

§  En begrebslig ramme til at identificere, hvem eller hvad der skal være digitalt suverænt
§  Et overblik over hvordan man prioriteter digital suverænitet rundt om i verden
§  En forståelse af, at suverænitet kan udøves gennem tre kontrolregimer: ejerskab, ekspertise eller regulering – men at ingen af disse kontrolregimer er tilstrækkelige alene.

Briefets centrale implikation er, at digital suverænitet kræver en integreret strategi, der kombinerer ejerskab, ekspertise og regulering og håndterer sammenhænge og afvejninger mellem sikkerhed, økonomisk vækst og borgerrettigheder gennem klare mål. Uden denne helhedsorienterede tilgang risikerer man ineffektiv regulering, ubrugelig infrastruktur eller manglende evne til at udvikle, vedligeholde og anvende løsninger i praksis samt - utilsigtet - at underminere sikkerhed, vækst eller rettigheder.

Læs mere
Nyhed
CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige mode

CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige model.

Vi har mødtes med delegationer fra bl.a. Norge, Estland og Tyskland. I sidste uge mødtes vi med Nigerias digitalieringsminister og H.E. Dr. Bosun Tijani og hans delegation. Den nigerianske delegation fortalte bl.a. om store strategiske ambitioner om at installere 90.000km fiberoptiske kabler, der skal sikre den digitale infrastruktur i hele landet, men også om den enorme AI-entusiasme blandt Nigerias unge befolkning.

CAISA fortalte bl.a. om vigtigheden af forskning i hvordan AI kan anvendes ansvarligt og demokratisk.

Læs mere
Forskning
Læs mere
Forskning
Who would ChatGPT vote for, and why should we care?

This research brief presents an overview of our current knowledge about political bias in large language models (LLMs) and how this can affect and influence citizens when they turn to chatbots for voting advice, focusing hereby on Danish elections. We test various LLMs on their political ideology, their knowledge about the Danish party systems and whether they favour certain parties over others when recommending who to vote for based on provided voter profiles. We show that LLMs on policy issues align with centrist parties (Moderaterne, Radikale Venstre, Alternativet, Socialdemokratiet), and that LLMs based on candidate responses disproportionallyr ecommend specific parties (Moderaterne, Liberal Alliance, Dansk Folkeparti, and Enhedslisten). The purpose of this brief is to raise awareness that chatbots should not be considered a reliable source for voting advice in light of the Danish parliamentary election in March 2026, the first national election in Denmark after the release of ChatGPT in November 2022. Based on a survey by the Digital Democracy Centre, in particular young voters might have turned to chatbots when making their decision on who to vote for. We argue that this might be problematic with respect to information quality, democratic participation, and digital critical thinking.

Læs mere