Highlights

Nuværende Fellows

Fellow
Periode:
01.02.2026
30.06.2026
Lucas Paulsen
Aalborg Universitet (AAU)

Lucas er videnskabelig assistent ved Aalborg Universitet og forsker i digitale teknologier, læring og samarbejde.

I sit CAISA Fellowship undersøger Lucas, hvordan kunstig intelligens kan anvendes til at understøtte fair, konsistent og transparent bedømmelse ved mundtlige eksaminer.

Fellow
Periode:
01.02.2026
31.03.2026
Stephanie Brandl
Københavns Universitet (KU)

Stephanie er adjunkt ved Center for Social Data Science (SODAS), Københavns Universitet. Hun har en baggrund inden for naturlig sprogbehandling (NLP), og hendes forskning fokuserer på menneskecentreret forklarlighed samt anvendelse af NLP i statskundskab.

Under sit fellowship ved CAISA vil hun undersøge, hvordan store sprogmodeller (LLM'er) kan anvendes til stemmevejledning i forbindelse med det kommende danske folketingsvalg.

Fellow
Periode:
01.02.2026
31.12.2026
Aysel Küçüksu
Københavns Universitet (KU)

Aysel er adjunkt i jura, menneskerettigheder og digitalisering ved Københavns Universitet. Hendes forskning fokuserer på, hvordan digitale teknologier og kunstig intelligens i den offentlige sektor påvirker rettigheder, forvaltning og offentlig beslutningstagning. Hun er medstifter af Danmarks første database over brugen af AI i den offentlige sektor.

I sit CAISA Fellowship arbejder Aysel med at videreudvikle databasen som en bæredygtig gennemsigtigheds- infrastruktur, der understøtter offentlig kontrol med algoritmisk forvaltning og den nationale debat om digital suverænitet.

Fellow
Periode:
01.03.2026
31.05.2026
Ilker Kesen
Københavns Universitet (KU)

Ilker er postdoc I Language and Multimodal Processing Group ved Datalogisk Institutionelt ved Københavns Universitet. Hans primær forskning fokuserer på natural language processing (NLP) med særlig interesse for pixel-baseret sprogmodellering og multimodal læring.

I sit CAISA fellowship undersøger Ilker, hvordan generative multimodale AI-modeller modererer indhold om politiske og offentlige personer. Han kortlægger skævheder på tværs af lande og modeller og bidrager med ny viden om politisk bias i generativ AI.

This is some text inside of a div block.
Nyhed
CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige mode

CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige model.

Vi har mødtes med delegationer fra bl.a. Norge, Estland og Tyskland. I sidste uge mødtes vi med Nigerias digitalieringsminister og H.E. Dr. Bosun Tijani og hans delegation. Den nigerianske delegation fortalte bl.a. om store strategiske ambitioner om at installere 90.000km fiberoptiske kabler, der skal sikre den digitale infrastruktur i hele landet, men også om den enorme AI-entusiasme blandt Nigerias unge befolkning.

CAISA fortalte bl.a. om vigtigheden af forskning i hvordan AI kan anvendes ansvarligt og demokratisk.

Læs mere
Forskning
Læs mere
Nyhed
CAISA's vicecenterleder Thomas Moeslund udpeget til Dataetisk Råd

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.

Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.

Dataetik som fundament for ansvarlig AI

I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.

Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:

Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”

Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.

Rådets rolle i et komplekst teknologisk landskab

Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.

Om rådets funktion siger Thomas:

Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”

Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.

CAISA’s perspektiv

I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.

Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Læs mere
Forskning
Læs mere
Forskning
Brugen af chatbots i den offentlige sektor

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere