Forskning

Hvem ville ChatGPT stemme på, og hvorfor er det vigtigt?

CAISA - Research brief

Dette forskningsbrief præsenterer et overblik over vores nuværende viden om politisk bias i store sprogmodeller (LLM’er), og om hvordan de kan påvirke og influere borgere, når de tyer til chatbots for vælgerrådgivning med fokus på danske folketingsvalg. Vi tester forskellige LLM’ers politiske ideologi, deres viden om det danske partisystem, samt hvorvidt de favoriserer bestemte partier over andre, når de anbefaler, hvem man skal stemme på baseret på forskellige vælgerprofiler. Vi bekræfter tidligere studiers resultater og viser, at LLM’er politisk flugter med centristiske partier (Moderaterne, Radikale Venstre, Alternativet, Socialdemokratiet), og at LLM’er, baseret på kandidaters besvarelser, disproportionalt anbefaler bestemte partier (Moderaterne, Liberal Alliance, Dansk Folkeparti og Enhedslisten). Briefets formål er at sætte fokus på, at chatbots ikke bør anses som en pålidelig kilde til vælgerrådgivning i lyset af det danske folketingsvalg i marts 2026 – det første folketingsvalg i Danmark efter lanceringen af ChatGPT i November 2022. Et survey udarbejdet af Digital Democracy Centre viser, at især unge vælgere kan have benyttet chatbots til at træffe deres beslutning om, hvem de skulle stemme på. Vi argumenterer for, at dette kan være problematisk, når det kommer til informationskvalitet, demokratisk deltagelse og digital kritisk tænkning.

Læs mere
Læs briefet på dansk her
Læs mere
Read the brief in English here
Nyhed
CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige mode

CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige model.

Vi har mødtes med delegationer fra bl.a. Norge, Estland og Tyskland. I sidste uge mødtes vi med Nigerias digitalieringsminister og H.E. Dr. Bosun Tijani og hans delegation. Den nigerianske delegation fortalte bl.a. om store strategiske ambitioner om at installere 90.000km fiberoptiske kabler, der skal sikre den digitale infrastruktur i hele landet, men også om den enorme AI-entusiasme blandt Nigerias unge befolkning.

CAISA fortalte bl.a. om vigtigheden af forskning i hvordan AI kan anvendes ansvarligt og demokratisk.

Læs mere
Forskning
Læs mere
Nyhed
CAISA's vicecenterleder Thomas Moeslund udpeget til Dataetisk Råd

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.

Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.

Dataetik som fundament for ansvarlig AI

I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.

Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:

Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”

Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.

Rådets rolle i et komplekst teknologisk landskab

Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.

Om rådets funktion siger Thomas:

Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”

Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.

CAISA’s perspektiv

I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.

Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Læs mere
Forskning
Læs mere
Forskning
Brugen af chatbots i den offentlige sektor

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere