
På årets D3A-konference afholdt CAISA en deep dive workshop om de samfundsmæssige konsekvenser af AI. Under ledelse af Helene Friis Ratner og Thomas Moeslund diskuterede vi bl.a. digital suverænitet, infrastruktur, den offentlige sektor samt AI i små og mellemstore virksomheder.
Tak til Anna Rogers, Morten Axel Pedersen, Roman Jurowetzki, Helene Friis Ratner, Serge Belongie, Rebecca Adler-Nissen og Professor Thomas Moeslund for deltagelse. Og tak for en god konference DIREC - Digital Research Centre Denmark, DDSA - The Danish Data Science Academy og Pioneer Centre for AI (P1).
Join CAISA for an online webinar, launching our new research brief "The Use of Chatbots in the Public Sector". In the research brief, we synthesize current scholarly evidence on the implementation and use of chatbots in public-sector workflows and citizen-facing services.
As generative AI technologies continue to proliferate across government institutions, often accompanied by promises of administrative efficiency, enhanced service delivery, and improved citizen engagement, the empirical foundation supporting these claims remains uneven. This systematic literature therefore aims at synthesizing existing research on the phenomena.
What insights does existing research offer regarding both the transformative potential and the emerging challenges associated with embedding chatbot technologies into public administration?
In the webinar we will present the main findings of the research brief and research method. In addition, we will zoom in on a specific case study conducted in a Finnish municipality, which illustrates some of the addressed challenges in the research brief analysis.
Welcome and Introduction
Systematic Literature Review Explained
The Use of Chatbots in the Public Sector: Main Findings
Organizational Dilemmas of AI Implementation: Experiences from Local Government Chatbot Project
Questions and Reflections: Share Your Thoughts and Questions
The webinar is open to all interested participants and will be conducted in English. We invite you to join us for a thoughtful and evidence-based discussion on a rapidly evolving area of public-sector innovation.

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.
Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.
I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.
Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:
”Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”
Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.
Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.
Om rådets funktion siger Thomas:
”Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”
Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.
I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.
Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Resumé
Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.
