CAISA har modtaget en bevilling på 45 mio. kr. fra forskningsreserven til et samarbejde med Danmarks Statistik. Samarbejdet skal styrke både forskningen i ansvarlig kunstig intelligens og den infrastruktur, der gør forskningen mulig, gennem to indsatser:

  • Den ene indsats skal modernisere Danmarks Statistiks infrastruktur for AI-forskning, så forskere kan arbejde sikkert med komplekse datakilder og træne store AI-modeller på danske registerdata.
  • Den anden indsats skal skabe ny viden om ansvarlig brug af AI-algoritmer, så de lever op til krav om ligebehandling, gennemsigtighed og tillid – og bevarer deres funktionalitet over tid.

CPH Tech Policy Committee samler forskere og fagfolk fra den offentlige sektor, virksomheder og civilsamfundet for at diskutere udfordringer inden for teknologi- og digitaliseringspolitik med afsæt i den nyeste forskning.

Udvalget arbejder for at bringe danske erfaringer i dialog med internationale praksisser og skabe nye, varige globale partnerskaber.

Tech Policy Youth Committee (TPYC) er et studenterdrevet udvalg, der samler engagerede studerende for at debattere og forme fremtidens teknologipolitik. Udvalget arbejder blandt andet med digitalisering, velfærd, psykisk trivsel, cybersikkerhed, geopolitik, desinformation, ulighed og den grønne omstilling.

Som medlem bliver man en del af et aktivt netværk, deltager i møder, events og samarbejder med centrale aktører fra civilsamfundet, erhvervslivet, og den offentlige sektor. Tech Policy Youth Committee arbejder for at styrke unges stemme i debatten om digitalisering og teknologi og dermed bidrage til en mere retfærdig og inkluderende digital fremtid.

CPH Tech Policy Committee

CPH Tech Policy Committee samler forskere og fagfolk fra den offentlige sektor, virksomheder og civilsamfundet for at diskutere udfordringer inden for teknologi- og digitaliseringspolitik med afsæt i den nyeste forskning. Udvalget arbejder for at bringe danske erfaringer i dialog med internationale praksisser og skabe nye, varige globale partnerskaber.

CPH Tech Policy Youth Committee

CPH Tech Policy Youth Committee er et studenterdrevet udvalg, der samler engagerede studerende for at debattere og forme fremtidens teknologikpolitik. Udvalget arbejder blandt andet med digitalisering, velfærd, psykisk trivsel, cybersikkerhed, geopolitik, desinformation, ulighed og den grønne omstilling.

Som medlem bliver man en del af et aktivt netværk, deltager i møder, events og samarbejder med centrale aktører fra civilsamfundet, erhvervslivet, og den offentlige sektor.

CPH Tech Policy Youth Committee arbejder for at styrke unges stemme i debatten om digitalisering og teknologi og dermed bidrage til en mere retfærdig og inkluderende digital fremtid.

Strategisk indsats for kunstig intelligens

CAISA er en del af regeringens Strategiske indsats for kunstig intelligens og et af fire nye initiativer, der skal være med til at bane vejen for ansvarlig kunstig intelligens. De andre initiativer er:

Heading 1

Heading 2

Heading 3

Heading 4

Heading 5
Heading 6

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.

Block quote

Ordered list

  1. Item 1
  2. Item 2
  3. Item 3

Unordered list

  • Item A
  • Item B
  • Item C

Text link

Bold text

Emphasis

Superscript

Subscript

  • Den Digitale Taskforce for kunstig intelligens, som er etableret i samarbejde med KL og Danske Regioner
  • Etablering af en platform, som sætter skub på udviklingen af sikre og transparente danske sprogmodeller
  • Tilgængeliggørelse af danske tekstdata open source
Event
Research Webinar: Chatbots in Public Administration

Join CAISA for an online webinar, launching our new research brief "The Use of Chatbots in the Public Sector". In the research brief, we synthesize current scholarly evidence on the implementation and use of chatbots in public-sector workflows and citizen-facing services.

As generative AI technologies continue to proliferate across government institutions, often accompanied by promises of administrative efficiency, enhanced service delivery, and improved citizen engagement, the empirical foundation supporting these claims remains uneven. This systematic literature therefore aims at synthesizing existing research on the phenomena.

What insights does existing research offer regarding both the transformative potential and the emerging challenges associated with embedding chatbot technologies into public administration?  

In the webinar we will present the main findings of the research brief and research method. In addition, we will zoom in on a specific case study conducted in a Finnish municipality, which illustrates some of the addressed challenges in the research brief analysis.

Program

Welcome and Introduction

Systematic Literature Review Explained

  • Semahat Ece Elbeyi, PostDoc at the Center for Tracking and Society at Copenhagen University.

The Use of Chatbots in the Public Sector: Main Findings

  • Kiran Kappeler, PostDoc at the Center for Tracking and Society, Copenhagen University.

Organizational Dilemmas of AI Implementation: Experiences from Local Government Chatbot Project

  • Emmi Heinisuo, Research Scientist at the Technical Research Centre of Finland.

Questions and Reflections: Share Your Thoughts and Questions

The webinar is open to all interested participants and will be conducted in English. We invite you to join us for a thoughtful and evidence-based discussion on a rapidly evolving area of public-sector innovation.

Læs mere
Forskning
Læs mere
Nyhed
CAISA's vicecenterleder Thomas Moeslund udpeget til Dataetisk Råd

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.

Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.

Dataetik som fundament for ansvarlig AI

I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.

Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:

Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”

Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.

Rådets rolle i et komplekst teknologisk landskab

Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.

Om rådets funktion siger Thomas:

Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”

Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.

CAISA’s perspektiv

I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.

Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Læs mere
Forskning
Læs mere
Forskning
Brugen af chatbots i den offentlige sektor

Resumé

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere