Highlights

Forskning

Her finder du CAISA's seneste forskningspublikationer og briefs.

February 17, 2026

Resumé

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere
December 18, 2025

Resumé

Danske små og mellemstore virksomheder (SMV’er) er centrale for dansk økonomi og arbejdsmarked. Denne landsdækkende kortlægning viser, at to tredjedele af SMV’erne har taget kunstig intelligens (AI) i anvendelse, men at integrationen af teknologien i interne processer og eksterne services/produkter er begrænset i de fleste virksomheder. AI anvendes primært til tekstgenerering og rutineopgaver, mens strategisk forankring og avancerede anvendelser er mere sporadiske. Manglen på viden og kompetencer – blandt medarbejdere og ledere – opleves som de største barrierer, suppleret af usikkerhed om regulering og etik. Geografisk og branchemæssigt er udbredelsen af AI størst blandt SMV’er i storbyområder og videnstunge sektorer. Samtidig oplever en betydelig andel af SMV’erne, at AI slet ikke er relevant for dem. Briefet peger på behovet for initiativer, der kan styrke kompetenceniveauet, skabe klarhed om regulering og understøtte en bredere, ansvarlig udnyttelse af AI i SMV’er.

Læs mere
December 9, 2025

Resumé

Digital suverænitet handler grundlæggende om kontrol – men kontrol kan se ud på mange måder og kan opnås på forskellig vis. Derfor kan det være svært at vide, hvor man skal begynde. Suverænitet handler også om kapacitet: evnen til selv at udvikle, drive og tilpasse digitale løsninger uden at være afgørende afhængig af få aktører. På AI-området kræver det en modulær tilgang for et land som Danmark, hvis ambitionen om kontrol og kapacitet skal omsættes til praksis. Hensyn til sikkerhed, økonomi og rettigheder skal gøres konkrete og teknisk implementerbare – som AI-byggeklodser, der gør det muligt at prioritere omkostninger, nytte og risici ved hvert modul. På den måde kan beslutningstagere tage målrettede skridt mod øget suverænitet, uden at låse sig fast eller overse kommende udfordringer og muligheder. Den modulære tilgang giver fleksibilitet til løbende tilpasning, efterhånden som teknologi og samfund udvikler sig. Vi præsenterer her ét forslag til et sådant modul: et nationalt AI-orkestreringslag, der gør det muligt at håndtere akutte behov samtidig med, at langsigtede strategiske mål fastholdes – og som giver både offentlige og private aktører et fælles teknisk fundament at bygge videre på.

Læs mere
December 5, 2025

Resumé

Dette forskningsbrief beskæftiger sig med danskernes brug af og holdning til generativ kunstig intelligens (KI) i 2025, baseret på data fra en større international online spørgeskemaundersøgelse og rapport udarbejdet i samarbejde med Reuters Institute for the Study of Journalism ved University of Oxford. Overordnet dokumenterer undersøgelsen en hurtig vækst i brugen af generativ KI i Danmark (omtrent dobbelt så hurtigt som brugen af internettet voksede i slutningen af halvfemserne), ret høj tillid til mange af de mest brugte former for generativ kunstig intelligens og flere optimister end pessimister, når det kommer til disse teknologiers konsekvenser. Samtidig er der stadig mange danskere, der kun har meget begrænset personlig erfaring med aktivt at bruge generativ kunstig intelligens. En stor del af befolkningen er i tvivl om, hvad konsekvenserne bliver, og der er en del bekymring om at brugen af disse teknologier i visse sektorer – f.eks. offentlige myndigheder, nyhedsmedier og i særdeleshed politikere og politiske partier. Givet den hurtige vækst i brug er det slående, at næsten halvdelen af vores respondenter ikke føler sig godt informeret om generativ KI.

Læs mere
November 11, 2025

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Event
Research Webinar: Chatbots in Public Administration

Join CAISA for an online webinar, launching our new research brief "The Use of Chatbots in the Public Sector". In the research brief, we synthesize current scholarly evidence on the implementation and use of chatbots in public-sector workflows and citizen-facing services.

As generative AI technologies continue to proliferate across government institutions, often accompanied by promises of administrative efficiency, enhanced service delivery, and improved citizen engagement, the empirical foundation supporting these claims remains uneven. This systematic literature therefore aims at synthesizing existing research on the phenomena.

What insights does existing research offer regarding both the transformative potential and the emerging challenges associated with embedding chatbot technologies into public administration?  

In the webinar we will present the main findings of the research brief and research method. In addition, we will zoom in on a specific case study conducted in a Finnish municipality, which illustrates some of the addressed challenges in the research brief analysis.

Program

Welcome and Introduction

Systematic Literature Review Explained

  • Semahat Ece Elbeyi, PostDoc at the Center for Tracking and Society at Copenhagen University.

The Use of Chatbots in the Public Sector: Main Findings

  • Kiran Kappeler, PostDoc at the Center for Tracking and Society, Copenhagen University.

Organizational Dilemmas of AI Implementation: Experiences from Local Government Chatbot Project

  • Emmi Heinisuo, Research Scientist at the Technical Research Centre of Finland.

Questions and Reflections: Share Your Thoughts and Questions

The webinar is open to all interested participants and will be conducted in English. We invite you to join us for a thoughtful and evidence-based discussion on a rapidly evolving area of public-sector innovation.

Læs mere
Forskning
Læs mere
Nyhed
CAISA's vicecenterleder Thomas Moeslund udpeget til Dataetisk Råd

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.

Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.

Dataetik som fundament for ansvarlig AI

I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.

Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:

Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”

Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.

Rådets rolle i et komplekst teknologisk landskab

Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.

Om rådets funktion siger Thomas:

Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”

Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.

CAISA’s perspektiv

I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.

Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Læs mere
Forskning
Læs mere
Forskning
Brugen af chatbots i den offentlige sektor

Resumé

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere