Forskning
Her finder du CAISAs seneste forskningspublikationer og research briefs.
Resumé
Danske små og mellemstore virksomheder (SMV’er) er centrale for dansk økonomi og arbejdsmarked. Denne landsdækkende kortlægning viser, at to tredjedele af SMV’erne har taget kunstig intelligens (AI) i anvendelse, men at integrationen af teknologien i interne processer og eksterne services/produkter er begrænset i de fleste virksomheder. AI anvendes primært til tekstgenerering og rutineopgaver, mens strategisk forankring og avancerede anvendelser er mere sporadiske. Manglen på viden og kompetencer – blandt medarbejdere og ledere – opleves som de største barrierer, suppleret af usikkerhed om regulering og etik. Geografisk og branchemæssigt er udbredelsen af AI størst blandt SMV’er i storbyområder og videnstunge sektorer. Samtidig oplever en betydelig andel af SMV’erne, at AI slet ikke er relevant for dem. Briefet peger på behovet for initiativer, der kan styrke kompetenceniveauet, skabe klarhed om regulering og understøtte en bredere, ansvarlig udnyttelse af AI i SMV’er.
En modulær tilgang til digital suverænitet: Fra ambition til handling med et nationalt AI-orkestreringslag

Resumé
Digital suverænitet handler grundlæggende om kontrol – men kontrol kan se ud på mange måder og kan opnås på forskellig vis. Derfor kan det være svært at vide, hvor man skal begynde. Suverænitet handler også om kapacitet: evnen til selv at udvikle, drive og tilpasse digitale løsninger uden at være afgørende afhængig af få aktører. På AI-området kræver det en modulær tilgang for et land som Danmark, hvis ambitionen om kontrol og kapacitet skal omsættes til praksis. Hensyn til sikkerhed, økonomi og rettigheder skal gøres konkrete og teknisk implementerbare – som AI-byggeklodser, der gør det muligt at prioritere omkostninger, nytte og risici ved hvert modul. På den måde kan beslutningstagere tage målrettede skridt mod øget suverænitet, uden at låse sig fast eller overse kommende udfordringer og muligheder. Den modulære tilgang giver fleksibilitet til løbende tilpasning, efterhånden som teknologi og samfund udvikler sig. Vi præsenterer her ét forslag til et sådant modul: et nationalt AI-orkestreringslag, der gør det muligt at håndtere akutte behov samtidig med, at langsigtede strategiske mål fastholdes – og som giver både offentlige og private aktører et fælles teknisk fundament at bygge videre på.
Resumé
Dette forskningsbrief beskæftiger sig med danskernes brug af og holdning til generativ kunstig intelligens (KI) i 2025, baseret på data fra en større international online spørgeskemaundersøgelse og rapport udarbejdet i samarbejde med Reuters Institute for the Study of Journalism ved University of Oxford. Overordnet dokumenterer undersøgelsen en hurtig vækst i brugen af generativ KI i Danmark (omtrent dobbelt så hurtigt som brugen af internettet voksede i slutningen af halvfemserne), ret høj tillid til mange af de mest brugte former for generativ kunstig intelligens og flere optimister end pessimister, når det kommer til disse teknologiers konsekvenser. Samtidig er der stadig mange danskere, der kun har meget begrænset personlig erfaring med aktivt at bruge generativ kunstig intelligens. En stor del af befolkningen er i tvivl om, hvad konsekvenserne bliver, og der er en del bekymring om at brugen af disse teknologier i visse sektorer – f.eks. offentlige myndigheder, nyhedsmedier og i særdeleshed politikere og politiske partier. Givet den hurtige vækst i brug er det slående, at næsten halvdelen af vores respondenter ikke føler sig godt informeret om generativ KI.
CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.
Summary
The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.
.png)
.png)

