Forskning

Artificial General Intelligence and its Societal Implications

CAISA - Brief

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Læs mere
Read the brief in English here
Nyhed
CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige mode

CAISA prioriterer internationale møder og fortæller gerne om vores særlige tværvidenskabelige model.

Vi har mødtes med delegationer fra bl.a. Norge, Estland og Tyskland. I sidste uge mødtes vi med Nigerias digitalieringsminister og H.E. Dr. Bosun Tijani og hans delegation. Den nigerianske delegation fortalte bl.a. om store strategiske ambitioner om at installere 90.000km fiberoptiske kabler, der skal sikre den digitale infrastruktur i hele landet, men også om den enorme AI-entusiasme blandt Nigerias unge befolkning.

CAISA fortalte bl.a. om vigtigheden af forskning i hvordan AI kan anvendes ansvarligt og demokratisk.

Læs mere
Forskning
Læs mere
Nyhed
CAISA's vicecenterleder Thomas Moeslund udpeget til Dataetisk Råd

CAISA er stolt af at kunne dele, at vores vicecenterledr, Thomas Moeslund, er udpeget som nyt medlem af Dataetisk Råd. Udnævnelsen afspejler både hans mangeårige bidrag til forskning i kunstig intelligens og computer vision samt hans stærke fokus på ansvarlig teknologiudvikling.

Som professor ved Aalborg Universitet og internationalt anerkendt forsker har Thomas gennem sin karriere arbejdet indgående med samspillet mellem avancerede algoritmiske metoder og deres samfundsmæssige implikationer. Hans forskning spænder fra grundlæggende metodeudvikling til praksisnære AI-løsninger, hvor transparens, retfærdighed, autonomi og langsigtede konsekvenser er centrale pejlemærker.

Dataetik som fundament for ansvarlig AI

I en tid, hvor udviklingen inden for kunstig intelligens accelererer hurtigere end både regulering og samfundets fælles forståelsesrammer, bliver behovet for kompetent dataetisk rådgivning stadig mere pressende. Manipuleret indhold, automatiserede beslutningsprocesser og nye anvendelser af generativ AI skaber markante dilemmaer for både borgere, virksomheder og lovgivere.

Thomas Moeslund fremhæver selv vigtigheden af et stærkt dataetisk grundlag:

Dataetik er for mig ikke en eftertanke, men en integreret del af forskning, udvikling og implementering af teknologi.”

Hans tilgang understreger, at ansvarlig AI ikke kan adskilles fra den tekniske udviklingsproces, men må tænkes ind fra begyndelsen – fra datasæt og modeldesign til implementering og anvendelse i samfundet.

Rådets rolle i et komplekst teknologisk landskab

Som medlem af Dataetisk Råd får Thomas Moeslund en central rolle i arbejdet med at belyse de dataetiske dilemmaer, der følger af den hastige udvikling inden for kunstig intelligens. Det gælder både udfordringer relateret til misinformation, algoritmisk bias og AI-systemers påvirkning af demokratiske processer og samfundsstrukturer.

Om rådets funktion siger Thomas:

Rådet kan spille en brobyggerrolle mellem tekniske eksperter, lovgivere, virksomheder og borgere ved dels at skabe fælles etiske standarder og proaktive løsninger – før problemerne eskalerer, og ved dels at bistå med formidling til den brede befolkning”

Med hans udpegning tilføres Dataetisk Råd en stærk teknologisk og forskningsfaglig stemme, som kan bidrage til at sikre en ansvarlig og menneskecentreret udvikling og anvendelse af kunstig intelligens i Danmark.

CAISA’s perspektiv

I CAISA arbejder vi for at fremme menneskecentreret og ansvarlig AI, og udnævnelsen af Thomas Moeslund afspejler netop den type ekspertise, der er nødvendig for at udvikle AI-løsninger, som både er teknisk avancerede og etisk robuste.

Vi ser frem til at bidrage til dette arbejde gennem forskningsindsigter og faglige perspektiver fra CAISA’s miljø – og til at følge Thomas’ vigtige rolle i udformningen af den nationale dataetiske agenda.

Læs mere
Forskning
Læs mere
Forskning
Brugen af chatbots i den offentlige sektor

Dette forskningsbrief præsenterer et systematisk overblik over, hvad forskningslitteraturen siger om implementering og brug af chatbots i det offentliges arbejdsgange og i mødet med borgeren. Dets formål er at identificere og analysere både muligheder og udfordringer inden for området gennem en systematisk syntese af den eksisterende empiriske forskning om implementering og anvendelse af samt borgernes holdninger til og oplevelser af brugen af chatbots i den offentlige sektor. Briefet viser, at chatbots kan bidrage til effektivisering af nogle arbejdsgange i det offentlige, men de skaber også nyt arbejde og opgaveglidning for fagspecialister. På borgersiden dokumenterer forskningen, at veluddannede, yngre og ressourcestærke borgere i højere grad har tillid til og positive oplevelser med chatbots i mødet med det offentlige, mens det for andre – f.eks. borgere med handicap eller borgere med komplekse udfordringer - skaber ny friktion i mødet med det offentlige. Dette kan forstærke eksisterende sociale og digitale uligheder i befolkningen.

Læs mere