Events
Eventet blev afholdt:
11.11.2025
kl.
9:00
11.11.2025
kl.
15:00

ADD partnerkonference 2025

Får vi en verden med AGI – og hvordan forbereder vi os?

Udviklingen inden for kunstig intelligens bevæger sig med rekordfart. Mange taler om AGI – generel kunstig intelligens eller superintelligens – hvor maskiner kan tænke, lære og handle som (eller klogere end) os mennesker.

Men hvad betyder det egentlig for vores samfund – og for os som mennesker? Og hvor langt er vi egentligt fra, at AGI kan blive til virkelighed?

Det dykker vi ned i en fælles konference, som vi i CAISA, Algoritmer, Data og Demokrati - ADD projektet og IDA står bag. Her præsenterer vi også CAISA’s helt nye research brief om AGI, der giver et forskningsbaseret overblik over de samfundsmæssige konsekvenser af AGI – vi håber, det vil bidrage til en debat, der ofte er præget af både hype og frygt.

Glæd dig til oplæg fra bl.a. Anders Søgaard, Christina Lioma, Serge Belongie, Anna Rogers, Thomas Moeslund, Rebecca Adler-Nissen, Laura Klitgaard, Lisbeth Knudsen, Gry Hasselbalch, Torben Elgaard Jensen, Christiane Vejlø og Andreas Espersen.

Læs mere
Læs mere og tilmeld dig her

Flere events

Der er pt ikke flere kommende events planlagt.
Forskning
Læs mere
Forskning
Artificial General Intelligence and its Societal Implications

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Nyhed
Rebecca Adler-Nissen: Tro ikke på alt, hvad du hører om superin­tel­li­gens

CAISAs centerleder Rebecca Adler-Nissen skriver i en kommentar i Børsen om superintelligens, symbolpolitik og Silicon Valleys afledningsmanøvre.

"For big tech fungerer fascinationen af en nærtforestående superintelligens som et kommercielt røgslør, der fjerner fokus fra, hvad kunstig intelligens betyder allerede nu og her."

Kommentaren bygger på CAISAs seneste forskningsbrief, der handler om udsigterne til kunstig superintelligens eller Artificial General Intelligence (AGI).

Læs mere
Forskning
Læs mere