Nyheder

Forskere: Vi står over for en teknologisk revolution, og Danmark kan vise vejen

I en kronik i Politiken opridser CAISA syv centrale spørgsmål, vi må stille os selv, hvis Danmark skal vise verden en bedre vej med kunstig intelligens, der styrker både konkurrenceevne, demokrati og digital selvbestemmelse.

"Med sine stærke traditioner for fællesskab og tillid kan Danmark vise, at AI både kan skabe værdi og gøre samfundet bedre. Hvis vi lykkes, kan Danmark ikke blot sikre en bedre udrulning af kunstig intelligens herhjemme, men også inspirere resten af verden til at følge en klogere vej."

Læs mere
Forskning
Læs mere
Forskning
Artificial General Intelligence and its Societal Implications

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Nyhed
Rebecca Adler-Nissen: Tro ikke på alt, hvad du hører om superin­tel­li­gens

CAISAs centerleder Rebecca Adler-Nissen skriver i en kommentar i Børsen om superintelligens, symbolpolitik og Silicon Valleys afledningsmanøvre.

"For big tech fungerer fascinationen af en nærtforestående superintelligens som et kommercielt røgslør, der fjerner fokus fra, hvad kunstig intelligens betyder allerede nu og her."

Kommentaren bygger på CAISAs seneste forskningsbrief, der handler om udsigterne til kunstig superintelligens eller Artificial General Intelligence (AGI).

Læs mere
Forskning
Læs mere