Nyheder

Verden forsøgt forklaret: Serge Bolongie

Hvordan undgår vi en fremtid, hvor algoritmer begrænser de spørgsmål, vi må stille – og hvor offentlige tjenester bliver overladt til Big Tech? Og kan vi – gennem fællesskab, åbenhed og demokratisk handlekraft – skabe en ny form for digital infrastruktur, som vi rent faktisk kan have tillid til?

Professor Serge Belongie leder Pionercentret for kunstig intelligens ved Københavns Universitet og er en af de drivende kræfter bag CAISA.

I denne episode af VERDEN FORSØGT FORKLARET hører du, hvordan en vild forskningsidé bliver til, hvad den har at gøre med fuglekiggeri og dansk film, og hvorfor den amerikanskfødte Belongie mener, at Danmark måske er et af de eneste steder i verden, hvor et sådant projekt virkelig kan lykkes.

Læs mere
Forskning
Læs mere
Forskning
Artificial General Intelligence and its Societal Implications

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Nyhed
Rebecca Adler-Nissen: Tro ikke på alt, hvad du hører om superin­tel­li­gens

CAISAs centerleder Rebecca Adler-Nissen skriver i en kommentar i Børsen om superintelligens, symbolpolitik og Silicon Valleys afledningsmanøvre.

"For big tech fungerer fascinationen af en nærtforestående superintelligens som et kommercielt røgslør, der fjerner fokus fra, hvad kunstig intelligens betyder allerede nu og her."

Kommentaren bygger på CAISAs seneste forskningsbrief, der handler om udsigterne til kunstig superintelligens eller Artificial General Intelligence (AGI).

Læs mere
Forskning
Læs mere