Nyheder

Millionbevilling til samarbejde om infrastruktur og forskning i ansvarlig AI

Det Nationale Center for AI i Samfundet (CAISA) modtager 45 millioner kroner fra forskningsreserven til et nyt AI-samarbejde med Danmarks Statistik. Det står klart, efter partierne bag forskningsreserven har indgået aftale om udmøntningen af næste års midler.

Samarbejdet mellem CAISA og Danmarks Statistik skal styrke både forskning i ansvarlig kunstig intelligens (AI) og den infrastruktur, som gør forskningen mulig - til gavn for hele Danmark.

”Med samarbejdet mellem CAISA og Danmarks Statistik får vi en unik mulighed for at kombinere verdensførende forskningskompetencer med en unik national datainfrastruktur. Samarbejdet kan bidrage til, at Danmark står stærkt som et samfund, der både udnytter AI’s muligheder og sætter borgernes rettigheder og tillid i centrum,” siger leder af samarbejdet, Andreas Bjerre-Nielsen der er seniorforsker i CAISA og lektor i Social Datavidenskab og Økonomi på Københavns Universitet.

To indsatser, der hænger sammen

Samarbejdet bygger på to indsatser, der understøtter hinanden gensidigt:

Den ene indsats handler om at styrke og modernisere infrastrukturen for AI-forskning hos Danmarks Statistik, som har en lang tradition for at stille data til rådighed for forskning. Målet med den nye indsats er, at danske forskere får gode muligheder for at håndtere nye og komplekse datakilder – som for eksempel ustrukturerede data. Samtidig bliver det muligt at træne store AI-modeller på danske registerdata i et sikkert analysemiljø og med moderne hardware.

Den anden indsats skal skabe ny viden om, hvordan vi kan anvende AI-algoritmer ansvarligt i samfundet. Gennem udvikling og anvendelse af Danmarks Statistiks infrastruktur og data, skal der undersøges muligheder for at skabe en platform, der skal sikre, at de algoritmer, som bruges i Danmark, lever op til grundlæggende krav som ligebehandling, gennemsigtighed og tillid. Forskningen vil også undersøge, hvordan man kan sikre at algoritmerne bevarer eller forbedrer funktionalitet - også efter de er taget i brug.

”Gennem 35 år har Danmarks Statistik på en sikker måde stillet kvalitetssikrede og dokumenterede data til rådighed for forskning. Det skal vi naturligvis blive ved med, selv når teknologien og efterspørgslen udvikler sig. Jeg er glad for, at CAISA og Danmarks Statistik skal arbejde sammen om et nyt stort skridt, så forskere fra hele landet i fremtiden får mulighed for at arbejde sikkert og forsvarligt med ny teknologi på vores og andres data” siger rigsstatistiker Martin Ulrik Jensen fra Danmarks Statistik.

Læs mere
Forskning
Læs mere
Forskning
Artificial General Intelligence and its Societal Implications

CAISA udgiver nu sit første research brief, Artificial General Intelligence and its Societal Implications. Briefet handler om kunstig generel intelligens (AGI) i samfundet. Læs et resumé på engelsk herunder.

Summary

The prospect of artificial general intelligence (AGI) has led some researchers and entrepreneurs to foresee an imminent “intelligence explosion,” leading to either humanity’s near-extinction, or a future of abundance. This brief examines the philosophical and technical premises underpinning such predictions, and their implications for governance. There are two such premises: first, that AI systems can be intelligent and become more intelligent with time; and second, that advanced AI can direct its behavior towards autonomously set goals. However, these premises rest on relatively weak foundations. CAISA recommends a clear-headed approach to AGI, as long as the concept and governance suggestions remain vague. The rush to prioritize AGI development—and/or its governance—risks diverting attention from the tangible risks posed by existing AI technologies, such as algorithmic bias, privacy erosion, and unchecked power concentrations. At the same time, to have a more meaningful discussion of AGI further research is needed, spanning philosophy, cognitive science, cybersecurity as well as the societal and political impact of AGI narratives.

Læs mere
Nyhed
Rebecca Adler-Nissen: Tro ikke på alt, hvad du hører om superin­tel­li­gens

CAISAs centerleder Rebecca Adler-Nissen skriver i en kommentar i Børsen om superintelligens, symbolpolitik og Silicon Valleys afledningsmanøvre.

"For big tech fungerer fascinationen af en nærtforestående superintelligens som et kommercielt røgslør, der fjerner fokus fra, hvad kunstig intelligens betyder allerede nu og her."

Kommentaren bygger på CAISAs seneste forskningsbrief, der handler om udsigterne til kunstig superintelligens eller Artificial General Intelligence (AGI).

Læs mere
Forskning
Læs mere