Statement on Superintelligence

Nyt initiativ fra Future of Life Institute i USA opfordrer til et omgående forbud mod udvikling af “Superintelligens”. Initiativet har fået bred opbakning fra fremtrædende repræsentanter fra alle sider af samfundet.

[Pejlingers oversættelse]

Erklæring om Superintelligens

Kontekst: Innovative AI-værktøjer kan sikre mennesker bedre sundhedsforhold og mere velstand end nogensinde før. Men samtidig har mange førende AI-virksomheder som erklæret mål i det kommende årti at udvikle superintelligens , der markant kan overgå mennesker indenfor stort set alle kognitive opgaver. Dette har givet anledning til en række bekymringer, der spænder fra overflødiggørelse af mennesker i produktionen og stigende følelse af afmagt til tab af frihed, borgerrettigheder, værdighed og kontrol, samt nationale sikkerhedsrisici og endda mulig udslettelse af mennesker. Den korte erklæring nedenfor har til formål at udbrede kendskabet til, at et stigende antal eksperter og offentlige personer modsætter sig et forhastet kapløb mod superintelligens.

Erklæring
Vi opfordrer til et forbud mod udviklingen af superintelligens, som ikke bør ophæves, før der er bred videnskabelig enighed om, at det kan gøres sikkert og kontrollerbart, og at der er stærk offentlig opbakning.

Erklæringen er på dagen for offentliggørelse den 22. oktober 2025 kl.18:20 underskrevet af 1.358 personer herunder en række førende videnskabsfolk, kulturpersonligheder, politikere og akademikere.


[Original tekst]

Statement on Superintelligence

Context: Innovative AI tools may bring unprecedented health and prosperity. However, alongside tools, many leading AI companies have the stated goal of building superintelligence in the coming decade that can significantly outperform all humans on essentially all cognitive tasks. This has raised concerns, ranging from human economic obsolescence and disempowerment, losses of freedom, civil liberties, dignity, and control, to national security risks and even potential human extinction. The succinct statement below aims to create common knowledge of the growing number of experts and public figures who oppose a rush to superintelligence.

Statement
We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.

https://superintelligence-statement.org/


Illustration: Scene fra filmen ‘Ex Machina’

Medvirkende: Domhnall Gleeson, Corey Johnson, Oscar Isaac, Alicia Vikander
Instruktør: Alex Garland
Storbritannien, USA, 2015

Filmen er den perfekte allegori over temaet om risikoen ved udvikling af superintelligens.