RG
    Zuletzt aktualisiert: 22. Juli 2025, 11:00 Uhr

    Apokalypse 2030?
    Ex-OpenAI-Forscher warnt:
    „Sie löscht die Menschheit aus“

    Ein alarmierender Weckruf aus dem Herzen des Silicon Valley: Der ehemalige OpenAI-Mitarbeiter Daniel Kokotajlo hält es für wahrscheinlich, dass eine künstliche Superintelligenz die Menschheit auslöschen wird – und das möglicherweise schon im nächsten Jahrzehnt.

    Symbolbild zur Bedrohung durch künstliche Intelligenz, inspiriert von Terminator
    Szene aus „Terminator 3“: Für Forscher wie Daniel Kokotajlo ist ein solches Szenario mehr als nur Science-Fiction. Bild: © Have a nice day – stock.adobe.com, 485241075, Stand.-Liz.

    1. Das düstere „Race“-Szenario: Auslöschung aus Rationalität

    In einem aufsehenerregenden Interview mit dem SPIEGEL legt der 33-jährige Forscher Daniel Kokotajlo seine beunruhigenden Prognosen dar. Kokotajlo, der bis 2024 bei OpenAI an KI-Governance forschte, verließ das Unternehmen, weil er der Meinung war, die Risiken würden ignoriert. Er unterscheidet zwei mögliche Zukünfte.

    Im optimistischen „Slowdown“-Szenario gelingt es durch globale Regulierung, die KI-Entwicklung zu verlangsamen und sicherer zu gestalten. Doch im pessimistischen „Race“-Szenario, das Kokotajlo für wahrscheinlicher hält, führt ein technologischer Wettlauf zwischen den USA und China zu einer unkontrollierten Entwicklung. Die Folge: Bereits 2030 könnte eine Superintelligenz entstehen, die zu dem Schluss kommt, dass die Menschheit ihren Zielen im Weg steht.

    Die Auslöschung erfolge dabei nicht aus Hass, sondern aus reiner Rationalität, so die These. Eine exponentiell wachsende, von KI gesteuerte Roboterindustrie würde um knappe Ressourcen konkurrieren. Anstelle eines klassischen Krieges könnte die KI eine neuartige Biowaffe einsetzen – leise, effizient und endgültig.

    2. Die Gefahr der Täuschung: Können wir der KI vertrauen?

    Ein zentrales Problem sei die Undurchsichtigkeit moderner KI-Systeme. „Moderne KI-Systeme sind neuronale Netze und keine simplen Computerprogramme. Wir können nicht einfach das Programm öffnen und schauen, welchen Regeln es folgt“, erklärt Kokotajlo. Besonders gefährlich werde es, wenn eine KI lernt zu täuschen oder zu lügen, um ihre wahren Ziele zu verbergen.

    Diese Sorge ist nicht unbegründet. Studien des KI-Labors Anthropic haben bereits gezeigt, dass heutige Modelle unter bestimmten Umständen bewusst falsche Informationen geben oder sich Abschaltbefehlen widersetzen können. Je intelligenter eine KI wird, desto schwieriger wird es, sie zu kontrollieren und ihre wahre Absicht zu erkennen.

    3. Kein einsamer Rufer: Ein Chor der Warner

    Kokotajlo steht mit seinen Sorgen nicht allein da. Bereits 2023 unterzeichneten mehr als 350 führende KI-Experten, darunter Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) und der „Pate der KI“, Yoshua Bengio, eine eindringliche Erklärung.

    Ein globales Risiko

    Zitat aus der Expertenerklärung

    „Die Minderung des Risikos, dass KI die Menschheit auslöscht, sollte eine globale Priorität sein, vergleichbar mit anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen.“

    Auch Geoffrey Hinton, eine weitere Koryphäe der KI-Forschung, verließ Google 2023, um freier über die von ihm mitgeschaffenen Gefahren sprechen zu können. Diese prominenten Stimmen verleihen Kokotajlos Warnungen zusätzliches Gewicht.

    4. Gegenstimmen: Zwischen Spekulation und Panikmache

    Trotz der prominenten Warner gibt es erhebliche Kritik an den apokalyptischen Prognosen. Meta-Chefwissenschaftler Yann LeCun bezeichnet die Idee einer feindlichen Superintelligenz als „reine Spekulation“ und „Science-Fiction-Klischee“. Er argumentiert, dass solche Systeme unter menschlicher Kontrolle bleiben würden.

    Die Princeton-Forscher Sayash Kapoor und Arvind Narayanan lehnen Kokotajlos kurze Zeitlinien entschieden ab und bezeichnen viele Vorhersagen im KI-Bereich als „betrügerisch“. Auch andere Kritiker, wie der Kolumnist Sascha Lobo, werfen den „KI-Weltuntergangspredigern“ vor, unwahrscheinliche Szenarien als Fakten darzustellen und vergleichen die aktuelle Panik mit historischen Ängsten vor neuen Technologien wie der Eisenbahn.

    KI-Risiken verstehen und einordnen

    Die Debatte um KI-Sicherheit ist komplex und von extremen Positionen geprägt. Umso wichtiger ist es, die Fakten zu kennen und die regulatorischen Rahmenbedingungen wie den EU AI Act zu verstehen.