Die Beweislast hat sich umgekehrt
Der Philosoph Markus Gabriel hat sein eigenes Argument gegen maschinelle Intelligenz zerlegt. Die Logik ist unangenehm sauber.
Die Beweislast hat sich umgekehrt
Können Maschinen denken? Die Philosophie war sich da lange einig: Nein. Denken braucht einen biologischen Körper, Bewusstsein, Evolution. KI simuliert nur. Markus Gabriel hat das jahrelang so vertreten — und ich fand es schlüssig.
Bis er im ZEIT-Podcast Alles gesagt sein eigenes Argument zerlegt hat.
Der Riss in der Mauer
Das bekannteste Argument gegen maschinelle Intelligenz ist Searles Chinese Room (1980): Eine Person in einem Raum folgt Übersetzungsregeln, ohne Chinesisch zu verstehen. Der Raum scheint zu verstehen, aber niemand darin tut es. Fazit: Computer manipulieren Symbole. Kein Verstehen, kein Denken.
Gabriel argumentierte jahrelang ähnlich. In Der Sinn des Denkens (2018) war Denken für ihn ein Sinn, gebunden an den menschlichen Körper, ein Produkt der Evolution. Intelligenz als natürliches Phänomen. Punkt.
Dann fand er eine versteckte Annahme in seiner eigenen Argumentation: Das ganze Argument setzt voraus, dass ein Modell der Intelligenz nicht selbst intelligent sein kann. Jedes Biologische-Substrat-Argument hängt an dieser Prämisse. Und die ist nicht bewiesen.
Searles Regensturm, umgedreht
Die stärkste Version des Gegenarguments stammt von Searle selbst, und der Neurowissenschaftler Anil Seth verwendet es heute: Eine Simulation des Verdauungssystems verdaut nichts. Eine Simulation von Regen macht nichts nass. Warum sollte eine Simulation eines Gehirns Denken hervorbringen?
Das klingt erst mal wasserdicht. Aber Gabriel dreht es um: Ein Wettermodell sagt Regen korrekt vorher, ohne dass es im Computer regnet. Das Modell muss das Phänomen nicht reproduzieren, um etwas Reales zu leisten. Es erfasst die Struktur des Wetters gut genug für nützliche, verlässliche Arbeit — ohne selbst Wetter zu sein.
Jetzt muss man fairerweise sagen: Das beweist nicht, dass Maschinen denken. Ein Wettermodell erzeugt Vorhersagen, keinen Regen. Nach derselben Logik erzeugt KI nützliche Ausgaben, kein Denken. Die Analogie funktioniert in beide Richtungen.
Aber was sie zeigt: Der kategorische Ausschluss trägt nicht. „Es regnet nicht im Computer, also hat das Modell nichts mit Wetter zu tun" — das sagt niemand. Das Modell erfasst etwas Reales über die Struktur des Phänomens. Ob dieses Reale bei KI Intelligenz ausmacht, hängt an einer Frage, die niemand beantwortet hat: Ist Intelligenz der biologische Prozess — oder das funktionale Muster aus Schlussfolgerung, Problemlösung und Sprache? Wenn es das Muster ist und KI das Muster reproduziert, dann ist KI intelligent. Wenn es der Prozess ist, ist KI ein nützliches Modell — aber nicht die Sache selbst.
Was mich daran fasziniert
Gabriels Beitrag ist keine Antwort. Er kehrt die Frage um. Wenn wir maschinelle Intelligenz nicht mehr prinzipiell ausschließen können, müssen nicht mehr wir beweisen, dass KI denkt. Es muss gezeigt werden, dass sie es nicht tut.
Und das ist historisch nie so richtig geglückt. KI war immer „das, was gerade noch nicht geht". Schach, Go, Gedichte, Programmierung — ging dann alles doch.
Ich bin kein Philosoph. Ich weiß nicht, was die richtige Antwort ist. Aber ich finde Gabriels Logik schwer zu widerlegen.
Nichts davon klärt, ob Maschinen Bewusstsein haben. Seth argumentiert sorgfältig, dass Bewusstsein biologische Substrate erfordern könnte, und er hat vermutlich recht, diese Frage offen zu halten. Aber Bewusstsein und Intelligenz sind nicht dasselbe. Aber die pauschale Absage an maschinelle Intelligenz? Die hat ein Problem.
Quellen:
- Markus Gabriels weiterentwickelte Position wird im ZEIT-Podcast "Alles gesagt" (März 2026) diskutiert.
- Seine frühere Position findet sich in "Der Sinn des Denkens" (Ullstein, 2018). Sein neuestes Buch zum Thema ist "Ethische Intelligenz" (Ullstein, 2026).
- Das Chinese-Room-Argument stammt von John Searle, "Minds, Brains, and Programs" (Behavioral and Brain Sciences, 1980) — einschließlich der ursprünglichen Regensturm-Analogie.
- Anil Seth entwickelt seinen biologischen Naturalismus in "Conscious Artificial Intelligence and Biological Naturalism" (Behavioral and Brain Sciences, 2025) und "The Mythology of Conscious AI" (Noema, 2026).