Die Diskussion um künstliche Intelligenz wurde durch die Einführung von „ChatGPT“ vor einem Jahr stark belebt. Entwickeln Maschinen Bewusstsein? Vordergründig sieht das so aus. Doch Joe Romanski zeigt in seinem hoch spannenden philosophischen Essay auf, warum bereits die Fragestellung problematisch ist.
„Der kluge Hans“ war ein erstaunliches Pferd. Denn scheinbar konnte es rechnen sowie Farben und Buchstaben unterscheiden. Die Rechenkünste des Tieres erregten Anfang des 20. Jahrhunderts in Deutschland einiges Aufsehen; viele sahen sie als Belege für tierische Intelligenz an, bis ein Psychologie-Student nach gründlichen Untersuchungen 1907 des Rätsels Lösung fand. Sie wird seitdem Kluger-Hans-Effekt genannt und sollte ein halbes Jahrhundert später eine wichtige Rolle beim Verständnis Künstlicher Intelligenz spielen. Der Verständnisprozess ist immer noch nicht abgeschlossen, unter anderem, weil schon eine allgemeingültige Definition von Intelligenz schwierig ist; unter den Psychologen kursiert dazu die nicht ganz ernst gemeinte Definition, Intelligenz sei, bei IQ-Tests gut abzuschneiden. Auch hatte man lange Zeit zunächst nur die sprachliche, logisch-mathematische Intelligenz im Visier – dabei gibt es auch andere „Formen“, die mindestens gleich bedeutsam sind: emotionale Intelligenz, musikalische, räumliche, kinästhetische, interpersonelle … und möglicherweise ist es sogar sinnvoll, eine spirituell-transzendentale zu postulieren. So ist es wenig verwunderlich, dass die verschiedenen Wissenschaften und philosophischen Strömungen jeweils eigene Ansätze, Definitionen und Modelle verwenden.