05 – Der künstliche Irrtum

Warum ich nicht an die finstere Machtübernahme der Künstlichen Intelligenz glaube – und auch nicht an das Gegenteil

Juli 2017

„Auf Künstliche Intelligenz gibt es nur zwei Reaktionsmöglichkeiten: Künstliche Dummheit oder menschliche Intelligenz – was sich übrigens nicht ausschließt. Künstliche Dummheit ist eine naiv anmutende Befragung von Selbstverständlichkeiten, die keine sind. Menschliche Intelligenz beginnt da, wo Kreativität im Nichtwissen, im Nicht-Regelbasierten notwendig wird.”
Stephan A. Jansen

1. Roboter, die auf Roboter starren

Als Zukunftsforscher bin ich daran interessiert, dass vielfältige und produktive Debatten über die Zukunft entstehen. Das ist der eigentliche Sinn meiner Disziplin: Dass wir mit dem Morgen in einen inneren Dialog geraten, der uns – als Individuen, Kulturen, Zivilisation – den Weg weisen kann. Dass wir uns verständigen, wohin wir wollen.

Manchmal geraten solche Debatten allerdings gründlich aus dem Ruder. Jüngstes Beispiel ist der Hype um die KÜNSTLICHE INTELLIGENZ. Es vergeht kein Tag, an dem nicht im Fernsehen, auf Podien und Kongressen, Männer zusammenhocken und mit bedenklichen Mienen über die Schrecken der kommenden Machtübernahme durch intelligente Computersysteme reden. Jede zweite Zeitschriftenbeilage zeigt heute auf dem Cover weiße Plastik-Roboter mit Halsgestänge, die melancholisch einherschauen. Oder Roboter-Ladies, die Schmetterlinge fliegen lassen. Auf manchen meiner Vorträge muss ich, bevor ich auf die Bühne darf, einem blödsinnig grinsenden Roboter die Hand schütteln, der unendlich langsam irgendwelche vorprogrammierten Begrüßungsworte spricht.

Das Problem dieses Diskurses ist nicht, dass er geführt wird. Das Problem ist, dass er so vollgestopft mit Klischees, Ängsten und Missverständnissen ist, dass er sich immer im Kreis dreht. Die KI-Debatte ist, frei nach nach dem Philosophen Harry Frankfurter, zum „Future Bullshit” geworden. Nach Wikipedia:

Das vulgäre Wort Bullshit bezeichnet in der englischen Umgangssprache eine bestimmte Art von Gerede, das im Gestus oft prätentiös, inhaltlich aber leer ist. Am treffendsten lässt der Ausdruck sich mit dem neudeutschen Wort Hohlsprech übersetzen, eingeschränkt auch mit Salbadern. Auch der Ausdruck Geschwurbel weist in diese Richtung.

KI-Debatten sind – meistens zumindest – Grusel-Shows, in deren Zentrum eine Art humane Selbsterniedrigung steht. Frauen beteiligen sich – und das ist kein Zufall – nur selten an der Diskussion. Es ist irgendwie eine Männerdebatte, die ganz offensichtlich von einer seltsamen Urangst getrieben wird: überflüssig zu werden.

2. Das Pellkartoffel-Prinzip

Der Soziokybernetiker Niklas Luhmann formulierte einmal den Kategorienfehler als Grundlage aller kognitiven Irrtümer: Ein Kategorienfehler (auch „Ebenen-Verwechselung”) ist es zum Beispiel, wenn ein Bauer ein Feld zum Anbau von Pellkartoffel reserviert.

Die KI-Debatte krankt zuallererst daran, dass alle ihre Kategorien unentwegt auf einen Haufen geworfen werden. Nach dem Pellkartoffel-Prinzip wird zunächst die Kategorie Intelligenz ständig mit Bewusstsein verwechselt.

Intelligenz ist die Fähigkeit zum operativen Problemlösen. Computer können das ziemlich gut. Intelligenz kommt von inter-legere – was wählen oder entscheiden bedeutet. Für Intelligenz benötig man ein symbolisches – oder abstraktes – Operationssystem, dass in einem bestimmten Phänomen REGELN erkennt. Computer können gut Schach spielen, weil die Regeln in diesem Spiel ziemlich klar und operativ anwendbar sind. Mit GO, dem fernöstlichen Äquivalent des Schach, hatten KI-Systeme bislang größere Probleme, weil sich die möglichen Züge im Spielverlauf ungeheuer potenzieren – ähnlich wie beim Schmetterlingseffekt der Wetterbildung.

Intelligent ist allerdings auch mein Hund. Er löst seine Aufgaben, indem er die Bälle apportiert, die ich ihm zuwerfe und sie machmal sogar fallenlässt, damit ich sie erneut werfen kann. Er bellt zielgerichtet den unbe­kannten Postboten an, aber nicht den bereits bekannten. Damit löst er das Problem unidentifizierter Eindring­linge. Er kann mich manipulieren, indem er mich zärtlich mit seinen treuen braunen Augen anschaut, damit ich ihm noch ein Leckerli spendiere. Das ist Intelligenz, denn mein Hund löst ein Problem, sein Existenzproblem. Ebenso wie die KI in meinem Tesla, die auf der Autobahn Lastwagen, Motorradfahrer und normale Autos differenzieren kann, und mich auf der Autobahn halbautomatisch fahren lässt. Ja, das geht schon ganz gut.

Aber muss ich davor Angst haben? Muss ich mich wirklich fürchten, dass das Auto irgendwann das Steuer übernimmt und wahlweise eine Gruppe von Rentnern oder eine Frau mit Säugling überfährt, wie das derzeit angeregt diskutiert wird?

Der eigentliche Verdacht, auf dem der KI-Hype besteht, bezieht sich auf die Kategorie des Bewusstseins. Irgendwann, so raunt und munkelt es, MÜSSEN Künstliche Intelligenzen böse werden. Den Menschen unterjochen, die Macht an sich reißen, uns zu Blutwurst verarbeiten…

Bewusstsein ist das, womit wir uns selbst als humane Wesen erkennen und definieren können. Bewusstsein bedeutet, zu wissen, dass man existiert, und sich in seiner Weltwahrnehmung auf Erfahren und Erfühlen zu beziehen. Dazu gehört Intuition, die Fähigkeit, Intentionen des Anderen zu lesen, Empathie. Dieses Wirklichkeitsgefühl wirkt rekursiv – das heißt wir betrachten, wie in einer Serie von Spiegeln, unser eigenes Betrachten. Douglas Hofstadter, der amerikanische Kognitionswissenschaftler und Informatiker, spricht von der „Seltsamen Schleife”, die unser Bewusstsein konstituiert. Bewusstsein bedingt Gefühle, die von einer Beobachtungs-Instanz (dem Selbst) registriert und bewertet werden können.

Der englische Moralphilosoph Jeremy Bentham formulierte zu künstlichen Intelligenzen: „Die Frage ist nicht: Können sie logisch sein, können sie sprechen? Sondern: Können sie LEIDEN?”

Wer nur Routinen ausführt, wird irgendwann „bewusstlos”, er kann sich nicht mehr innerlich konstruieren. Gefühle setzten einen existentiellen Mangel voraus, der ohne Sterblichkeit und Schmerz nicht zu haben ist. Bewusstsein erfordert einen Bruch zwischen zwischen symbolischer, operationaler und Empfindungs-Ebene. Bewusstheit entsteht, so könnte man zuspitzen, immer nur in existentieller Konfusion.

Die Grusel-Abteilung der KI-Debatte geht nun von der Annahme aus, dass auch Computer „demnächst” Bewusstsein entwickeln werden. Aber genau an diesem Punkt dreht sich die KI-Debatte immer sinnlos im Kreis: Wenn Computer bewusst werden sollen – zum Beispiel Macht-Intentionalität entwickeln – müssten wir ihnen Fleisch und Sterblichkeit verleihen. Denn Macht macht nur Sinn, wenn ich Angst habe und Ressourcen für mich abzweigen möchte. Dann aber wären Computer Menschen. Von diesem kategorialen Dilemma handelt zum Beispiel die Geschichte des Androiden DATA in Star Trek, der unentwegt wissen will, was es bedeutet, ein Mensch zu sein.

https://en.wikipedia.org/wiki/Data_(Star_Trek)

Was DATA in seiner Menschwerdung auszeichnet, ist Humor. Aber der Androide ist gar nicht witzig; der Zuschauern nimmt ihn nur als witzig war, weil er sein inneres Dilemma erkennt. Wenn wir Lachen, erkennen wir jene Paradoxie an, die uns als sterbliche Wesen mit unseren inneren Ebenen-Konflikten verbindet, und darüber mit allen anderen Menschen. Wir lachen sozusagen über unsere „ewige innere Pellkartoffel”. Lachen heißt, zu wissen, dass man Probleme niemals endgültig lösen kann und sich trotzdem gemeinsam zu entspannen.

3. Die Gott-Projektion

Stanley Kubricks legendärer Film „Odyssee im Weltraum” hat schon vor fünfzig Jahren das Narrativ der „Denkende Maschinen” kodiert. In der Mission des Raumschiffs Discovery zum Jupiter regiert HAL, der allwissende Bordcomputer, alle Systeme und damit das Schicksal der Mannschaft. HALs „Interface” ist jene rote Linse, die in der Ikonographie der KI-Debatte etwa so normativ ist wie ein Che-Guevara-Portrait für die Politik . Es ist ein AUGE, in dessen roter Färbung sich bereits eine Bereitschaft zur Boshaftigkeit ankündigt.


The famous red eye of HAL 9000, Cryteria, Wikimedia Commons

Nun brauchen Computer keine Augen, sondern allenfalls Kameralinsen. Die Darstellung der Linse als sehendes Auge erzeugt jedoch einen sofortigen anthropomorphen Effekt: Wir KÖNNEN gar nicht anders als uns HAL als wollendes Wesen wahrzunehmen. Augen sind das, wodurch wir beobachtet und sozial konstruiert werden. Durch Augen beobachten uns unsere Eltern, wenn wir als hilflose Säuglinge auf die Welt kommen. Durch das Wahrgenommen- und Beobachtet-Werden werden wir überhaupt erst existent. Säuglinge, die nicht beob-achtet werden, sterben.

Augen spielen auch in der Gotteserwartung eine Rolle: Gott zeichnet sich dadurch aus, dass er uns ständig beobachtet und bewertet – sozusagen rund um die Uhr. Die KI, die uns in „2001” allegorisch vorgeführt wird, ist also eine Mischung aus VATER-, MUTTER- und GOTT-Projektion. Und tatsächlich wirkt HAL im ersten Teil des Filmes wie eine unendlich gütige, mütterliche Macht, die gegen die Kälte des Weltalls (die Gefahren des Lebens) eine perfekte Komfortzone errichtet. David Bowmann, der Haupt-Astronaut, wird von HAL regelrecht „gepampert” – massiert, umschmeichelt, mit sonorer Stimme „verstanden”, immer wider nach dem Befinden gefragt.

Die Katharsis, die der zweite Teil des Films schildert, ist nur umso folgerichtiger. Sie handelt vom Grundversagen der Mutter, die sich in eine böse, strenge Hexe verwandelt. HAL; der Bordcomputer, verweigert dem Astronauten Bowmann den Zugang zum Mutterschiff. Sie möchte ihn im der unendlichen Kälte des Weltalls sterben lassen, um die „Mission” nicht zu gefährden.

Im Finale dekonstruiert Bowmann den Computer HAL, er überwindet die falsche Mutter, indem er sie/ihn in die Regression treibt (unvergessen das „Hänschen-Klein-Singen”, als die letzten Bewusstseinsmodule von HAL herausgeschraubt werden). Die „Mission” entpuppt sich als nichts anderes als der Weg in die Transzendenz. Im Ende des Films wartet die Wiedergeburt, die Konfrontation mit dem höheren Alien-Wesen, das uns endlich jene Unsterblichkeit und Komfortabilität schenkt, dass wir von den realen Müttern und Vätern nie erwarten durften.

4. Der Anthropomorph

Menschen haben eine tiefe Angewohnheit, ihre inneren Seelenzustände auf alles Mögliche zu projizieren: Sie antropomorphen. Unentwegt projizieren wir menschliche Eigenschaften auf Tiere, Gegenstände, Naturgewalten. 70 Prozent der Kinder bis 7 Jahre glauben, das Donald Duck REAL ist. 80 Prozent aller Besitzer von Staubsaugerrobotern geben diesen Namen und sprechen mit ihnen. Schon immer wurden extreme Wetterereignisse als Strafen der Götter ausgedrückt, oder – siehe Global Warming – als Strafen für Sünden.

Anthropomorphismus hat mit unserer genuinen menschlichen Angst und Hilflosigkeit zu tun. Wir suchen seit Urzeiten Mächte, die uns helfen können, zu überleben. Unsere Ur-Vorfahren müssen unter der Existentialität ihres fragilen Lebens besonders gelitten haben und um die Angst zu kompensieren, erschufen sie magische, mächtige Instanzen, „KIs”, die sie Götter nannten.

Ein großer Teil der schrillen KI-Debatte lässt sich auf Anthropomorphing zurückführen: Wir sind einfach irritiert durch die digitale Technologie, die uns unheimlich erscheint. Anders als mechanische Gegenstände mit ihren klassischen Hebel- und Kausalwirkungen blicken wir beim Computer im wahrsten Sinn des Wortes „nicht durch”. Wir schreiben ihm deshalb diffuse magische Fähigkeiten zu. Wir imaginieren ihn in Menschenform und unterstellen ihm emotionale Motive. Oder gleich Erlöungs-Kapazitäten, wie der Kult um die Singularität beweist, der von Ray Kurzweil vertreten wird.

Schon der antike Dichter Xenophanes schildert in einem Gedicht, wie Menschen ihre Götter nach ihrem eigenen Bilde erschaffen:

„Stumpfe Nasen und schwarz; so sind Äthiopias Götter,
Blauäugig aber und blond: so sehn ihre Götter die Thraker,
Aber die Rinder und Rosse und Löwen, hätten sie Hände,
Hände wie Menschen zum Zeichnen, zum Malen, ein Bildwerk zu formen,
Dann würden die Rosse die Götter gleich Rossen, die Rinder gleich Rindern Malen, und deren Gestalten, die Formen der göttlichen Körper,
Nach ihrem eigenen Bilde erschaffen: ein jedes nach seinem.

In der Spiegelung des Roboters begegnen wir vor Allem uns selbst: Wir fragen uns: Wie viel Maschine steckt eigentlich in uns selbst? Sind wir nicht selbst Routinewesen, die sich unendlich in Programmierungen verlieren? Wenn wir allerdings eines Tages IN DER WIRKLICHKEIT menschengleich Roboter entdecken würden, würden wir versuchen, sie so schnell zu zerstören wie David Bowmann den Computer HAL.

Dieser Effekt nennt sich UNCANNY-VALLEY-EFFEKT. Versuche mit menschenähnlichen Robotern zeigen: Je menschenähnlicher sie werden, desto mehr verfallen wir in Panik. Das hat wahrscheinlich etwas mit dem tief evolutionär in uns verankerten Bedürfnis zu tun, zwischen „tot” und „lebendig” differenzieren zu können. Der Boom der Zombie-Filme weist auf Ähnliches hin: Für unsere innere Integrität müssen wir wissen, ob „das”, womit wir es zu tun haben, tot oder lebendig ist. Die Roboter sind sozusagen die Untoten der Zukunft, und mit ihnen ziehen wir aus, um das Fürchten zu lernen.

Ich behaupte: Es werden keine humanoiden Pflegeroboter in Altersheimen Einzug halten. Auch erotische Partner/innen-Roboter werden sich als Marktflop herausstellen – ab einer gewissen Menschenähnlichkeit vergeht uns die Erotik. Stattdessen werden Roboter auch in Zukunft so aussehen, wie sie heute schon aussehen: Kastenhaft wie Waschmaschinen oder Geschirrspülautomaten, funktional wie Industrieroboter oder einfach niedlich. Für unser inneres Kind, das gerne mit Spielzeugen spielt, die wir herumkommandieren können, sind sie immer gut zu gebrauchen.

5. Bessere Fragen stellen
„Wie kann man anders über die Zukunft sprechen, als sie vorherzusagen oder vor ihr Angst zu machen?” Diese schlaue Frage stammt von dem anglo-französischen Philosophen Theodore Zelding. Auch der amerikanische Futurist Kevin Kelly behauptet in seinem neuen Buch „The Unevitable”: Was uns für immer von den Computern und Robotern unterscheiden wird, ist die Fähigkeit, gute FRAGEN zu stellen.

  • Gute Fragen sorgen sich nicht um korrekte Antworten.
  • Gute Fragen können nicht sofort beantwortet werden.
  • Gute Fragen fordern gängige Antworten heraus, indem sie sie infrage stellen.
  • Eine gute Frage erzeugt ein neues Territorium des Denkens.
  • Eine gute Frage oszilliert an der Grenze dessen, was man weiss, und was man nicht weiss, weder dumm noch offensichtlich.
  • Eine gute Frage kann nicht vorausgesagt werden.
  • Eine gute Frage ist das Zeichen eines gebildeten Geistes.
  • Eine gute Frage zu generieren ist das letzte, was eine Maschine lernen wird.

In der KI-Debatte werden die immergleichen, nicht besonders guten Fragen gestellt. Zum Beispiel:

  • Wann wird KI die Menschheit unterjochen?
  • Werden wirklich alle Jobs irgendwann durch Roboter ersetzt?

Solche Fragen sind nicht besonders klug, weil sie die (falsche) Antwort bereits voraussetzen.

GUTE Fragen hingegen wären:

    • Warum gibt es eigentlich immer MEHR Jobs – obwohl seit vielen Jahren immer behauptet wird, die Technisierung würde alle Jobs vernichten?
    • Wie können wir am besten aufhören, uns mit digitalen Maschinen zu verwechseln?
    • Wie können wir digitale Expertensysteme nutzen, um entspannter, klüger, bewusster und gesünder zu werden und unsere menschlichen Fähigkeiten sinnvoller zu nutzen?
    • Wie kann das Aufkommen digitaler Expertensysteme unsere Städte, unsere Sozialsysteme, unsere Kooperationen verbessern?
    • </ul > Wären das nicht wahrhaft schöne, intelligente Fragen – die tatsächlich in die Zukunft führen? Auf sowas würden Roboter und Computer niemals kommen. Darauf wette ich. Auf mindestens 500 Jahre!

Alle bisher erschienenen Kolumnen sehen Sie auf der Seite: Kolumne.

Bei Nachdruck-Anfragen wenden Sie sich bitte an Mag. Michaela Németh: michaela.nemeth@horx.com