IFAMD Marktbemerkung 2024.04
Warum „Künstliche Intelligenz“ noch das Unwort des Jahrhunderts werden kann
„Computer schlagen uns im Schach – aber scheitern bei «Schere, Stein, Papier»“ schreibt wie selbstverständlich die Autorin Marie-Astrid Langer als Randbemerkung in einem Artikel über ein Avatare-Startup und ahnt vermutlich gar nicht, wie sehr Sie damit an den Grundfesten der „Künstlichen Intelligenz“ rüttelt. Dabei trifft Sie den Nagel auf den Kopf!
Das Spiel kennt jeder, auch unter dem Namen „Schick, Schnack, Schnuck“ und für alle anderen ist es schnell erklärt: Zwei Spieler entscheiden sich simultan für eines der drei Symbole Schere, Stein oder Papier und ermitteln damit einen Sieger zwischen den beiden, nach der Logik: Schere gewinnt gegen Papier, Papier gewinnt gegen Stein und Stein gewinnt gegen Schere. Nur wenn beide Spieler sich für dasselbe Symbol entschieden haben, heißt es „unentschieden“ und das Spiel wir so lange wiederholt, bis ein Sieger festgestellt ist.
Aus Sicht des einzelnen Spielers handelt es sich bei jeder Runde um ein Zufallsexperiment, bei dem mit Wahrscheinlichkeit ein Drittel eines der drei Ereignisse „Gewinnen“, „Verlieren“ oder „Unentschieden“ resultiert, wobei die eigene Wahl eines Symbols lediglich die Einbettung der Symbole des Gegenspielers in den Raum der Ereignisse „Gewinnen“, „Verlieren“ oder „Unentschieden“ definiert. Völlig unabhängig von der Wahl des eigenen Symbols, haben alle Symbole, die der Gegenspieler wählen kann und damit auch das Ergebnis „Gewinnen“, „Verlieren“ oder „Unentschieden“ die Wahrscheinlichkeit ein Drittel.
Wer sich schon einmal eine Strategie für dieses Spiel zurechtgelegt hat, um aus den vergangenen Ergebnissen oder auch anderen Einflüssen wie der Mimik des Gegners die Wahl des eigenen Symbols abzuleiten, der ist schnell geneigt dem Zitat von Frau Langer zu widersprechen. Selbstverständlich sind solche Strategien auch programmierbar und lassen sich von Computern simulieren – da braucht man gar keine große „künstliche Intelligenz“ mit selbstlernenden neuronalen Netzen oder anderem Schnickschnack dafür. Man kann sogar – und auch das kann jeder Computer – mit Signalen spielen, d.h. dem Gegner ein gewisses Symbol ankündigen und dabei mit der eigenen Glaubwürdigkeit flunkern. Die wahrheitsgemäße Strategie aber muss immer verheimlicht werden, sonst wird man berechenbar und hat keine Chance zu gewinnen. Damit wird aufgrund des ultimativen Informationsdefizits das Ergebnis für den Anderen immer ein Zufallsexperiment mit Gleichverteilung der Wahrscheinlichkeiten jeweils ein Drittel.
Damit ist das Spiel am Ende aber immer ein Spiel gegen den Zufall und es wird, spielt man es gegen einen Computer, schlicht uninteressant: Man kann genauso gut einen Würfel werfen. Doch warum ist das Spiel trotzdem so beliebt? Weil es immer dann gespielt wird, wenn es wirklich um etwas geht. Es wird immer dann gespielt, wenn einer der beiden Spieler entweder etwas machen muss oder wenn er etwas bekommt, was sich die beiden nicht teilen können oder wollen. Genau das macht das Spiel spannend. Plötzlich macht es Spaß, mit der eigenen Wahl des Symbols die Einbettung des Symbols des Anderen in den Ergebnisraum „Gewinnen“, „Verlieren“ oder „Unentschieden“ auch noch zu beeinflussen, auch wenn das Symbols des Anderen immer eigentlich ein Zufallsereignis bleiben wird.
Mit einem Computer aber sollte man weder darum spielen, wer etwas machen soll, noch darum, wer etwas bekommt. Denn der Computer sollte alles machen, was er machen kann und ein Computer kann nichts bekommen – ist er doch selbst nur eine Sache. Die spannende Frage ist allerdings, ob ein Spieler, der mit einem anderen Spieler Schnick Schnack Schuck um eine Sache oder eine Aufgabe spielen möchte, einen Avatar für sich spielen lassen sollte. Ggf. nicht als reinen Zufallsgenerator, sondern mit einer geheim gehaltenen, auf die Spielhistorie, die Mimik des Gegners und viele weitere denkbare Umstände reagierenden Strategie des Avatars – oder sogar mit einer oben angedeuteten Flunkerstrategie – spätestens dann müssen wir Frau Langer doch wieder widersprechen. Allerdings: der Unterschied ist die Verantwortung! Die Frage ist, wer etwas bekommt bzw. etwas tun muss, wer also die Verantwortung für „Gewinnen“ oder „Verlieren“ übernimmt. Ist es der Mensch hinter der Maschine, dann ist diese sinnvoll als Hilfsmittel eingesetzt.
Genau das aber ist ein Problem, auf das unsere Gesellschaft mit der Bezeichnung „Künstliche Intelligenz“ für immer leistungsfähigere Algorithmen, die aber als dumper Programmcode auf einer Turingmaschine selbst nun einmal alles andere als intelligent sind, zusteuert: Von Managern in Unternehmen über Autofahrer (Stichwort autonomes Fahren) bis zu staatlichen Amtsträgern wie zum Beispiel Richter (!) träumen heute viele Verantwortliche davon, einmal ihre Verantwortung an eine „Künstliche Intelligenz“ abgeben zu können. Der Begriff „Künstliche Intelligenz“ suggeriert genau das und kann deshalb noch zum Unwort des Jahrhunderts werden.
Einen prominenten Schiffsbruch hat dabei erst Ende Februar 2024 kein geringerer als google erlebt: Mit seinem Chat-Bot Gemini, der versprochen hat, der am tiefsten trainierte KI-Textgenerator zu sein der derzeit verfügbar sei. Nach wenigen Tagen musste google Chef Sundar Pichai von seinem eigenen Produkt sagen, gewisse kontroverse Antworten von Gemini seien „völlig inakzeptabel“. Google verspricht Nachbesserung bezüglich gewisser Meinungsäußerungen von Gemini – wobei sich die Frage stellt was bedenklicher ist: die „Meinungsäußerungen“ von Gemini oder deren manuelle „Nachbesserung“?
Genauso wenig wie ein Algorithmus Verantwortung übernehmen kann, kann er eine „eigene Meinung“ haben oder vertreten. Denn ein KI-Textgenerator liefert immer nur die Regression – d.h. einfach beschrieben den „Durchschnitt“ – aller Lerndaten die der KI zu Verfügung stehen. Von google kann man maximal erwarten, dass diese Lerndaten vermutlich das verfügbare Internet-Universum weiter ausschöpfen als KI-Textgeneratoren anderer Anbieter. Jede noch so fragwürdige Interpretation und Meinungsäußerung aber, die so ein KI-Textgenerator zusammenträgt, ist immer nur ein hoch interessanter Schwerpunkt aller Informationen und Meinungen in den Lerndaten und muss auch genau als solcher interpretiert werden und Verwendung finden. Schon allein der Ansatz, Gemini an „seiner Meinung“ zu messen, ist vermessen. Wenn nun aber google Hand anlegt an den Ergebnissen von Gemini, dann erst übernimmt google tatsächlich Verantwortung für die zurückgelieferten Ergebnisse – was diese allerdings ungleich weniger interessant macht.
Dr. Gregor Berz
IFAMD GmbH, im April 2024