So sinnvoll die Abwägung von Risiken neuer Technologien auch sein mag, das Ausmaß an Angst vor Künstlicher Intelligenz ist haltlos – wenn auch intendiert genährt.
Weil sich jede Technologie zum Nutzen und Schaden gleichermaßen einsetzen lässt, ist es völlig normal, wenn ihre Chancen nicht ohne einen Blick auf ihre Risiken erörtert werden. Da letztere im Fall von Künstlicher Intelligenz offenbar die Auslöschung der Menschheit bergen, fällt die Risikoermittlung von KI allerdings alles andere als rational aus – es sei denn, man hält Urängste für eine adäquate rationale Grundlage. Ängste sind immer ernst zu nehmen, können aber oft gemindert werden, wenn man ihren Auslösern ins Auge blickt. Höchste Zeit, das im Fall von KI auch zu tun.
Ablenkungsmanöver von Big Tech
Die maßgeblich an der Entwicklung von KI beteiligten Tech-Unternehmen sind zwar nicht eigentlich Auslöser von Urängsten, spielen als deren größte Beförderer aber damit, vor allem mit der Angst vor dem Neuen und der Angst, ersetzt zu werden – denn wer Angst hat, lässt sich kontrollieren. In den USA funktioniert das jüngst eindrucksvoll von Sam Altman, CEO von Open AI, demonstrierte Manöver schon, seit sich Eric Schmidt als CEO von Google das erste mal auf den Schoß von Bill Clinton setzte, und es geht so: Tech-Unternehmen entwickelt Produkte mit ungewissen Ursprüngen und Auswirkungen, Politik fordert vom Tech-Unternehmen Transparenz und Einwilligung zu Regulierung, Tech-Unternehmen zeigt sich kooperationsbereit und erklärt seine Produkte, Politik sagt, oh das ist aber ganz schön schwierig alles, Tech sagt, kein Problem, als Experten wissen wir selber doch am besten, wie gefährlich unsere Produkte sind, warum regeln nicht einfach wir selbst die Sache mit der Regulierung für euch, Politik sagt, super Idee, und Tech hat freies Spiel. Abgesehen davon, dass die so gewonnene Freiheit wahrscheinlich durchaus positive Entwicklungen hervorgebracht hat, schürt es natürlich ein Maximum an Angst, wenn ausgerechnet die Erfinder einer Technologie diese als gefährlich einstufen. Aber von Google-Ex Geoffrey Hinton, dem „Godfather of AI“, über Microsoft-CTO Kevin Scott und Sam Altmans Senatsanhörung bis zu den unsäglichen, weil nichtssagenden offenen Briefen und Petitionen mit Unterschriften von Gates bis Musk: Die meisten Warnrufe sind nicht von Angst vor KI getrieben, sondern höchstens von der Angst, die eigene Vorreiterrolle zu verlieren.
Der Name des Kindes…
…oder die Unvereinbarkeit von „künstlich“ und „intelligent“. Kaum ein Begriff steht so sehr für Freiheit und Autonomie wie „Intelligenz“. Je intelligenter ein Organismus, desto weiter vorn ist er in der Nahrungskette platziert, desto mehr Gestaltungs- und Auswahlmöglichkeiten, kurz, desto mehr Freiheit hat er. Aktuell reklamiert der Mensch diesen Platz noch für sich und will ihn verständlicherweise nicht abtreten, schon gar nicht an etwas Künstliches. Wüsste er, dass KI weder künstlich noch intelligent und also völlig falsch benannt ist, würde er sich gleich viel weniger bedroht fühlen. Tatsächlich ist der Begriff reines Marketing, eine Erfindung des Mathematikprofessors John McCarthy, der einen geplanten Workshop am Dartmouth College 1956 „to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves“ etwas interessanter erscheinen lassen wollte, um entsprechende Fördermittel zu erhalten.
Hang zur Vermenschlichung
Dem Turing-Test, von dem jeder schonmal gehört hat und kaum jemand weiß, wie er funktioniert, haftet bis heute die Fehleinschätzung an, sein Ziel bestünde darin, herauszufinden, ob ein Computer genauso denken kann wie ein Mensch. Es besteht aber vielmehr darin, ein dem Menschen gleichwertiges Denkvermögen zu prüfen in Bezug auf die Lösung vorgegebener Aufgaben. Es geht also um Informationsverarbeitung und nicht um eigenständiges Denken im Sinne von Bewusstsein, wobei es einer klaren Trennung dieser Aspekte allerdings nicht gerade zuträglich ist, dass man bis heute nicht weiß, wie dieses Bewusstsein eigentlich zustande kommt. Trotzdem, einem Computer das Vermögen zuzuschreiben, genauso zu ticken wie ein Mensch, ist Blödsinn und basiert auf der unseligen Angewohnheit, Dinge zu anthropomorphisieren. Schafft die so entstehende emotionale Bindung etwa zu einer Maschine zunächst Akzeptanz, nährt das Zuschreiben von angenommenen, von der Maschine aber nie bewiesenen Fähigkeiten letztlich die Angst vor dieser.
Übrigens muss noch nicht mal KI im Spiel sein bei der Vermenschlichung von Maschinen. Als der Informatiker Joseph Weizenbaum 1966 „Eliza“ entwickelte, ein Computerprogramm, das per Tastatur eingegebene Fragen ganz strunzdumm in Gegenfragen verwandelte, wollte er eigentlich nur die Grenzen der Mensch-Maschine-Kommunikation illustrieren, aber Anwender glaubten tatsächlich, eine echte Konversation mit Eliza zu haben – womit wir bei einem weiteren Angstquell wären: Die meisten Menschen bezeichnen sich selbst als intelligent, wissen aber im Geheimen, wie leicht sie ihrer eigenen Dummheit erliegen, was ihre Angst vor ihnen möglicherweise überlegener Intelligenz nur erhöht.
Die Angst, ersetzt zu werden
Im Arbeitsleben zeigt sich das sogenannte „Cronos Syndrome“ vor allem im mittleren bis oberen Management bei Kräften, die Angst davor haben, jemand könne ihnen ihren Posten wegnehmen. Wer davon betroffen ist, delegiert keine Aufgaben, teilt kein Wissen und hat grundsätzlich Angst, abzugeben. Anders als bei Arbeitskräften, deren Tätigkeiten tatsächlich Industrialisierung und damit einhergehender Automatisierung zum Opfer fallen und die somit mit konkreten Angstauslösern konfrontiert sind, befindet sich die abstrakte Angst vor dem Ersetztwerden in unguter Nachbarschaft zu Ängsten wie Angst vor Einwanderung oder Phobien wie Verlustangst. Angesichts von weltweiten Geburtenrückgängen und Überalterung auf der einen und aus KI erwachsenden neuen Betätigungsfeldern auf der anderen Seite lässt sich diese Angst nicht legitimieren. Gut möglich, dass KI einen Platz neben dem Menschen einnehmen wird, und ebenso gut möglich, dass es die Spezies Mensch irgendwann nicht mehr geben wird, aber das wird sich als organischer Evolutionsprozess darstellen und nicht als Austausch.
Angst vor dem Neuen
Als Gewohnheitstier hätte der Mensch eigentlich am liebsten, dass Morgen genauso wird, wie Gestern war. Die Angst vor dem Neuen, eine klassische Urangst, die sich sogar zu einer Neophobie auswachsen kann, wenn der evolutionäre Drang nach Entwicklung, für den die Neugier zuständig ist, nicht gefördert wird. Zwar kann auch Neugier krankhafte Ausmaße annehmen in Form einer Neophilie, die zu Selbstüberschätzung bis Größenwahn führt (und ja, die visionärsten Geister unserer Zeit sind möglicherweise neophil), insofern ist eine Prise Angst vor Neuem durchaus förderlich, uns im Lot zu halten, aber in Bezug auf die Akzeptanz von neuen Technologien muss sie überwunden werden, sollen diese Technologien positiv wirken. Der japanische Historiker Ryunosuke Fukai hat sich damit befasst, wie neue Technologien unser Verhältnis zur Welt und unser Verständnis von Gesellschaft prägen und verändern und bezeichnet einschneidende Veränderungen (wie z.B. Telekommunikation, Internet und jetzt eben KI) als „Shift in the cognitive OS of human society“, als eine Transformation des kognitiven Betriebssystem der Menschheit. Da die neue Technologie in der Regel zunächst als Bug wahrgenommen wird und nicht als Feature, wird ihre Einbindung ins System zwar erschwert, erweist sich in der Rückschau aber immer als Upgrade. Warum sich also sperren, wenn der Drops eh schon gelutscht ist – zumal eine konstruktive Haltung grundsätzlich und in jeder Lebenslage mit weniger Angst verbunden ist.