1. August 2019

Menschheits(alp)traum Künstliche Intelligenz

Michael Wiesberg

PDF der Druckfassung aus Sezession 91/August 2019

Michael Wiesberg

Michael Wiesberg ist Lektor und freier Publizist.

  • Sezession

Der Begriff »Künstliche Intelligenz« (KI) ist in Medien, Wirtschaft und Politik zum Dauerthema geworden. Mit der immer rascher voranschreitenden Entwicklung von Technologien, die in der Lage sind, »intelligente« Leistungen zu vollbringen, die bislang dem Menschen vorbehalten waren, scheint sich die Realisierung eines alten Menschheitstraumes abzuzeichnen.

Dieser Traum geht bis in das Altertum zurück. Zu nennen ist hier zum Beispiel das Pygmalion-Motiv aus der griechischen Mythologie. Der Bildhauer Pygmalion verliebt sich in eine von ihm geschaffene Statue. Auf seine Bitte hin wird diese von Venus zum Leben erweckt. Eine andere Figur ist der Golem aus der jüdischen Mythologie. Aus Materie geformt, wird er durch magische Handlungen zum Leben erweckt.

Im Mittelalter erregten Kunstwesen Aufsehen – entworfen von arabischen Ingenieuren, die damit das Erbe der Antike antraten. Zu den bekanntesten Großtaten dieser Zeit gehört die Elefantenuhr des islamischen Ingenieurs Al-Dschazarī (1136-1206). Weitere Apparate dieser Zeit hat die US-Wissenschaftshistorikerin Elly R. Truitt in ihrem Buch Medieval Robots zusammengetragen.

Dieser alte Menschheitstraum ist aber auch mit Dystopien verbunden, wie sie sich zum Beispiel in den Science-Fiction-Filmen Blade Runner (1982), Terminator (1984) oder in der Matrix-Trilogie (1999/2003) manifestieren. Die Ängste, die mit der Entwicklung der KI einhergehen, reichen vom massenhaften Verlust von Arbeitsplätzen bis hin zu trans- oder posthumanistischen Szenarien, nach denen intelligente Roboter in Menschengestalt dem Menschen den Rang streitig machen könnten, im schlimmsten Fall auf eliminatorische Weise.

Dazu gesellt sich die Angst, ganze Industriestaaten könnten zum Industriemuseum werden, wenn nicht endlich die Zeichen der Zeit erkannt und alle Weichen in Richtung der Entwicklung von KI gestellt würden. Angesichts derartiger Szenarien bleibt bemerkenswert, daß der Begriff KI durchaus umstritten ist, auf falsche Gleise führt und unrichtige Assoziationen auslöst. Mit anderen Worten: Es ist zunächst einmal zu klären, von was genau der Rede ist, wenn der Begriff KI Anwendung findet.

Der Mitte der 1950er Jahre kreierte Begriff Artificial Intelligence, eingedeutscht in »Künstliche Intelligenz«, diente zunächst nur als griffiges Schlagwort, um Geldgeber zur Finanzierung einer Konferenz zu bewegen. Seitdem hat sich KI als eine Art Begriffshypothese etabliert, die in keiner Weise wissenschaftlichen Ansprüchen genügt.

Für eine Beurteilung, ob KI »intelligent« sei, entwickelte der britische Mathematiker Alan Turing den »Turing-Test«: Eine Testperson kommuniziert über längere Zeit parallel mit einem anderen Menschen und einer Maschine über ein Chat-Programm. Mensch und Maschine versuchen die Testperson davon zu überzeugen, daß sie denkende Menschen seien.

Wenn die Testperson nach der Unterhaltung nicht mit Bestimmtheit sagen kann, welcher der Gesprächspartner ein Mensch und welcher eine Maschine sei, hat die Maschine den Turing-Test bestanden und darf als intelligent gelten. Bislang ist dies erst einmal gelungen; eine russische Software mit dem Namen »Eugene Goostman« wurde in einer Veranstaltung der Royal Society in London in einem Chat von einer Gruppe von Prüfern für einen Menschen gehalten, was als »Meilenstein der Computergeschichte« gefeiert wurde.

Die führenden KI-Nationen setzen deshalb mit Blick auf die KI verstärkt auf »Deep Learning«, einem Zweig des maschinellen Lernens. Maschinelles Lernen ist eine Art Oberbegriff für die »künstliche« Generierung von Wissen aus Erfahrung. Ein künstliches System wird so programmiert, daß es in der Lage ist, aus Beispielen zu lernen und diese nach Beendigung der Lernphase zu verallgemeinern.

Konkret heißt das, daß das System Muster und Gesetzmäßigkeiten aus Daten herauszulesen und zu identifizieren in der Lage ist. Beim »Deep Learning« handelt es um einen Teilbereich des maschinellen Lernens, das neuronale Netze nutzt. Das neuronale Netz ist eine Art Imitation des menschlichen Gehirns, das aus künstlichen Neuronen besteht.

Zur Herstellung künstlicher Intelligenz werden Trainingsmethoden genutzt, die große Datenmengen (»Big Data«) auswerten. Auf Basis vorhandener Informationen und des neuronalen Netzes soll das System bereits Erlerntes mit neuen Inhalten verknüpfen und dadurch den Lernprozeß fortschreiben. Auf dieser Basis ist die Maschine in der Lage, Prognosen oder Entscheidungen zu treffen.

Der Mensch greift in diesen Prozeß nur noch in Ausnahmefällen ein. In der Regel wird unterschieden zwischen »schwacher KI«, deren Lösungen sich auf bestimmte, klar definierte Aufgabenfelder beschränkt und nicht darauf abzielt, die menschliche Intelligenz zu imitieren, und einer »starken« oder »allgemeinen KI«, die menschliche Intelligenz nachbildet und breitere kognitive Leistungen erzielen will.

Anwendungsgebiete für die schwache KI sind heute zum Beispiel Experten- und Navigationssysteme, Spracherkennung, Zeichenerkennung oder Korrekturvorschläge bei Suchfunktionen. Das Expertensystem versucht, die Entscheidungsfindung eines menschlichen Experten zu imitieren und ist auf Spezialgebiete wie zum Beispiel die Medizin beschränkt. Unter »starker KI« wird demnach eine Form der künstlichen Intelligenz verstanden, die die gleichen intellektuellen Fertigkeiten wie der Mensch hat oder ihn darin sogar übertrifft.

Zu diesen Fähigkeiten gehören zum Beispiel logisches Denken, planen, lernen, Kommunikation sowie abwägende Entscheidungen bei einer unsicheren Faktenlage. Dieses Szenario wird mit dem Begriff »technologische Singularität« umschrieben; zu deren Kündern und Deutern gehören unter anderem der Philosoph Nick Bostrom und Ray Kurzweil, Leiter der technischen Entwicklung bei Google. Die Vision »technologischer Singularität« begleitet die KI-Forschung von Anbeginn an; aus ihr bezieht das Science-Fiction-Genre etliche Anregungen.

Der Zeitpunkt dieser »technologischen Singularität« soll laut Definition dann gekommen sein, wenn der technische Fortschritt aufgrund intelligenter und auf den Menschen nicht mehr angewiesener Selbstverbesserungsmechanismen rasant und vom Menschen nicht mehr kontrollierbar voranschnellt. KI-Forscher und -Entwickler stehen Szenarien wie diesen allerdings skeptisch gegenüber; sie wissen, welche Herausforderungen bereits damit verbunden sind, Maschinen ein Mindestmaß an Intelligenz zu implementieren.

Vom heutigen Standpunkt aus gesehen erscheint es eher unwahrscheinlich, daß Maschinen jemals so etwas wie Bewußtsein oder Empfindungen erlangen könnten. Der Publizist Christoph Keese hat in einem Interview mit dem Soziologen Thomas Wagner die »Geschäftsidee« hinter den »Wahnideen« einer »technologischen Singularität« erläutert. Es hätten nur solche Ideen »eine Finanzierungschance, für die eine Bewertung in Milliardenhöhe in Aussicht« stehe. Sonst lohne »sich das Geschäft für den Risikokapitalgeber nicht«.

Keese stuft das Zuarbeiten auf die »technologische Singularität« als »typisches Silicon-Valley-Produkt« ein. Den dort genährten Visionen stehen KI-Praktiker distanziert gegenüber; für manche wie dem Berliner Informatik-Professor Raúl Rojas sind sie einfach nur »Quatsch«. Auch China, der andere Haupttreiber der KI-Entwicklung, verbindet hiermit Ambitionen, die insbesondere im Westen Irritationen auslösen.

Mittlerweile wird nicht mehr ausgeschlossen, daß der Westen im Wettbewerb mit China seine Technologieführerschaft einbüßen könnte. Die Kommunistische Partei Chinas (KPCh) sucht in der Entwicklung der KI aber nicht nur die technologische, sondern auch die ideologische Auseinandersetzung mit dem Westen. Pekings staatswirtschaftlicher Weg soll im Vergleich mit dem westlichen als der attraktivere kommuniziert werde.

Die KPCh, die unter ihrem Generalsekretär und Xi Jinping eine Art »digitalen Leninismus« verfolgt, wie es der Direktor des China-Instituts MERICS in Berlin, Sebastian Heilmann, nannte, grenzt sich konsequent von westlichen Ideen ab, um aus ihrer Sicht destabilisierenden Tendenzen vorzubeugen.

Kai Strittmatter, der langjährige China-Korrespondent der Süddeutschen Zeitung, konstatierte in diesem Zusammenhang in seinem Buch Die Neuerfindung der Diktatur, daß Xi Jinping ein China zu schaffen beabsichtige, das »zurückgeht in die 50er Jahre, mit einem Leninismus, mit einer Repression, die so stark ist wie seit den Tagen Mao Zedongs nicht mehr. Mit einer Zensur und Propaganda, die wirklich zurückgreift auf alte Methoden wie damals«.

Mit einem Bein gehe er zurück in die 1950er Jahre, mit dem anderen Bein aber weit in die Zukunft und »da an Orte, von denen andere Autokraten und Diktatoren vielleicht schon geträumt haben, aber wo noch kein Mensch war«. KI wird seitens der KPCh als ein zentrales Instrument zur Erreichung dieser Ziele betrachtet. Bis 2030 will China die führende KI-Nation der Welt sein; bereits 2020 soll die USA eingeholt und 2025 überholt sein.

Das sind die Eckpunkte des KI-Plans, den der Staatsrat im Juli 2017 präsentiert hat. Entsprechende Milliardensummen werden mobilisiert, um diese Ziele zu erreichen. Der staatlich betriebenen Überwachung in China steht im Westen der »Überwachungskapitalismus« der IT-Konzerne gegenüber. Laut der US-Wirtschaftswissenschaftlerin Shoshana Zuboff handelt es sich hier um eine »Mutation des Kapitalismus«; er gehe davon aus, daß das, was im Netz an Privatem zirkuliert, frei abgreifbares »Rohmaterial« für die »kapitalistische Produktion und den Warenaustausch« sei.

Die IT-Konzerne hätten eine beispiellose »Konzentration von Wissen und Macht« aggregiert, die »frei von demokratischer Kontrolle« sei. Digitale Technologien werden mit »Strategien heimlicher Überwachung« kombiniert; aus den extrahierten Verhaltensdaten werden mittels KI »Vorherprodukte« generiert, wie es Zuboff nennt. Die Furcht vor dem Machtpotential, das hier mittels der Möglichkeiten der KI heranwächst, stehe im augenfälligen Gegensatz zur Bereitwilligkeit, mit denen die meisten Nutzer auf digitale Produkte und Dienstleistungen zugriffen.

In der Regel geschieht das wohl nicht aus Bequemlichkeit, sondern aus Abhängigkeit heraus, ist der Umgang mit diesen Produkten doch für die soziale und berufliche Interaktion mittlerweile unabdingbar geworden. Zuboff bezeichnet diese Abhängigkeit, der auch als schleichender Prozeß der Entmündigung gedeutet werden kann, als einen »faustischen Pakt«, als Konflikt, der unsere Psyche betäube. Nicht mehr auszuschließen ist, daß Algorithmen bald auch autonom darüber entscheiden werden, wo die Grenzen der Meinungsfreiheit gezogen werden.

Heute beschäftigen IT-Konzerne zehntausende Mitarbeiter in Billiglohnländern wie Thailand als eine Art »digitale Müllabfuhr«, berichtete die Süddeutsche Zeitung (SZ), die alles das löschen, was an menschlicher Abgründigkeit denkbar ist. Gleichzeitig fütterten sie Datenbanken und trainierten Software, die ihre »Jobs überflüssig machen könnten«. An ihre Stelle wird künftig wohl die Herrschaft des Algorithmus treten, der dann auch darüber entscheiden könnte, wo die Grenzen der Meinungsfreiheit zu verorten sind.

Da aber selbst Juristen nicht genau definieren können, wo diese Grenzen zu ziehen wären, könnte künftig zum Beispiel Meinungen, die als »demokratiegefährdend« identifiziert werden, die automatische Löschung drohen. Besonders im Fokus stehen die sozialen Netzwerke, die ein wahres Big-Data-Eldorado darstellen. Die Daten erlauben einen tiefen Einblick in das Verhalten und die Präferenzen der Nutzer, was eine personalisierte Ansprache ermöglicht.

Das kann zum Beispiel mittels politischer oder »social Bots« geschehen. Diese klinken sich in Konversationen ein, ohne daß direkt deutlich wird, daß es sich hier nicht um Menschen handelt. Manche Bots sind in der Lage, menschliche Kommunikation zu imitieren. Sie werden in politischen Diskussionen aktiv, brechen Diskussionen vom Zaun und sind bestrebt, aktiv bestimmte politische Inhalte zu lancieren.

Auf diese Weise kann durch Bots ein »Agenda-Setting« angestoßen werden, das um so mehr Fahrt aufnimmt (sprich: an Reichweite gewinnt), je mehr der mediale Hauptstrom darauf einsteigt. Das Äquivalent zu dem von der KPCh angestrebten Sozialkreditsystem sind hierbei die »Likes«, die geklickt werden. Es kann deshalb nicht überraschen, daß häufig mit allen Mitteln versucht wird, die Klickzahlen nach oben zu manipulieren. Wer hier nicht mithalten kann, sieht sich in seiner »community« sehr schnell abgehängt oder ausgegrenzt.

Den himmelstürmenden Verheißungen, die der Einsatz von KI der Menschheit bringen soll, stehen immer unübersehbarer Schattenseiten gegenüber. Der Report The Malicious Use of AI (Die böswillige Nutzung von KI) hat einige dieser Schattenseiten angesprochen: Cyberwaffen und insbesondere automatisierte Killerdrohnen, terroristische Anschläge mithilfe der Umfunktionierung selbstlenkender Fahrzeuge zu Waffen oder politische Propaganda mithilfe täuschend echt wirkender, aber gefälschter Bilder und sogenannter Deep-Fake-Videos.

Angst löst vor allem das Szenario aus, daß KI-gesteuerte »Robo-Waffen« selbständig über Menschen entscheiden könnten. Ein immer wieder angeführtes Beispiel aus dem militärischen Bereich sind vollautonome (tödliche) Waffensysteme, die keiner menschlichen Einflußnahme oder Kontrolle mehr unterliegen und autark töten. Noch sind diese Waffensysteme nicht ausgereift, aber es muß davon ausgegangen werden, daß sie trotz aller Versuche, sie zu ächten, entwickelt und auch eingesetzt werden.

Ob völkerrechtliche Verträge nach dem Vorbild der Chemie- oder Biowaffenkonvention hier eine Option sein könnten, wird sich erweisen, erscheint aber eher fraglich. Szenarien wie diese machen selbst Silicon-Valley-Gurus wie Elon Musk, Peter Thiel oder auch Bill Gates nachdenklich, die in der Entwicklung von KI zunehmend auch die Bedrohungspotentiale für die Menschheit wahrnehmen. Das gilt auch mit Blick auf die nächste KI-Etappe, nämlich lernfähige Software, die eigene Updates schreibt.

Diese Software gibt es bei Google, Amazon und Rüstungsunternehmen schon; sie sind zum Beispiel im Straßenverkehr oder im Bankwesen bereits im Einsatz.  Ob und inwieweit derartige Programme für ihre Programmierer noch nachvollziehbar oder kontrollierbar sind, ist eine offene Frage. Das heißt auch, daß sich die KI in Richtungen entwickeln kann, die nicht vorgesehen sind und unabsehbare Konsequenzen für die Cybersicherheit haben könnten. D

ie Herausforderungen, die hier mit Blick auf ein ständig wachsendes »Internet der Dinge« auf die Sicherheit von Computern, Servern, Mobilgeräten, Netzwerken, Daten etc. vor böswilligen Angriffen erwachsen, machen das Thema Cybersicherheit für die weitere Entwicklung der KI zu einem zentralen Handlungsfeld. Zweifelsohne kann Künstliche Intelligenz helfen, Tätigkeiten überflüssig zu machen, die repetitiv und monoton sind.

Damit führt sie zunächst einmal einen Prozeß fort, der laut der Online-Redaktion des von dem Zukunftsforscher Matthias Horx gegründeten Zukunftsinstitutes bereits mit der Industriegesellschaft begann. Dies erzeuge auf der einen Seite Streß, setze aber auch Möglichkeiten frei, »die vorher unter Routinen verborgen waren«.

Ob sich der Mensch, der sich mittels KI »vom Joch industrieller Lohnarbeit mit ihren vielen funktionalen Zwängen emanzipieren kann«, wie das Zukunftsinstitut meint, oder sich durch den großflächigen KI-Einsatz langfristig in ganz andere Zwänge begibt, die den Zugewinn an »neu gewonnenen kreativen oder kommunikativen Spielräume[n]« erheblich relativieren, steht indes auf einem ganz anderen Blatt.

Aus der Sicht des Literaturwissenschaftlers Wolfgang M. Schmitt droht durch diese Zwänge à la longue sogar das »Ende des Zeitalters des Menschen« vor dem Hintergrund der Entwicklung, jedes Problem »technisch lösen zu wollen«. Er plädiert deshalb für eine »Wiederkehr des Politischen«. Schmitt verweist hier auf die derzeit kursierenden Zukunftsszenarien: Eines dieser Szenarien geht davon aus, daß sich der Mensch durch Prothesen (zum Beispiel Kameras als Augen) und Speicherkarten im Hirn in einen »Cyborg« verwandle.

Ein anderes Szenario sieht eine Verselbständigung künstlicher Intelligenzen, die darauf hinausläuft, daß der Mensch sich unterwerfen müsse. Vertreter eines weiteren Szenarios befürchten, daß sich der Mensch der »binären Logik der Computer« angleiche und so das Menschsein aufgeben könnte. Schließlich gibt es Vertreter einer Richtung, die eine Mischung aus allen diesen Szenarien für möglich halten.

Das Sozialkreditsystem Chinas ist aus der Sicht Schmitts ein großer Schritt in diese Richtung: »Jeder wird erfaßt, alle Daten werden vernetzt, alles wird überwacht.« Die hier mitschwingende Logik, man müsse den Menschen, der irrational sein kann, um des Menschen willen abschaffen, lasse sich nur durch »eine Wiederkehr des Politischen« aushebeln. Der Literaturwissenschaftler rekurriert hier auf Carl Schmitt, dessen Unterscheidung »zwischen Freund und Feind« durch die scheinbar neutrale Technik unsichtbar gemacht werde.

Nur wenigen dürfte geläufig sein, daß dieser Ansatz, nämlich den Menschen um des Menschen willen abzuschaffen, ein Movens der Gegenkultur der Hippie-Bewegung in Kalifornien war und auf den Begriff »Kalifornische Ideologie« gebracht worden ist. Die Hippies orteten in der Politik die Ursache allen Übels. Manifeste Bestandteile ihrer Gegenkultur waren nicht nur Drogen, sondern auch Computer, mit denen sie die Welt »zu einem besseren Ort machen« wollten. Aus dieser Haltung heraus resultiert auch deren Weigerung, die technische Entwicklung Regulierungen zu unterwerfen.

Es ist daher kein Zufall, daß insbesondere in Silicon Valley der Traum von der Verschmelzung von Mensch und Maschine am weitesten vorangeschritten ist. Womöglich gerät der Mensch damit vollends unter die Herrschaft des »Ge-Stells«, worunter Heidegger das Wesen der modernen Technik zu fassen suchte. Das »Ge-Stell« impliziert die Gefahr der Vernichtung durch Technik, da der Mensch Gefahr laufe, von ihr beherrscht zu werden.

Den ihm zugeschriebenen Technikpessimismus hat Heidegger allerdings in seinem Vortrag »Die Kehre« relativiert. Hier nimmt Heidegger mit Blick auf die moderne Technik, die er als »Entbergung der höchsten Gefahr« deutet, auch das »Rettende« in den Blick.

Das einzige, das dem Menschen in der Situation höchster Gefahr bliebe, sei das Bewußtsein der Gefahr. Ob dieses Bewußtsein jemals jene »Kehre« anstoßen könnte, die zum »Rettenden« führt, erscheint unwahrscheinlich. Das war wohl auch Heidegger bewußt, der deshalb zu der Auffassung gelangte, daß nur ein Gott uns noch retten könne.


Michael Wiesberg

Michael Wiesberg ist Lektor und freier Publizist.

  • Sezession

Kommentare (0)