Menschheits(alp)traum Künstliche Intelligenz

PDF der Druckfassung aus Sezession 91/August 2019

Michael Wiesberg

Michael Wiesberg ist Lektor und freier Publizist.

Der Begriff »Künst­li­che Intel­li­genz« (KI) ist in Medi­en, Wirt­schaft und Poli­tik zum Dau­er­the­ma gewor­den. Mit der immer rascher vor­an­schrei­ten­den Ent­wick­lung von Tech­no­lo­gien, die in der Lage sind, »intel­li­gen­te« Leis­tun­gen zu voll­brin­gen, die bis­lang dem Men­schen vor­be­hal­ten waren, scheint sich die Rea­li­sie­rung eines alten Mensch­heits­trau­mes abzuzeichnen.

Die­ser Traum geht bis in das Alter­tum zurück. Zu nen­nen ist hier zum Bei­spiel das Pyg­ma­li­on-Motiv aus der grie­chi­schen Mytho­lo­gie. Der Bild­hau­er Pyg­ma­li­on ver­liebt sich in eine von ihm geschaf­fe­ne Sta­tue. Auf sei­ne Bit­te hin wird die­se von Venus zum Leben erweckt. Eine ande­re Figur ist der Golem aus der jüdi­schen Mytho­lo­gie. Aus Mate­rie geformt, wird er durch magi­sche Hand­lun­gen zum Leben erweckt.

Im Mit­tel­al­ter erreg­ten Kunst­we­sen Auf­se­hen – ent­wor­fen von ara­bi­schen Inge­nieu­ren, die damit das Erbe der Anti­ke antra­ten. Zu den bekann­tes­ten Groß­ta­ten die­ser Zeit gehört die Ele­fan­ten­uhr des isla­mi­schen Inge­nieurs Al-Dscha­zarī (1136–1206). Wei­te­re Appa­ra­te die­ser Zeit hat die US-Wis­sen­schafts­his­to­ri­ke­rin Elly R. Truitt in ihrem Buch Medieval Robots zusammengetragen.

Die­ser alte Mensch­heits­traum ist aber auch mit Dys­to­pien ver­bun­den, wie sie sich zum Bei­spiel in den Sci­ence-Fic­tion-Fil­men Bla­de Run­ner (1982), Ter­mi­na­tor (1984) oder in der Matrix-Tri­lo­gie (1999/2003) mani­fes­tie­ren. Die Ängs­te, die mit der Ent­wick­lung der KI ein­her­ge­hen, rei­chen vom mas­sen­haf­ten Ver­lust von Arbeits­plät­zen bis hin zu trans- oder post­hu­ma­nis­ti­schen Sze­na­ri­en, nach denen intel­li­gen­te Robo­ter in Men­schen­ge­stalt dem Men­schen den Rang strei­tig machen könn­ten, im schlimms­ten Fall auf eli­mi­na­to­ri­sche Weise.

Dazu gesellt sich die Angst, gan­ze Indus­trie­staa­ten könn­ten zum Indus­trie­mu­se­um wer­den, wenn nicht end­lich die Zei­chen der Zeit erkannt und alle Wei­chen in Rich­tung der Ent­wick­lung von KI gestellt wür­den. Ange­sichts der­ar­ti­ger Sze­na­ri­en bleibt bemer­kens­wert, daß der Begriff KI durch­aus umstrit­ten ist, auf fal­sche Glei­se führt und unrich­ti­ge Asso­zia­tio­nen aus­löst. Mit ande­ren Wor­ten: Es ist zunächst ein­mal zu klä­ren, von was genau der Rede ist, wenn der Begriff KI Anwen­dung findet.

Der Mit­te der 1950er Jah­re kre­ierte Begriff Arti­fi­ci­al Intel­li­gence, ein­ge­deutscht in »Künst­li­che Intel­li­genz«, dien­te zunächst nur als grif­fi­ges Schlag­wort, um Geld­ge­ber zur Finan­zie­rung einer Kon­fe­renz zu bewe­gen. Seit­dem hat sich KI als eine Art Begriffs­hy­po­the­se eta­bliert, die in kei­ner Wei­se wis­sen­schaft­li­chen Ansprü­chen genügt.

Für eine Beur­tei­lung, ob KI »intel­li­gent« sei, ent­wi­ckel­te der bri­ti­sche Mathe­ma­ti­ker Alan Turing den »Turing-Test«: Eine Test­per­son kom­mu­ni­ziert über län­ge­re Zeit par­al­lel mit einem ande­ren Men­schen und einer Maschi­ne über ein Chat-Pro­gramm. Mensch und Maschi­ne ver­su­chen die Test­per­son davon zu über­zeu­gen, daß sie den­ken­de Men­schen seien.

Wenn die Test­per­son nach der Unter­hal­tung nicht mit Bestimmt­heit sagen kann, wel­cher der Gesprächs­part­ner ein Mensch und wel­cher eine Maschi­ne sei, hat die Maschi­ne den Turing-Test bestan­den und darf als intel­li­gent gel­ten. Bis­lang ist dies erst ein­mal gelun­gen; eine rus­si­sche Soft­ware mit dem Namen »Euge­ne Goost­man« wur­de in einer Ver­an­stal­tung der Roy­al Socie­ty in Lon­don in einem Chat von einer Grup­pe von Prü­fern für einen Men­schen gehal­ten, was als »Mei­len­stein der Com­pu­ter­ge­schich­te« gefei­ert wurde.

Die füh­ren­den KI-Natio­nen set­zen des­halb mit Blick auf die KI ver­stärkt auf »Deep Lear­ning«, einem Zweig des maschi­nel­len Ler­nens. Maschi­nel­les Ler­nen ist eine Art Ober­be­griff für die »künst­li­che« Gene­rie­rung von Wis­sen aus Erfah­rung. Ein künst­li­ches Sys­tem wird so pro­gram­miert, daß es in der Lage ist, aus Bei­spie­len zu ler­nen und die­se nach Been­di­gung der Lern­pha­se zu verallgemeinern.

Kon­kret heißt das, daß das Sys­tem Mus­ter und Gesetz­mä­ßig­kei­ten aus Daten her­aus­zu­le­sen und zu iden­ti­fi­zie­ren in der Lage ist. Beim »Deep Lear­ning« han­delt es um einen Teil­be­reich des maschi­nel­len Ler­nens, das neu­ro­na­le Net­ze nutzt. Das neu­ro­na­le Netz ist eine Art Imi­ta­ti­on des mensch­li­chen Gehirns, das aus künst­li­chen Neu­ro­nen besteht.

Zur Her­stel­lung künst­li­cher Intel­li­genz wer­den Trai­nings­me­tho­den genutzt, die gro­ße Daten­men­gen (»Big Data«) aus­wer­ten. Auf Basis vor­han­de­ner Infor­ma­tio­nen und des neu­ro­na­len Net­zes soll das Sys­tem bereits Erlern­tes mit neu­en Inhal­ten ver­knüp­fen und dadurch den Lern­pro­zeß fort­schrei­ben. Auf die­ser Basis ist die Maschi­ne in der Lage, Pro­gno­sen oder Ent­schei­dun­gen zu treffen.

Der Mensch greift in die­sen Pro­zeß nur noch in Aus­nah­me­fäl­len ein. In der Regel wird unter­schie­den zwi­schen »schwa­cher KI«, deren Lösun­gen sich auf bestimm­te, klar defi­nier­te Auf­ga­ben­fel­der beschränkt und nicht dar­auf abzielt, die mensch­li­che Intel­li­genz zu imi­tie­ren, und einer »star­ken« oder »all­ge­mei­nen KI«, die mensch­li­che Intel­li­genz nach­bil­det und brei­te­re kogni­ti­ve Leis­tun­gen erzie­len will.

Anwen­dungs­ge­bie­te für die schwa­che KI sind heu­te zum Bei­spiel Exper­ten- und Navi­ga­ti­ons­sys­te­me, Sprach­er­ken­nung, Zei­chen­er­ken­nung oder Kor­rek­tur­vor­schlä­ge bei Such­funk­tio­nen. Das Exper­ten­sys­tem ver­sucht, die Ent­schei­dungs­fin­dung eines mensch­li­chen Exper­ten zu imi­tie­ren und ist auf Spe­zi­al­ge­bie­te wie zum Bei­spiel die Medi­zin beschränkt. Unter »star­ker KI« wird dem­nach eine Form der künst­li­chen Intel­li­genz ver­stan­den, die die glei­chen intel­lek­tu­el­len Fer­tig­kei­ten wie der Mensch hat oder ihn dar­in sogar übertrifft.

Zu die­sen Fähig­kei­ten gehö­ren zum Bei­spiel logi­sches Den­ken, pla­nen, ler­nen, Kom­mu­ni­ka­ti­on sowie abwä­gen­de Ent­schei­dun­gen bei einer unsi­che­ren Fak­ten­la­ge. Die­ses Sze­na­rio wird mit dem Begriff »tech­no­lo­gi­sche Sin­gu­la­ri­tät« umschrie­ben; zu deren Kün­dern und Deu­tern gehö­ren unter ande­rem der Phi­lo­soph Nick Bostrom und Ray Kurz­weil, Lei­ter der tech­ni­schen Ent­wick­lung bei Goog­le. Die Visi­on »tech­no­lo­gi­scher Sin­gu­la­ri­tät« beglei­tet die KI-For­schung von Anbe­ginn an; aus ihr bezieht das Sci­ence-Fic­tion-Gen­re etli­che Anregungen.

Der Zeit­punkt die­ser »tech­no­lo­gi­schen Sin­gu­la­ri­tät« soll laut Defi­ni­ti­on dann gekom­men sein, wenn der tech­ni­sche Fort­schritt auf­grund intel­li­gen­ter und auf den Men­schen nicht mehr ange­wie­se­ner Selbst­ver­bes­se­rungs­me­cha­nis­men rasant und vom Men­schen nicht mehr kon­trol­lier­bar vor­an­schnellt. KI-For­scher und ‑Ent­wick­ler ste­hen Sze­na­ri­en wie die­sen aller­dings skep­tisch gegen­über; sie wis­sen, wel­che Her­aus­for­de­run­gen bereits damit ver­bun­den sind, Maschi­nen ein Min­dest­maß an Intel­li­genz zu implementieren.

Vom heu­ti­gen Stand­punkt aus gese­hen erscheint es eher unwahr­schein­lich, daß Maschi­nen jemals so etwas wie Bewußt­sein oder Emp­fin­dun­gen erlan­gen könn­ten. Der Publi­zist Chris­toph Kee­se hat in einem Inter­view mit dem Sozio­lo­gen Tho­mas Wag­ner die »Geschäfts­idee« hin­ter den »Wahn­ideen« einer »tech­no­lo­gi­schen Sin­gu­la­ri­tät« erläu­tert. Es hät­ten nur sol­che Ideen »eine Finan­zie­rungs­chan­ce, für die eine Bewer­tung in Mil­li­ar­den­hö­he in Aus­sicht« ste­he. Sonst loh­ne »sich das Geschäft für den Risi­ko­ka­pi­tal­ge­ber nicht«.

Kee­se stuft das Zuar­bei­ten auf die »tech­no­lo­gi­sche Sin­gu­la­ri­tät« als »typi­sches Sili­con-Val­ley-Pro­dukt« ein. Den dort genähr­ten Visio­nen ste­hen KI-Prak­ti­ker distan­ziert gegen­über; für man­che wie dem Ber­li­ner Infor­ma­tik-Pro­fes­sor Raúl Rojas sind sie ein­fach nur »Quatsch«. Auch Chi­na, der ande­re Haupt­trei­ber der KI-Ent­wick­lung, ver­bin­det hier­mit Ambi­tio­nen, die ins­be­son­de­re im Wes­ten Irri­ta­tio­nen auslösen.

Mitt­ler­wei­le wird nicht mehr aus­ge­schlos­sen, daß der Wes­ten im Wett­be­werb mit Chi­na sei­ne Tech­no­lo­gie­füh­rer­schaft ein­bü­ßen könn­te. Die Kom­mu­nis­ti­sche Par­tei Chi­nas (KPCh) sucht in der Ent­wick­lung der KI aber nicht nur die tech­no­lo­gi­sche, son­dern auch die ideo­lo­gi­sche Aus­ein­an­der­set­zung mit dem Wes­ten. Pekings staats­wirt­schaft­li­cher Weg soll im Ver­gleich mit dem west­li­chen als der attrak­ti­ve­re kom­mu­ni­ziert werde.

Die KPCh, die unter ihrem Gene­ral­se­kre­tär und Xi Jin­ping eine Art »digi­ta­len Leni­nis­mus« ver­folgt, wie es der Direk­tor des Chi­na-Insti­tuts MERICS in Ber­lin, Sebas­ti­an Heil­mann, nann­te, grenzt sich kon­se­quent von west­li­chen Ideen ab, um aus ihrer Sicht desta­bi­li­sie­ren­den Ten­den­zen vorzubeugen.

Kai Stritt­mat­ter, der lang­jäh­ri­ge Chi­na-Kor­re­spon­dent der Süd­deut­schen Zei­tung, kon­sta­tier­te in die­sem Zusam­men­hang in sei­nem Buch Die Neu­erfin­dung der Dik­ta­tur, daß Xi Jin­ping ein Chi­na zu schaf­fen beab­sich­ti­ge, das »zurück­geht in die 50er Jah­re, mit einem Leni­nis­mus, mit einer Repres­si­on, die so stark ist wie seit den Tagen Mao Zedongs nicht mehr. Mit einer Zen­sur und Pro­pa­gan­da, die wirk­lich zurück­greift auf alte Metho­den wie damals«.

Mit einem Bein gehe er zurück in die 1950er Jah­re, mit dem ande­ren Bein aber weit in die Zukunft und »da an Orte, von denen ande­re Auto­kra­ten und Dik­ta­to­ren viel­leicht schon geträumt haben, aber wo noch kein Mensch war«. KI wird sei­tens der KPCh als ein zen­tra­les Instru­ment zur Errei­chung die­ser Zie­le betrach­tet. Bis 2030 will Chi­na die füh­ren­de KI-Nati­on der Welt sein; bereits 2020 soll die USA ein­ge­holt und 2025 über­holt sein.

Das sind die Eck­punk­te des KI-Plans, den der Staats­rat im Juli 2017 prä­sen­tiert hat. Ent­spre­chen­de Mil­li­ar­den­sum­men wer­den mobi­li­siert, um die­se Zie­le zu errei­chen. Der staat­lich betrie­be­nen Über­wa­chung in Chi­na steht im Wes­ten der »Über­wa­chungs­ka­pi­ta­lis­mus« der IT-Kon­zer­ne gegen­über. Laut der US-Wirt­schafts­wis­sen­schaft­le­rin Shosha­na Zuboff han­delt es sich hier um eine »Muta­ti­on des Kapi­ta­lis­mus«; er gehe davon aus, daß das, was im Netz an Pri­va­tem zir­ku­liert, frei abgreif­ba­res »Roh­ma­te­ri­al« für die »kapi­ta­lis­ti­sche Pro­duk­ti­on und den Waren­aus­tausch« sei.

Die IT-Kon­zer­ne hät­ten eine bei­spiel­lo­se »Kon­zen­tra­ti­on von Wis­sen und Macht« agg­re­giert, die »frei von demo­kra­ti­scher Kon­trol­le« sei. Digi­ta­le Tech­no­lo­gien wer­den mit »Stra­te­gien heim­li­cher Über­wa­chung« kom­bi­niert; aus den extra­hier­ten Ver­hal­tens­da­ten wer­den mit­tels KI »Vor­her­pro­duk­te« gene­riert, wie es Zuboff nennt. Die Furcht vor dem Macht­po­ten­ti­al, das hier mit­tels der Mög­lich­kei­ten der KI her­an­wächst, ste­he im augen­fäl­li­gen Gegen­satz zur Bereit­wil­lig­keit, mit denen die meis­ten Nut­zer auf digi­ta­le Pro­duk­te und Dienst­leis­tun­gen zugriffen.

In der Regel geschieht das wohl nicht aus Bequem­lich­keit, son­dern aus Abhän­gig­keit her­aus, ist der Umgang mit die­sen Pro­duk­ten doch für die sozia­le und beruf­li­che Inter­ak­ti­on mitt­ler­wei­le unab­ding­bar gewor­den. Zuboff bezeich­net die­se Abhän­gig­keit, der auch als schlei­chen­der Pro­zeß der Ent­mün­di­gung gedeu­tet wer­den kann, als einen »faus­ti­schen Pakt«, als Kon­flikt, der unse­re Psy­che betäu­be. Nicht mehr aus­zu­schlie­ßen ist, daß Algo­rith­men bald auch auto­nom dar­über ent­schei­den wer­den, wo die Gren­zen der Mei­nungs­frei­heit gezo­gen werden.

Heu­te beschäf­ti­gen IT-Kon­zer­ne zehn­tau­sen­de Mit­ar­bei­ter in Bil­lig­lohn­län­dern wie Thai­land als eine Art »digi­ta­le Müll­ab­fuhr«, berich­te­te die Süd­deut­sche Zei­tung (SZ), die alles das löschen, was an mensch­li­cher Abgrün­dig­keit denk­bar ist. Gleich­zei­tig füt­ter­ten sie Daten­ban­ken und trai­nier­ten Soft­ware, die ihre »Jobs über­flüs­sig machen könn­ten«. An ihre Stel­le wird künf­tig wohl die Herr­schaft des Algo­rith­mus tre­ten, der dann auch dar­über ent­schei­den könn­te, wo die Gren­zen der Mei­nungs­frei­heit zu ver­or­ten sind.

Da aber selbst Juris­ten nicht genau defi­nie­ren kön­nen, wo die­se Gren­zen zu zie­hen wären, könn­te künf­tig zum Bei­spiel Mei­nun­gen, die als »demo­kra­tie­ge­fähr­dend« iden­ti­fi­ziert wer­den, die auto­ma­ti­sche Löschung dro­hen. Beson­ders im Fokus ste­hen die sozia­len Netz­wer­ke, die ein wah­res Big-Data-Eldo­ra­do dar­stel­len. Die Daten erlau­ben einen tie­fen Ein­blick in das Ver­hal­ten und die Prä­fe­ren­zen der Nut­zer, was eine per­so­na­li­sier­te Anspra­che ermöglicht.

Das kann zum Bei­spiel mit­tels poli­ti­scher oder »social Bots« gesche­hen. Die­se klin­ken sich in Kon­ver­sa­tio­nen ein, ohne daß direkt deut­lich wird, daß es sich hier nicht um Men­schen han­delt. Man­che Bots sind in der Lage, mensch­li­che Kom­mu­ni­ka­ti­on zu imi­tie­ren. Sie wer­den in poli­ti­schen Dis­kus­sio­nen aktiv, bre­chen Dis­kus­sio­nen vom Zaun und sind bestrebt, aktiv bestimm­te poli­ti­sche Inhal­te zu lancieren.

Auf die­se Wei­se kann durch Bots ein »Agen­da-Set­ting« ange­sto­ßen wer­den, das um so mehr Fahrt auf­nimmt (sprich: an Reich­wei­te gewinnt), je mehr der media­le Haupt­strom dar­auf ein­steigt. Das Äqui­va­lent zu dem von der KPCh ange­streb­ten Sozi­al­kre­dit­sys­tem sind hier­bei die »Likes«, die geklickt wer­den. Es kann des­halb nicht über­ra­schen, daß häu­fig mit allen Mit­teln ver­sucht wird, die Klick­zah­len nach oben zu mani­pu­lie­ren. Wer hier nicht mit­hal­ten kann, sieht sich in sei­ner »com­mu­ni­ty« sehr schnell abge­hängt oder ausgegrenzt.

Den him­mel­stür­men­den Ver­hei­ßun­gen, die der Ein­satz von KI der Mensch­heit brin­gen soll, ste­hen immer unüber­seh­ba­rer Schat­ten­sei­ten gegen­über. Der Report The Mali­cious Use of AI (Die bös­wil­li­ge Nut­zung von KI) hat eini­ge die­ser Schat­ten­sei­ten ange­spro­chen: Cyber­waf­fen und ins­be­son­de­re auto­ma­ti­sier­te Kil­ler­droh­nen, ter­ro­ris­ti­sche Anschlä­ge mit­hil­fe der Umfunk­tio­nie­rung selbst­len­ken­der Fahr­zeu­ge zu Waf­fen oder poli­ti­sche Pro­pa­gan­da mit­hil­fe täu­schend echt wir­ken­der, aber gefälsch­ter Bil­der und soge­nann­ter Deep-Fake-Videos.

Angst löst vor allem das Sze­na­rio aus, daß KI-gesteu­er­te »Robo-Waf­fen« selb­stän­dig über Men­schen ent­schei­den könn­ten. Ein immer wie­der ange­führ­tes Bei­spiel aus dem mili­tä­ri­schen Bereich sind voll­au­to­no­me (töd­li­che) Waf­fen­sys­te­me, die kei­ner mensch­li­chen Ein­fluß­nah­me oder Kon­trol­le mehr unter­lie­gen und aut­ark töten. Noch sind die­se Waf­fen­sys­te­me nicht aus­ge­reift, aber es muß davon aus­ge­gan­gen wer­den, daß sie trotz aller Ver­su­che, sie zu äch­ten, ent­wi­ckelt und auch ein­ge­setzt werden.

Ob völ­ker­recht­li­che Ver­trä­ge nach dem Vor­bild der Che­mie- oder Bio­waf­fen­kon­ven­ti­on hier eine Opti­on sein könn­ten, wird sich erwei­sen, erscheint aber eher frag­lich. Sze­na­ri­en wie die­se machen selbst Sili­con-Val­ley-Gurus wie Elon Musk, Peter Thiel oder auch Bill Gates nach­denk­lich, die in der Ent­wick­lung von KI zuneh­mend auch die Bedro­hungs­po­ten­tia­le für die Mensch­heit wahr­neh­men. Das gilt auch mit Blick auf die nächs­te KI-Etap­pe, näm­lich lern­fä­hi­ge Soft­ware, die eige­ne Updates schreibt.

Die­se Soft­ware gibt es bei Goog­le, Ama­zon und Rüs­tungs­un­ter­neh­men schon; sie sind zum Bei­spiel im Stra­ßen­ver­kehr oder im Bank­we­sen bereits im Ein­satz.  Ob und inwie­weit der­ar­ti­ge Pro­gram­me für ihre Pro­gram­mie­rer noch nach­voll­zieh­bar oder kon­trol­lier­bar sind, ist eine offe­ne Fra­ge. Das heißt auch, daß sich die KI in Rich­tun­gen ent­wi­ckeln kann, die nicht vor­ge­se­hen sind und unab­seh­ba­re Kon­se­quen­zen für die Cyber­si­cher­heit haben könn­ten. D

ie Her­aus­for­de­run­gen, die hier mit Blick auf ein stän­dig wach­sen­des »Inter­net der Din­ge« auf die Sicher­heit von Com­pu­tern, Ser­vern, Mobil­ge­rä­ten, Netz­wer­ken, Daten etc. vor bös­wil­li­gen Angrif­fen erwach­sen, machen das The­ma Cyber­si­cher­heit für die wei­te­re Ent­wick­lung der KI zu einem zen­tra­len Hand­lungs­feld. Zwei­fels­oh­ne kann Künst­li­che Intel­li­genz hel­fen, Tätig­kei­ten über­flüs­sig zu machen, die repe­ti­tiv und mono­ton sind.

Damit führt sie zunächst ein­mal einen Pro­zeß fort, der laut der Online-Redak­ti­on des von dem Zukunfts­for­scher Mat­thi­as Horx gegrün­de­ten Zukunfts­in­sti­tu­tes bereits mit der Indus­trie­ge­sell­schaft begann. Dies erzeu­ge auf der einen Sei­te Streß, set­ze aber auch Mög­lich­kei­ten frei, »die vor­her unter Rou­ti­nen ver­bor­gen waren«.

Ob sich der Mensch, der sich mit­tels KI »vom Joch indus­tri­el­ler Lohn­ar­beit mit ihren vie­len funk­tio­na­len Zwän­gen eman­zi­pie­ren kann«, wie das Zukunfts­in­sti­tut meint, oder sich durch den groß­flä­chi­gen KI-Ein­satz lang­fris­tig in ganz ande­re Zwän­ge begibt, die den Zuge­winn an »neu gewon­ne­nen krea­ti­ven oder kom­mu­ni­ka­ti­ven Spielräume[n]« erheb­lich rela­ti­vie­ren, steht indes auf einem ganz ande­ren Blatt.

Aus der Sicht des Lite­ra­tur­wis­sen­schaft­lers Wolf­gang M. Schmitt droht durch die­se Zwän­ge à la longue sogar das »Ende des Zeit­al­ters des Men­schen« vor dem Hin­ter­grund der Ent­wick­lung, jedes Pro­blem »tech­nisch lösen zu wol­len«. Er plä­diert des­halb für eine »Wie­der­kehr des Poli­ti­schen«. Schmitt ver­weist hier auf die der­zeit kur­sie­ren­den Zukunfts­sze­na­ri­en: Eines die­ser Sze­na­ri­en geht davon aus, daß sich der Mensch durch Pro­the­sen (zum Bei­spiel Kame­ras als Augen) und Spei­cher­kar­ten im Hirn in einen »Cyborg« verwandle.

Ein ande­res Sze­na­rio sieht eine Ver­selb­stän­di­gung künst­li­cher Intel­li­gen­zen, die dar­auf hin­aus­läuft, daß der Mensch sich unter­wer­fen müs­se. Ver­tre­ter eines wei­te­ren Sze­na­ri­os befürch­ten, daß sich der Mensch der »binä­ren Logik der Com­pu­ter« anglei­che und so das Mensch­sein auf­ge­ben könn­te. Schließ­lich gibt es Ver­tre­ter einer Rich­tung, die eine Mischung aus allen die­sen Sze­na­ri­en für mög­lich halten.

Das Sozi­al­kre­dit­sys­tem Chi­nas ist aus der Sicht Schmitts ein gro­ßer Schritt in die­se Rich­tung: »Jeder wird erfaßt, alle Daten wer­den ver­netzt, alles wird über­wacht.« Die hier mit­schwin­gen­de Logik, man müs­se den Men­schen, der irra­tio­nal sein kann, um des Men­schen wil­len abschaf­fen, las­se sich nur durch »eine Wie­der­kehr des Poli­ti­schen« aus­he­beln. Der Lite­ra­tur­wis­sen­schaft­ler rekur­riert hier auf Carl Schmitt, des­sen Unter­schei­dung »zwi­schen Freund und Feind« durch die schein­bar neu­tra­le Tech­nik unsicht­bar gemacht werde.

Nur weni­gen dürf­te geläu­fig sein, daß die­ser Ansatz, näm­lich den Men­schen um des Men­schen wil­len abzu­schaf­fen, ein Movens der Gegen­kul­tur der Hip­pie-Bewe­gung in Kali­for­ni­en war und auf den Begriff »Kali­for­ni­sche Ideo­lo­gie« gebracht wor­den ist. Die Hip­pies orte­ten in der Poli­tik die Ursa­che allen Übels. Mani­fes­te Bestand­tei­le ihrer Gegen­kul­tur waren nicht nur Dro­gen, son­dern auch Com­pu­ter, mit denen sie die Welt »zu einem bes­se­ren Ort machen« woll­ten. Aus die­ser Hal­tung her­aus resul­tiert auch deren Wei­ge­rung, die tech­ni­sche Ent­wick­lung Regu­lie­run­gen zu unterwerfen.

Es ist daher kein Zufall, daß ins­be­son­de­re in Sili­con Val­ley der Traum von der Ver­schmel­zung von Mensch und Maschi­ne am wei­tes­ten vor­an­ge­schrit­ten ist. Womög­lich gerät der Mensch damit voll­ends unter die Herr­schaft des »Ge-Stells«, wor­un­ter Heid­eg­ger das Wesen der moder­nen Tech­nik zu fas­sen such­te. Das »Ge-Stell« impli­ziert die Gefahr der Ver­nich­tung durch Tech­nik, da der Mensch Gefahr lau­fe, von ihr beherrscht zu werden.

Den ihm zuge­schrie­be­nen Tech­nik­pes­si­mis­mus hat Heid­eg­ger aller­dings in sei­nem Vor­trag »Die Keh­re« rela­ti­viert. Hier nimmt Heid­eg­ger mit Blick auf die moder­ne Tech­nik, die er als »Ent­ber­gung der höchs­ten Gefahr« deu­tet, auch das »Ret­ten­de« in den Blick.

Das ein­zi­ge, das dem Men­schen in der Situa­ti­on höchs­ter Gefahr blie­be, sei das Bewußt­sein der Gefahr. Ob die­ses Bewußt­sein jemals jene »Keh­re« ansto­ßen könn­te, die zum »Ret­ten­den« führt, erscheint unwahr­schein­lich. Das war wohl auch Heid­eg­ger bewußt, der des­halb zu der Auf­fas­sung gelang­te, daß nur ein Gott uns noch ret­ten könne.

Michael Wiesberg

Michael Wiesberg ist Lektor und freier Publizist.

Nichts schreibt sich
von allein!

Das Blog der Zeitschrift Sezession ist die wichtigste rechtsintellektuelle Stimme im Netz. Es lebt vom Fleiß, von der Lesewut und von der Sprachkraft seiner Autoren. Wenn Sie diesen Federn Zeit und Ruhe verschaffen möchten, können Sie das mit einem Betrag Ihrer Wahl tun.

Sezession
DE58 8005 3762 1894 1405 98
NOLADE21HAL

Kommentare (0)