Loading...

Superintelligenz - Maschinenphantasmen

Michael Seibel - Nick Bostroms Vorstellung von superintelligenten Maschinen

Auf Nick Bostroms Buch Superintelligenz, Frankfurt 2014, sind wir gestoßen, weil vorgeschlagen wurde, Gedanken zu verfolgen, die die sich offenbar rasant entwickelnden technischen Eingriffsmöglichkeiten ins menschliche Leben betreffen. Die Frage vermochte in diesem Zusammenhang Interesse auszulösen, was geschieht, wenn es gelingt, Maschinen zu entwickeln, die die menschliche Intelligenz übertreffen.

Bostrom macht es dramatisch und sieht, wie sein Buch im deutschen Untertitel sagt, Szenarien einer kommenden Revolution.

Mich überzeugt das Buch auf keiner Seite. Ich halte es für eins der schlechtesten Bücher, die je bei Suhrkamp erschienen sind. Ich will hier, denen zuliebe, die es vorgeschlagen haben, begründen, warum.

Bostrom fragt, ob wir damit zu rechnen haben, dass Maschinen eigene Intelligenz entwickeln und sich danach ohne den Menschen autonom weiterentwickeln werden. Bostrom arbeitet mit suggestiven Formulierungen wie „alles spricht dafür, dass...“, „vieles deutet darauf hin, dass...“, „es ist stark zu vermuten, dass...“. Man könnte erwarten, dass dann auch einmal ein Argument genannt wird für das, was eigentlich in Frage steht. Es kommt aber keins. Nicht ein einziges. Und das Buch ist nicht kurz. Bostrom bringt eine Fülle von Hinweisen, dass die Weiterentwicklung der Digitaltechniken auch in Zukunft zu Maschinen mit immer größerer Leistungsfähigkeit führt. Aber damit trägt er Eulen nach Athen. Dafür braucht es keine Argumente, die wir nicht schon hätten.

Dafür allerdings, dass sich diese Leistungsfähigkeiten von Maschinen ab einem uns unbekannten Punkt anfangen, sich selbst autonom weiterzuentwickeln, dass sie gelinde gesagt, zu leben beginnen, fehlt jedes Argument. Und erst recht dafür, dass dieses vermeintliche Computereigenleben dann die Form eines die Menschheit bedrohenden konkurrenzlerischen Mega-Gangsters haben würde, gegen den wir mindestens so etwas wie eine neue Heimatschutzbehörde amerikanischen Zuschnitts brauchen würden.

Um das zu verdecken, gibt er seinem Buch eine Dramaturgie der Beschleunigung, der Chance, der Konkurrenz und der Bedrohung.

Das erste Kapitel hat an sich mit superintelligenten Maschinen nichts zu tun, sondern macht die ganz große Zeitleiste der Evolution auf, die Milliarden Jahre von der Entwicklung des Lebens bis zum Homo Sapiens. Darin schaut er sich das Produktivitätswachstum seit dem Erscheinen des Menschen an, hiervon noch einmal den Anstieg seit dem Aufkommen des Ackerbaus vor 5000 Jahren und sodann denn gemessen an diesen langen Zeiträumen die neuzeitliche Entwicklung seit 1700. Entsprechend skaliert stellt die Entwicklung des Weltwirtschaftswachstums, abhängig gemacht vom plötzlichen Aufkommen neuer Techniken, eine Art Explosion dar, die vorindustriellen Menschen, wie Bostrom vermutet und worin ich ihm gerne zustimme, sicher unvorstellbar gewesen wäre.

Die Suggestion Bostroms an dieser Stelle ist die, dass die Menschheit, die einmal die Erfahrung einer solch explosiven Entwicklung gemacht hat, deren vermeintliche Quelle die Technik-Entwicklung ist, von nun an mit ähnlich explosiven Veränderungen allein durch Technik rechnen muss.

Bostrom bedient sich bestimmter unausgewieser geradezu axiomatischer Glaubenssätze. Satz 1: Technik verändert aus sich heraus die Lebensgrundlagen der Menschheit.

Diese Behauptung ist viel weniger selbstverständlich, als sie auf den ersten Blick scheint. Ob eine Technik zum Einsatz kommt und in welche Richtung sie die Lebensgrundlagen der Menschen verändert, hängt wesentlich von den gesellschaftlichen Verhältnissen ab, innerhalb deren sie eingesetzt wird. Es liegt nicht an der Digitalisierung, an einem Komplex von Techniken, dass Produktionsstätten von Deutschland in Billiglohnländer verlagert werden, sondern an der Form unseres globalen wirtschaftlichen Zusammenlebens, am globalisierten Wirtschaftsliberalismus. Dennoch ist richtig, dass es Digitalisierung und Internet möglich machen, die Arbeitsplätze zu verlagern und dass also Techniken Rückwirkungen auf das Zusammenleben der Menschen haben, global, aber auch regional. Die bestehenden weltweite Kohlenstoffwirtschaft führt nicht als solche bereits zu gravierenden Klimaproblemen, sondern an ihrem maßlosen Einsatz, daran, dass im Kapitalismus kurzfristige Ziele der Marktteilnehmer die gesamte Produktion steuern und nicht Rücksicht auf langfristige kollektive Lebensgrundlagen. Nicht die Kohlenstoffwirtschaft ist Ursache des Klimawandels, sondern die Art ihres Einsatzes.

Atomwaffen wären in einer Welt, die ihre internationalen Beziehungen nicht in Formen institutionalisierter Aggressivität aushandelt, sinnlos. Aber die Aggressivität, die sich als Atomwaffe zum Faktum verfestigt, kommt nicht erst durch die Atomwaffentechnik in die Welt und sie ist auch keine anthropologische Konstante. Atomwaffenentwicklung ist ein weiteres Kapitel einer langen Kriegsgeschichte.

Wer die Frage der Veränderung der menschlichen Lebensbedingungen allein als eine Frage der Technikentwicklung betrachtet, lässt man im Dunkeln, wodurch Techniken zum Segen oder zur Katastrophe werden. Bostrom macht genau das. In Kap. 1 betrachtet Bostrom die Geschichte nicht einmal nur des Menschen, sondern des Lebens überhaupt allein als Technikgeschichte.

Wenn man das tut, dann wirken allerdings die letzten paar Jahre, es seien wenige oder ein paar hundert, wie eine einzige Beschleunigung, eine Technik-Explosion. Technik entwickelt sich dann und explodiert sogar ganz von sich aus. Das ist der Prototyp einer Mystifikation.

Die nächste Spirale der Mystifikation bei Bostrom ist dann die Unterstellung: Alles das sei eine Sache der Intelligenz. Die Technikexplosion ist eine „Intelligenzexplosion“. Damit wird aus der Mystifikation von Technik eine moderne Form des Animismus. Dem Leser, der zu wenig mit den Details der Techniken vertraut ist, die in Rede stehen, wird erklärt, der Geist, der diese Entwicklung betreibt, stecke plötzlich in der Maschine selbst.

Animismus: diesmal nicht als beseelter Natur, sondern als beseelte Maschine. Die Parallele geht jedoch weiter. So, wie der Animismus der schriftlosen Völker nicht nur eine Form des Glaubens war, sondern zugleich Regelungen für deren Sozialverhalten bot, hätte die Bostromschen Maschinenbeseelung, die Superintelligenz der Maschine, formierende Konsequenzen für unser Sozialverhalten.

Wenn die Geschichte nichts als Technikgeschichte ist, dann ist Intelligenz ihre Seele. Sie ist allwissend und allmächtig, zumindest weiß sie alles, was zum gegebenen Zeitpunkt gewusst wird und kann alles, was zum gegebenen Zeitpunkt gekonnt wird. Und wenn in Zukunft mehr gekonnt wird, wird Intelligenz der Schöpfer gewesen sein. Als das nimmt die Bostromsche Intelligenz den traditionellen Platz Gottes ein. Zumindest nur mit dem halben Gesäß, denn noch ist sie nicht Superintelligenz.

Im Gegensatz zum monotheistischen Gott fällt der Bostromschen Intelligenz allerdings die Gnade schwer, denn Intelligenz ist der Gott der Konkurrenz.

Man hat zunächst durch die Behauptung, hinter Technik stecke Intelligenz, nichts anderes gemacht, als die traditionelle Denkfigur aufzurichten: Wo eine Schöpfung, da auch ein Schöpfer. Aber man verfügt dadurch (Nietzsche hat darauf hingewiesen) noch über keinerlei zusätzliche Erkenntnis. Sehen wir also zu, wie Bostrom es unternimmt, aus einer Leerformel eine Erkenntnis zu zimmern.

Bostrom versucht uns zu verblüffen. Er deutet an, wie maschinelles Lernen über diverse Algorithmen zur Berechnung von Wahrscheinlichkeitsverteilungen funktioniert und dass dabei unerfüllbar hoher Rechenaufwand durch geeignete Heuristiken zu vermeiden ist. Ziel von künstlicher Intelligenz (KI) sei der autonome Erwerb spezieller Entscheidungsfähigkeiten. So muss ein computergesteuertes Fahrzeug bei jedem Wetter den Straßenrand erkennen können, mit GPS-Daten und Wetterdaten abgleichen und auf ein Wildschwein reagieren, dass vor Fahrtantritt niemand einprogrammiert haben kann und vieles mehr. Es muss also ständig seine Umgebung 'kennenlernen'. So komplex ein solcher Lernvorgang auch immer ist, Bostrom unterschlägt, dass maschinelles Lernen nichts mit menschlichem Lernen, etwa mit dem Lernen von Kindern in der Schule zu tun hat. Beim Menschen ist Lernen untrennbar mit komplexen Lernmotivationen, Sozialbezügen und Interessen verbunden.

Zunächst gesteht Bostrom diesen Sachverhalt insofern ein, als er bei Computern von spezieller Intelligenz im Unterschied zur allgemeinen Intelligenz beim Menschen spricht. („Maschinen sind den Menschen in puncto allgemeiner Intelligenz noch weit unterlegen“ (S.41).) Das hält ihn allerdings nicht davon ab, sich die fehlende allgemeine Intelligenz unausgewiesen aus der immer beeindruckender werdenden speziellen Intelligenz der Maschinen zusammenzubasteln, so als werde jemand, der oft genug eins zu eins hinzuzählt, irgendwann Millionär. Nur ist es beim Menschen nicht so. Wir werden nicht mit speziellen Fähigkeiten geboren, die erst durch ihre Weiterentwicklung zu allgemeinen werden, sondern starten bereits mit allgemeinen, die uns in der Folge erlauben, unsere speziellen Fähigkeiten weiterzuentwickeln. Selbst wenn man in der Evolution zurückgeht, wird man, solange es Menschen gegeben hat, keine Zeit finden, zu der das nicht so war.

Wie plausibilisiert Bostrom, dass hinter Technik Intelligenz als deren Schöpfer steckt? Außer durch das Verblüffungsmoment für Nicht-Eingeweihte dadurch, dass er uns an Vorstellungen erinnert, die uns im Laufe unseres Lebens fasziniert haben mögen. Wer hätte je gedacht, dass ein Computerprogramm besser Schach spielt als Garri Kasparow? Den allermeisten jungen Menschen, die sich einmal vorgenommen hatten, gute Schachspieler zu werden und die durch die Torturen der Niederlagen gegangen sind, lieferte das Schachspiel den Vorstellungsinhalt par excellence für Intelligenz. Mit Hinweisen wie dem auf schachspielende Maschinen schlägt Bostrom den Bogen von Technik zu Intelligenz und weiter zu Maschinen-Intelligenz. Er nutzt einfach eine verbreitete Vorstellung.

Seine Beispiele zum Stand der Technik auf dem Gebiet der künstlichen Intelligenz sind vor allem Spiele: Dame, Backgammon, Schach, Kreuzworträtsel, Scabble, Bridge, Poker, Go et al. Damit stellt Bostrom gleich noch eine weitere Suggestion in den Raum. Er suggeriert eine bestimmte Form von Motivation. Spiele will man üblicherweise gewinnen. Die Suggestion daraus:

Motiviert sein heißt gewinnen wollen.

Ein angemessener Motivationsbegriff, der Bostrom im Hinblick auf das Lernen fehlt, wird hier durch ein abstraktes spieltheoretisches Surrogat ersetzt. Was im Hinblick auf Menschen eine grobe Verkürzung ist, dass das Gewinnen-Wollen der Prototyp von Motivation ist, ist im Hinblick auf Maschinen schlichter Unsinn. Wenn ein KI-Algorithmus auf das Ziel hin programmiert ist, entlang bestimmter Regeln ein Gewinnziel zu erreichen, bedeutet das selbstverständlich nicht, dass die Maschine auf irgendeine Weise motiviert ist, zu gewinnen oder beleidigt wäre, wenn sie verliert.

Bostroms nächstes Panik-Argument: Der Beinahe-Börsencrash von 2010. Der Computerhandel führte am 6.5.2010 um ein Haar zu einem Börsencrash und zu Trades, die wenig später rückabgewickelt werden mussten. Bostrom sagt selbst: Das hatte mit superintelligenten Computerprogrammen nichts zu tun, sondern mit Programmen, die den Folgen der Vorgänge, die sie auslösten, gerade nicht gewachsen waren, mit zu dummen Programmen. Man fragt sich allerdings, warum Bostrom dann den Beinahe-Chrash in seine Argumentation einbaut, und die Antwort liegt nahe. 1. zeigt der Beinahe-Crash die generelle Gefahr, wenn Menschen Entscheidungen Computern überlassen, die auf Computerentscheidungen reagieren und 2. suggeriert Bostrom damit, dass leistungsstärkere Computer die selbe Lage gemeistert hätten.

Da Bostrom auf Gefahren hinaus will, es aber bislang keine gefährlichen superintelligenten Computerprogramme gibt, verweist er eben auf gefährliche gewöhnliche Programme. Machen wir uns ferner klar: Der Crash besteht darin, dass in Folgen von Käufen und Verkäufen irgendwann ein Punkt erreicht wird, an dem auch zu stark sinkenden Kursen die Käufer fehlen und dass dieser Punkt unvorhersagbar ist. Wenn man sich einen Handel vorstellt, bei dem zwei Gruppen von Supercomputern ständig handeln, also abwechselnd als Käufer und Verkäufer auftreten und außerstande sind, Derivate über einen Preisverfall hinweg zu halten, weil ihr Eigenkapital nur sehr begrenzte Spitzenrisiken abdeckt, dann ist in jedem Fall eine von beiden Gruppen angeschmiert, sie mag so superintelligent sein, wie sie will, sie wird ihre Wertpapiere nicht los. Die Korrektur wird wie schon am 6.5.2010 wenn überhaupt von außen durch die Marktaufsicht erfolgen müssen.

Nachdem Bostrom so unsere Gefahrensensitivität suggestiv erhöht hat, ohne uns in irgendein Thema einzuführen, folgt ein Appell an unsere Unterwürfigkeit unter Experten. Frage an die Experten: Wie lange, schätzen sie, wird es dauern, bis maschinelle Intelligenz menschliches Niveau erreicht? (»humal-level-machine-intelligence HLMI definiert als „eine KI, die die meisten menschlichen Berufe mindestens so gut wie ein Durchschnittsmensch ausüben kann“« (S 37)) 10% meinten bis 2030, 50% bis 2050, 90% meinten bis 2100. M.a.W. Man meinte irgendetwas. Entscheidend ist aber die Suggestion, dass die gestellte Frage überhaupt sinnvoll ist.

Man stelle sich folgende Szene vor: Ein junges intelligentes Computerprogramm meldet sich bei der Berufsberatung des Arbeitsamtes. Nach kurzem Blick in seine Dokumentation meint der Arbeitsberater: „So wie sie ausgebildet sind, können sie alles machen, was wären denn so Ihre Präferenzen.“ Das intelligente Programm darauf: „Weiß ich nicht, darüber habe ich mir noch keine Gedanken gemacht.“ 30 Jahre später ist das Programm nicht nur menschlich-intelligent, sondern sogar superintelligent. 90% der Experten, die ich befragt habe, sind der Meinung, es habe bis dann einige größere Konten gehackt, liege in Miami am Strand in der Sonne und sei endlich zu einer Antwort auf die Frage seines Arbeitsberaters gekommen. Es meine nämlich: „Lasst mich bloß mit euren langweiligen Jobs in Ruhe!“

Bostroms Kapitel 2: Wie kommt man zur Superintelligenz?

Ein Weg 1 wäre: Indem man die Evolution Schritt für Schritt nachvollziehen. Man stelle sich vor, die Basis jeder Intelligenz seien die Neuronen. Wie viele Neuronen hat es seit der Entstehung des Lebens auf der Erde gegeben, also bei sämtlichen Prokaryonten, Insekten und höheren Lebewesen zusammen, die je auf der Erde gelebt haben und welche Rechenleistung braucht es, die Funktionen eines einzelnen Neurons nachzubilden? Das müsse man nur multiplizieren und davon müsste man wieder in Abzug bringen, welche Evolutionsschritte wir nicht nachvollziehen müssen, weil wir bereits über einen bestimmten Stand der Informationsverarbeitung verfügen, den wir nicht erst durch Nachvollzug verstehen müssen. Bostrom rechnet hin und her und kommt auf 1031 bis 1044 Flops, Es können aber auch 1069 Flops sein. Wie kommt er darauf? Bostom schätzt gerne und kommt darauf unter Zuhilfenahme seiner 10 Finger. Von da bis zu 1069 ist es ein weiter Weg. Reizvoll ist dieser Weg für Leute, die ein Faible für großer Zahlen haben, einfach weil sie groß sind. Bostroms Ergebnis: die Evolution nachzuvollziehen, ist unmöglich. Wie groß die Anzahl der erforderlichen Rechnungen auch immer ist, sie ist in jedem Fall undurchführbar hoch.

Weg 2: Als nächste Möglichkeit, zur HLMI zu kommen, nennt Bostrom die „Gehirnemulation“. Man nehme ein existierendes Gehirn, kopiere es eins zu eins und setze es in ein Computerprogramm um. Man kann mit einem Fadenwurm anfangen der nur 300 Neuronen besitzt und sich dann hocharbeiten. Bostrom fragt: Ist der Gedanke technisch umsetzbar? Bei einer Rekonstruktion auf Elementarteilchenebene kommt man erneut an unüberschreitbare Grenzen der Rechenleistung. Aber Bostrom benennt die seiner Meinung nach erforderlichen technischen Voraussetzungen für eine solche Gehirnemulation.




















(S. 55) Was sagt Bostrom hier eigentlich? Wenn man ein Gehirn nachbauen will, sollten Sie es zuerst scannen, und zwar so, dass Sie alles Wichtige erkennt. Nur, was ist in diesem Sinn die wichtige Mikrostruktur? Bis zur Darstellung einzelner Atome mittels Rastertunnelmikroskop ist heute jeder Vergrößerungsfaktor darstellbar. Die erreichbare Scangenauigkeit kann also keine prinzipielle Schranke der Hirnemulation sein. Dann nimmt Bostrom weiter an, aus Schichtenscanns ein 3D-Modell zusammenzusetzen, sei ebenfalls lediglich ein lösbares technisches Problem. Was ist dann mit der Interpretation des Scans? Bostrom erwähnt, im Hinblick auf ein Software-Modell eines neuronalen Systems gebe es bereits Tausende von Forschungsarbeiten. Seine Suggestion an dieser Stelle ist, dass wir kurz vor der Lösung der Frage stehen. Darüber hinaus fragt Bostrom nach einem geeigneten Körper und einer Umwelt des emulierten Gehirns.

Was ist unter einer Umwelt und einem Körper zu verstehen? Bostrom kommt einmal (S. 37) auf die Online-Einführung von Sebastian Thrun (Stanford) zu KI-Themen zu sprechen. Thrun demonstriert in artificial intelligence for robotics u.a. modellhaft Algorithmen, mit deren Hilfe sich ein selbststeuerndes Fahrzeug mittels ständig neu berechneter Aufenthaltswahrscheinlichkeiten in einer Umwelt zurechtfindet, die aus einer elementaren Fläche besteht.


In dieser Umwelt kommt der Automat bestens zurecht. Man kann also bewiesenermaßen sagen: Für diese Umwelt gibt es ein angemessenes Modell. Das Rechenmodell wird im nächsten Schritt um physikalische Parameter ergänzt, z.B. um den Kurvenradius beim Steuern. Und schon hat das mathematische Modell auch einen Körper. Sodann wird die Umwelt um weitere Faktoren ergänzt, z.B. um die Annahme, dass ein Objekt ohne Vorwarnung die Straße quert. Die Fahrzeugphysik, also der Körper, wird durch Bremsen ergänzt. Auch für komplexere Körper in komplexeren Umwelten gibt es also geeignete kybernetische Modelle.

Umwelt ist also eine Welt aus einer simplen geometrischen Fläche und Körper ist ein imaginäres Autoobjekt auf dieser Fläche, das eine Achse hat. Gehirn ist ein in der Programmiersprache Python geschriebenes Computerprogramm von wenigen Zeilen. Das muss man sich klar machen, wenn man der Suggestion nicht erliegen will, der Abstand von hieraus bis zur Umwelt, in der wir leben, zum menschlichen Körper und vom Mini-Python-Programm bis zur allgemeinen Intelligenz des Menschen sei qua digitaler Rechenleistung überbrückbar. Bostoms Tabelle 4 ist diesbezüglich schlicht nichtssagend.

Sehen wir uns die weiteren Wege (Weg 3) zur Superintelligenz an, die Bostom vorschlägt. Biologische Selektion a la Lebensborn durch Zuchtwahl erhöhen, am besten auf der Ebene von Biotechnologie. Man selektiere die intelligentesten Menschen, gewinne von deren Babies Stammzellen, wandle sie in Spermien und Eizellen um und kreuze diese. Daraus gewinne man neue Stammzellen. Derart lässt sich die Generationsfolge beim Menschen auf 9-10 Monate verkürzen. Man käme, wenn man ein solches Vorgehen durch alles ergänzt, was gentechnisch in absehbarer Zeit möglich ist, zu maßgeschneiderten Genomen und zu Durchschnittsbürgern, deren jeder intelligenter ist als jeder heute lebende Mensch. Abgesehen davon, ob Bostroms Prognose zutrifft oder nicht und welche ethischen Fragen sich stellen, hat der vorgestellte Weg nichts mit maschineller Superintelligenz zu tun.

Der nächste Weg (Weg 4), die Computer-Hirn-Schnittstelle scheint Bostrom schon wegen der damit verbundenen Infektionsgefahr wenig vielversprechend. Es bleibt Weg 5 größere kollektive Intelligenz durch Netzwerke und Organisationen. Die Einführung der Sprache war für Bostrom ein bedeutender Schritt, der in diese Kategorie fällt. Etwas Vergleichbares könnte nochmals geschehen. Was das sein könnte, führt Bostrom nicht aus. Dass Vernetzungen bei allen kollektiven Produktionsprozessen ein entscheidender Produktivitätsfaktor sind, ist unbestritten.



Die genannten 5 Wege sollten nach Bostrom kombinierbar sein. Nur was will er da kombinieren, wenn kein einziger Weg von den fünf zu superintelligenten Maschinen führt? Weg 1 (Evolution nachvollziehen) ist nach Bostroms Beschreibung grundsätzlich zu rechenaufwendig, Weg 2 (Gehirn emulieren) führt nicht zu Superintelligenzen, nicht zu allgemeinen, sondern zu speziellen KI-Lösungen, auf Weg 3 (Zuchtwahl bei Menschen) entwickeln wir keine maschinelle Superintelligenz, sondern wenn überhaupt intelligentere Menschen, Weg 4 (Computer-Hirn-Schnittstelle) führt bestenfalls zu guten Prothesen, Weg 5 (soziale Netze optimieren) ist im Wesentlichen auch kein technisches, sondern ein politisch soziales Problem.

Super-Power durch Kombination ist wiederum eine Suggestion ohne Inhalt.



Kapitel 3 behandelt die Formen von Superintelligenz und ist kurz erzählt. Eine Intelligenz ist superintelligent, weil sie entweder besonders schnell ist, weil sie aus vielen Normalintelligenzen besteht, die zusammenarbeiten oder weil sie qualitativ klüger ist. Vorstellungen von qualitativ besserer Intelligenz gewinnt Bostrom aus der Gegenüberstellung zu menschlichen Schwächen. Wir rechnen zu langsam, wir merken uns zu wenig, wir stimmen uns untereinander nicht gut genug ab. Dem würden wir natürlich nicht widersprechen, nur hat das ungefähr so viel Erkenntniswert, als würden wir behaupten, eine Treppe sei bei gegebener Stufenhöhe um so niedriger, je weniger Stufen sie hat. Damit ist Kapitel 3 erzählt.

Kapitel 4 desavouiert sich bereits im ersten Satz, der da lautet: „Da Maschinen die Biologie in puncto allgemeiner Intelligenz letztlich weit übertreffen werden, das maschinelle Denken aber derzeit weit beschränkter ist als das menschliche, stellt sich die Frage, wie schnell diese Usurpation vor sich gehen wird.“ (S.93)

Niemand zweifelt daran, dass sich spezielle Fähigkeiten maschinell steigern lassen und niemand kann sagen, wie weit die Steigerungsmöglichkeiten gehen. Aber damit wird aus speziellen Fähigkeiten - und seien sie noch so groß - noch lange keine allgemeine Intelligenz.

Dass es durch Leistungssteigerung zu einer Art Selbstbelebung der Maschine kommt, dass die Maschinen irgendwann wie Gottfried Kellers grüner Heinrich losziehen, um die Welt kennenzulernen, ist ein ebenso blanker Mystizismus wie die seit dem 19. Jahrhundert und im Futurismus immer wieder geäußerte Vorstellung, dass es durch Technik zu einer Art Selbstvergöttlichung des Menschen komme. Durch Leistungssteigerung von Computern werden weder aus Menschen noch aus Maschinen Götter. Hier steht Omnipotenzwahn gegen Paranoia.

„Da Maschinen die Biologie in puncto allgemeiner Intelligenz letztlich weit übertreffen werden, ...“

Für diesen Halbsatz bieten Kap. 1 bis 3 kein einziges Argument, ja nicht einmal einen Begriff davon, was mit allgemeiner Intelligenz eigentlich gemeint ist, und genau daraus macht Bostrom in Kap.4 eine Tatsachenbehauptung. Wer sich ein dutzend mal schnell im Kreis gedreht hat, wird danach kaum geradeaus laufen. Und wer argumentativ ein dutzend mal um sich selbst gekreist ist, wird danach kaum geradeaus denken.

Bostrom kann seine eigenen Gespenster nunmehr befragen. „Wenn intelligente Maschinen erst einmal existieren, wie lange dauert es dann, bis eine Maschine radikal superintelligent wird?“ Dieser Ungedanke wird jetzt von Bostrom auch noch formalisiert:

dl/dt=O/W (vgl. S. 111) (Will man uns veräppeln?)

Will sagen: Die zeitliche Leistungszunahme gleicht der Optimierungskraft geteilt durch die dem Leistungszuwachs entgegenstehenden Widerstände. Oder auf deutsch: Du kommst nie schneller vom Fleck, als die Widrigkeiten es zulassen, auf die Du triffst. Aha!

Kapitel 4 ist in Gänze eine aufgeblasene Trivialität. Es sagt, die Entwicklung kann langsam, schnell oder gemäßigt schnell ablaufen. Langsam, dann kann man steuern und vielleicht kontrollieren, schnell, dann kann man das nicht, gemäßigt, dann vielleicht.

Kap.5 bemüht wieder spieltheoretische Überlegungen, falls mehrere maschinelle Intelligenzen dabei sein sollten, sich zu Superintelligenzen zu entwickeln. Werden sie fair miteinander spielen? Spätestens ab Seite 137 ist die Paranoia voll entfaltet. Bostrom denkt an „Übernahmeszenarien“ des gesamten Kosmos durch die Maschinen. Ab jetzt trixen die superintelligenten Maschinen die Menschen aus, bestellen per Post maßgeschneiderte Eiweiße für ihre Selbstreproduktion, verteilen sich im Universum etc.

Kap. 8 fragt: „Sind wir dem Untergang geweiht?“ Kap. 10 schließt mit einer Auflistung von Kontrollmöglichkeiten, die wir nach Bostroms Ansicht gegenüber superintelligenten Computern hätten: Wir könnten sie in Sicherheitsverwahrung nehmen, wir könnten sie durch Anreize ködern, wir könnten sie gezielt hemmen, Stolperdrähte auslegen, könnten die Systeme von vorn herein mit einem uns genehmen Motivationssystem ausstatten oder sie nachträglich domestizieren.

Bostroms Pädagogik ist nicht gerade superintelligent. Hoffentlich hat Bostrom bei seinen Kindern, die heute schon „allgemeine“ Intelligenzen sind, bessere Erziehungsideen. Die vorgeschlagenen Strategien würden leicht zu pädagogischen Katastrophen führen.

So weit Bostrom. Die verbleibenden Kapitel 11 bis 15 fügen inhaltlich nichts hinzu, auch da nicht, wo Bostom als Aufgabe formuliert, den superintelligent werdenden Maschinen Werte zu vermitteln. (S.260)

Bostrom schreibt: „Die Fähigkeitenkontrolle ist bestenfalls eine vorübergehende und unterstützende Maßnahme; wenn wir die Superintelligenz nicht für immer und ewig kleinhalten wollen, wird es notwendig sein, die Motivationsselektion zu meistern. Aber wie schleusen wir Werte so in einen künstlichen Akteur ein, dass er diese als finale Ziele verfolgt?“

Die Frage der Verbindlichkeit einer Moral ist – wie man weiß - schon bei Menschen nicht abschließend beantwortet. Was Bostrom anfragt, wäre gleichsam eine Neuerfindung des sittlichen Menschen als Maschine.

Das abendländische Modell des „finalen Ziels“ als Handlungsmotivation ist die Himmelfahrt nach dem Tod. Jetzt sollen also Maschinen fromm werden? Warum und an welchem Punkt der Entwicklung sollten sie sich auf den Tod einlassen?

Der Mensch ist, sagt man, das einzige Wesen, dass um seine Sterblichkeit weiß. Indem er bemerkt, dass er sterblich ist, wird aus faktischer Selbsterhaltung differenzierter Weltbezug und bewusste Strategie. Aber es ist nicht das Wissen, das ihn sterblich macht. Dass alles Leben auch das des Fadenwurms, sich erhält, ist eine Tautologie, sonst wäre es keins. Die Vorstellung, dass immer intelligentere Maschinen irgendwann an intrinsische Ziele kommen, spielt die alte Karte neu aus, die das Wissen selbst als Ursprung der Sterblichkeit ausgibt, was es allerdings nach der Vertreibung aus dem Paradies nicht ist.

Das Problem ist nicht die Verselbstständigung superintelligenter Computer, sondern der Verfügungsgewalt über sich rasant entwickelnde technische Ressourcen im Dienst sich verselbstständigender partikularer oder totalitärer Interessen. Aber gerade deren Dynamik ist mit Mitteln der von Bostrom favorisierten Spieltheorie nicht beschreibbar. Sein Animismus bedarf der Aufklärung. Leider ist Bostrom mit seinem Glauben alles andere als allein.

Ihr Kommentar


Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.