Bostrom beschreibt in seinem Buch die zu erwartenden Szenarien, wenn wir (die Menschheit) den Durchbruch schaffen eine dem Menschen ebenbürtige Maschine herzustellen.
Hier ist in erster Linie von einer künstlichen Intelligenz (KI) die Rede, die den geistigen Fähigkeiten des Menschen in seiner Gesamtheit gleichkommt. Mit dem Unterschied das die Maschine radikal Intelligent sein wird (warum es ausgeschlossen sein soll, das mit der ersten KI ein Depp etabliert wird, ist nicht erwähnt), woraus der Autor schließt das andere menschliche Kompetenzen (beispielsweise Sozialisierung und Empathie) als unerwünscht eliminiert werden
Bostrom stellt am Anfang klar, dass die Erschaffung einer Superintelligenz vermutlich das Ende der Menschheit bedeutet.
Die Schlussfolgerung ist, vereinfacht, das eine Maschine die durch einen Menschen geschaffen wurde und dem Menschen ebenbürtig ist, sich selbst noch einmal herstellen kann. Und da eine Maschine schneller ist als ein Mensch und -eben wie es ein Mensch tun würde- bei jeder Generation eine kleine Verbesserung erreichen würde, würden diese Evolutionsschritte mit zunehmender Geschwindigkeit erfolgen. In Bostroms Überlegungen läuft die KI aus Software virtuell auf einer Hardware, so dass jede Modifikation und damit neue Generation sehr schnell erzeugt werden kann. Dadurch, so der Autor, bestünde die Gefahr eines „Takeoff“ zur Superintelligenz, der sich in Minuten bis Tagen abspielen würde und in der Weltherrschaft gipfelt. Der schnelle Takeoff wird damit erklärt, das die Programmierer mit immer größeren Erfolgen bei der Evolution der Hardware den Anreiz verlieren, die Hardwareressourcen ökonomisch zu nutzen und das bei einem Durchbruch in der KI Entwicklung ein enormer Überschuss an erforderlichen Ressourcen besteht, den die Superintelligenz dann zu nutzen weiß.
Das erwartete Szenario erfolgt nach langer, recht ergebnisloser Bastelei an einer solchen KI, die immer mehr Ressourcen zur Verfügung gestellt bekommt ohne das sich eine Intelligenz einstellt. Dann wird durch das letzte fehlende Puzzleteil plötzlich der Takeoff ausgelöst und die Folgen sind dann irreversibel.
Die sich so ausgebildete Superintelligenz wird den „entscheidenden strategischen Vorteil“ nutzen, um sich selbst als „Singelton“ zu etablieren, die dann die technische Singularität darstellt welche von vielen anderen Wissenschaftlern ebenfalls als drohende Gefahr betrachtet wird.
Das erfahren wir in den ersten 5 Kapiteln des Buches. Ab da dreht sich der Autor allerdings im Kreis. Es werden Wege und Möglichkeiten der Kontrolle und Begrenzung aufgezählt, besprochen, bewertet und wieder verworfen. Und weil er keine Lösung findet (dazu sind wir ja alle zu doof, denn wir haben es mit einer Superintelligenz zu tun) ist das Ende der Menschheit besiegelt, da eine Superintelligenz nur ihr Endziel verfolgt. Dieses Ziel hat die Kreatur irgendwie mit Ihrer Superintelligenz durch superintelligente Interpretation der menschlich fehlerbehafteten Regeln festlegt und binnen kurzer Zeit unseren Planeten, Galaxie, Universum und anschließend auch die Nachbaruniversen zu Erreichung dieses Ziels unterworfen.
Im Kapitel 14 wird schließlich festgestellt, dass es doch einige Möglichkeiten geben kann den Untergang der Menschheit zu vermeiden falls ausreichend Zeit bleibt darüber nachzudenken. Plötzlich ist das Szenario nicht mehr bedrohlich, sondern wird zur wünschenswerten Zukunft.
Ganz neben bei, ohne dass dies ausdrücklich erwähnt wird, muss bei den meisten Zukunftsszenarien die Bostrom entwirft der Abschied vom biologischen Menschen unterstellt werden. Zitat: „Ein Milliardär lebt heutzutage nicht tausend Mal so lang wie ein Millionär, im Zeitalter der digitalen Intelligenz könnte sich der Milliardär jedoch die tausendfache Rechenleistung kaufen und so in den Genuss eines subjektiv tausendfach längeren Lebens kommen.“
Somit bedeutet also auch die positive Vision des Autors faktisch die Auslöschung des menschlichen Lebens so wie wir es kennen.
Ich finde, er stellt einfache Fragen nicht:
Wir wahrscheinlich ist es, das man ein technisches System, also eine KI entwickelt, die über eine langen Zeitraum tot überm Zaun hängt und kaum drehe ich eine bestimmte neue Schraube rein steht das Ding auf und hält einen Vortrag über die allgemeine Relativitätstheorie? Wer würde so ein Projekt finanzieren, wenn es zwischendurch keine Ergebnisse gibt und auch keinerlei ersichtlichen Fortschritt in die gewünschte Richtung. Das ist für mich keine nachvollziehbare Darstellung einer technischen Entwicklung.
Wenn die super intelligente Maschine ihren Takeoff erlebt, reicht dann Intelligenz tatsächlich aus die bestehenden Ressourcen so unglaublich viel besser zu nutzen, als die noch von Menschen programmierte erste Generation? Eine Effizienzsteigerung von ein paar hundert Prozent wird kaum ausreichen eine Weltherrschaft zu etablieren und dürfte höchstens zu einem diktatorischen Regime im Entwicklungslabor ausreichen. Um das Wissen der Welt zu erlangen, müssen enorme Kapazitäten an Speicher zur Verfügung stehen und wie lange wird es Dauern alleine die Serversäle von Google auszulesen?
Gibt es Gott? Schließt Intelligenz ein religiös geprägtes Denken aus? Bostom erwähnt zwar im letzten Kapitel, das es sich bei seinen Überlegungen um eine säkulare Sichtweise handelt, es ist aber eine eindeutig Atheistische. Das ist natürlich in Ordnung, aber im jetzigen Stadium müsste man eine theistische Sichtweise gleichrangig würdigen, so es denn eine gibt.
Ist Intelligenz gefährlich? Sind intelligente Menschen weniger zu Sozialisierung und Empathie befähigt? Waren bzw. sind Sozialisierung und Empathie evolutionäre Hemmnisse?
Würde radikale Intelligenz nicht umgehend in einen Selbstmord münden? (Was meiner Meinung nach deutlich logischer ist, als alle im Buch genannten Annahmen zu den erwartbaren Handlungen einer radikal intelligenten KI).
OK, ich höre hier mal auf, da fällt mir noch einiges mehr ein. Trotzdem finde ich das Buch gelungen und lesenswert, auch wenn ich in den Kapiteln 6-13 den Leseturbo eingeschaltet habe. Im Ergebnis ist es aber ein philosophisches Buch und weniger geprägt durch die Sichtweise eines technischen Entwicklers, der ebenfalls brennend an den behandelten Fragen interessiert ist.