Nachgelegt: Hausaufgabe

Und wieder wurde die Hausaufgabe erweitert:

Hausaufgabe3Es sind die Filme
– Westworld
– Der Rasenmäher Mann
– M.A.R.K. 3 – Hardware
– Runaway – Spinnen des Todes

Westworld und Rasenmäher Mann habe ich schon gesehen, Hardware habe ich mir als DVD bestellt und Runaway gibt es bei Amazon leihweise zu 4 Euro.

Erstgenannte haben mit der aktuellen KI Diskussion keine Berührung. Mal sehen was die anderen bringen.

Hier der Link:
https://defcon.org/html/defcon-24/dc-24-news.html#dc24homework3

Colossus – The Forbin Project

ColossusDieser Film ist aus 1970. Ich kaufte die DVD  (leider kein Online-Verleih), obwohl ich nach den Enttäuschungen der wesentlich aktuelleren Filme keine richtige Lust darauf hatte.

Gestern dann habe ich mich überwunden. Und ich bin noch immer erstaunt, welche Weitsicht dieser 46 Jahre alte Film freilegt.

Die Handlung ist simpel. Die USA setzen einen Supercomputer in Betrieb, der die Kontrolle über alle Waffensysteme der USA übernimmt und fortan für die Sicherheit des Landes als einzige Instanz zuständig ist. Kurz nach der Inbetriebnahme findet dieser Computer einen weiteren Superrechner mit der gleichen Zielsetzung in der UDSSR. Nachdem beide Rechner ausgiebig miteinander kommuniziert haben beginnt sich das System zu optimieren und die Weltherrschaft an sich zu reißen.

An den Kinokassen war der Film wohl ein Flop, was mich aufgrund der fast aseptischen Atmosphäre nicht wundert. Erst spät wurde der Film zum Klassiker stilisiert, was an mir jedoch komplett vorüber gegangen ist. Es gibt diverse Überarbeitungen und Formate, sogar auf Blu-Ray.

Jedenfalls ist hier tatsächlich genau das von vielen befürchtete Szenario des schnellen Takeoffs skizziert, wenn auch der damals real existierende kalte Krieg bedeutenden Einfluss auf den Film nimmt.

Und ich finde es Bemerkenswert, dass die Handlungen des superintelligenten Computersystems auf menschliche Handlungsmuster zurückgreifen.

Für mich ist klar, dass dieses Handlungsmuster zu den bekannten Ängsten im hier und jetzt führt. Ein wirklich radikal intelligentes System müsste ja logischerweise auf intelligentere Muster zurückgreifen können und würde, schon aus ökonomischen Überlegungen, auf Strafe und Vergeltung verzichten

In diesem Fall meine Empfehlung: Ansehen

 

The Machine

TheMachineWie schon die anderen in der diesjährigen Defcon-Hausaufgabe angeführten Filme, mit Ausnahme 2001, trägt auch dieser Film meiner Meinung nach nicht zu einem besseren Verständnis des diesjährigen Mottos bei.

Im Gegenteil.
Nur kurz dauerte die Hoffnung, das sich der Film tatsächlich mit irgendwelchen Fragen der KI auseinandersetzt. Aber schnell wird klar, dass es eher ein typischer Hollywoodstreifen ist.

Ein bisschen Horror, Spezialeffekte und Action. Das wars auch schon. Schade um die Zeit (und die 4€ bei Amazon Prime).

 

Moon

http://t3.gstatic.com/images?q=tbn:ANd9GcQFvZ6ssu8Mm4DbYlLuTjGvUOtbaos51VmQrPJ7tL8aSuHvvekFGestern konnte ich mir den Film „Moon“, Bestandteil der diesjährigen Hausaufgabe ansehen.

Es handelt sich um eine ruhig erzählte Geschichte über den einzigen Mitarbeiter einer Erntestation für Helium 3 auf dem Mond. Eine KI mit dem Namen GERTY ist zunächst die einzige Gesellschaft.

Die Geschichte fand ich spannend und schön erzählt. Ich kann den Film jedem SciFi Fan empfehlen. Trotzdem: Leider ist auch bei diesem Film nicht ersichtlich, welchen Betrag er zum Theme „Rising of the Machines“ der diesjährigen Defcon leisten soll.

Darum spare ich mir weitere Ausführungen über den Film. Wer Lust hat: Ansehen.

Ray Kurzweil „Homo s@piens“

Diese Werk von Ray Kurzweil ist bereits 1999 erschienen. Daher kann man schon heute Aussagen über die Qualität der Vorhersagen machen, die Kurzweil in seinem Buch rausgehauen hat.

HomoSapiensZunächst muss ich zugeben, dass ich große Teile des Buches übersprungen habe. Und zwar fast alle Stellen, in denen Definitionen erfolgen. Wer sich mit dem Thema beschäftigt hat, wird immer wieder auf die gleichen einleitenden Sequenzen treffen, um z.B. klarzustellen was Gehirnsimulation bedeutet und welche technischen Möglichkeiten dazu bereits vorhanden sind, was fehlt und wie der Weg dorthin aussehen könnte.

Zieht man diese Definitionsbeschreibungen und dazugehörenden Texte ab, wird das 509-seitige Buch dünn. Sehr dünn.

Es bleibt dann eine Reihe von Behauptungen sowie Vorhersagen über die technische Entwicklung, konkret für die Zeitpunkte 2009, 2019, 2029 und 2099. Bereits für 2009 hat der Autor kaum eine Entwicklung richtig abgeschätzt. Zudem sind die Zeitspannen viel zu optimistisch, wie sich an Beispielen zeigt die auch heute noch unerreichte Utopien sind.

Bis 2019 sind es zwar noch drei Jahre, aber hier sieht die Trefferquote erwartungsgemäß drastisch schlechter aus und die tecnische Entwicklung hat zudem nicht die erwartete Richtung genommen. Damit werden die weiteren Prognosen immer unwahrscheinlicher.

Die vielen Beispiele, mit denen er seine Behauptungen zur technologischen Entwicklung und zum determinierten vermeintlichen Evolutionssprung der Menschheit anbringt beweisen klar: Herr Kurzweil ist verliebt. In sich und seine Gedankenwelt. Und wenn es stimmt (das habe ich nicht im Buch gelesen, sondern allgemeinen Presseberichen entnommen), das sich Herr Kurzweil versucht auf die Ankunft des Singletons vorzubereiten da er glaubt diese Ankunft zu erleben und dann den Übergang in ein schier ewiges Leben umzusetzen, dann ist es eine verzweifelte Liebe.

Seine Aussagen sind ein Konvolut an Phantasien, welche man haben kann. Klar. Die Qualität allerdings entspricht den Vorstellungen der siebziger Jahre zur Entwicklung des Automobils. Ich nenne nur die Stichworte Amphibienfahrzeug und Flugauto. Es sind nicht Gründe der technischen Machbarkeit, die diese Produkte verhindert haben. Es gab schlicht zu wenig Interesse, auch wenn der Gedanke daran auch heute noch eine schöne Sache ist.

Kurzweil ist kein echter Visionär, er hat keine Idee vom Ungedachten. Ihm fehlt die Fähigkeit der von der aktuellen Realität abgelösten Vision wie sie beispielsweise Gene Roddenberry in einer wunderbaren Form mit uns teilte, den ich hier nur erwähne um jemanden zu benennen der solche Fähigkeiten besaß.

Ihm dann die Schlussfolgerungen, die auf seine schwachen Prognosen aufbauen, abzukaufen, erfordert schon ein hohes Maß an naivem Glauben.

Richard Powers „Galatea 2.2“

Der Roman von Richard Powers wird in der allgemeinen Literaturkritik gelobt und ist Teil der Hausaufgaben zur diesjährigen Defcon.

Kurz und knapp: Ich kann mich dem Lob nicht anschließen und ich sehe auch keinen Gewinn für Interessierte an den Konzepten und Perspektiven zur KI. Diese Hausaufgabe wurde definitiv in Unkenntnis des Inhalts aufgenommen.

galatea22Der Roman startet mit einer verschwurbelten Sprache, welche wohl die komplexe Gedankenstruktur des Autors anklingen lassen soll. Allerdings kommt das teilweise sehr manieriert rüber, erschwert den Lesefluss und lässt zudem im Verlauf des Buches stark nach, so das zum Schluss nichts von dieser Sprache übrigbleibt.

Die Entwicklung bzw. Fortschritte des KI Systems sind eher Randgeschehen und spielen erst ab etwa der Mitte des Buches überhaupt eine Rolle.

Das Buch behandelt im wesentlichen vergangene und kommende romantische Beziehungen des Autors.

Das einzig Positive, das ich dem Roman entnehmen kann (Spoileralarm!) ist die Tatsache, das die KI nach Kentniss eines großen Teils der irdischen (amerikanischen) Literatur sowie des aktuellen Tagesgeschehens seine eigene Auflösung betreibt, also Selbstmord begeht. Das finde ich deshalb positiv da dies mein erster Gedanke beim Lesen von Nick Bostroms „Superintelligenz“ als Gegenargument zu seinen Theorien, war.

Also: Lesen zur Vorbereitung zur CON = Zeitverschwendung, alle anderen: Lesen wenn kein anderes Buch in der Nähe ist.

Hausaufgabe III

Die Hausaufgaben zur CON wurden um folgende Filme erweitert:
defconHomeworkMovies2– Colossus: The Forbin Project
– Moon
– Animatrix
– The Machine
– 2001
– Battlestar Galactica (2003-2009)
Die ersten vier Titel kenne ich nicht, eine kurze Recherche bei Amazon zeigt das alle Filme lieferbar sind, auch in deutsch.
2001, ein Klassiker von Stanley Kubrick. Ich denke den hat jeder gesehen, wenn nicht: Es lohnt sich.
Einen Gewinn für die aktuelle KI Thematik (Ich möchte an das Motto der DefCon „The Rise of the Machines“ erinnern) sehe ich darin allerdings nicht.
Auch nicht in der sehr gut umgesetzten Serie Battlestar Galactica. Diese Neuauflage des Filmklassikers wurde sehr gut und sehr vollständig umgesetzt, Inhaltlich viel strukturierter als die Original Filme. Auf jeden Fall sehenswert, aber eben ohne mir verständlichen Gewinn für den Mottogedanken.

her

Gestern habe ich mir diesen rund 2-stündigen Film angesehen.

herEs handelt sich um ein SciFi-Romantik-Drama, in dem sich der Protagonist in eine KI verliebt und diese eine wechselseitige, körperlose Liebesbeziehung eingehen.
Der Film lebt von schönen Bildern und dem Fehlen der Hektik, die durch schnelle Schnitte entsteht.

Aus technischer Sicht wird eine KI ausgeliefert, die zwar eine Leistungsfähigkeit durchscheinen lässt wie Bostrom es in seinem Buch „Superintelligenz“ beschreibt, aber ohne die radikalen Tendenzen in die Leben der Menschen einzugreifen. Genau das Gegenteil ist der Fall, die KI wächst schnell über die Möglichkeiten der menschlichen Gesellschaft hinaus, unternimmt aber keine Versuche zu manipulieren.

Wer die Arbeiten des Regisseurs Spike Jonze mag, wird auch diesen Film lieben. Für KI Interessierte gibt es keine Erkenntnisse. Vielleicht das der Autor unterstellt, das auch in der Zukunft unausgereifte Produkte beim Endkunden getestet werden.

Nick Bostrom „Superintelligenz“

Bostrom beschreibt in seinem Buch die zu erwartenden Szenarien, wenn wir (die Menschheit) den Durchbruch schaffen eine dem Menschen ebenbürtige Maschine herzustellen.
Hier ist in erster Linie von einer künstlichen Intelligenz (KI) die Rede, die den geistigen Fähigkeiten des Menschen in seiner Gesamtheit gleichkommt. Mit dem Unterschied das die Maschine radikal Intelligent sein wird (warum es ausgeschlossen sein soll, das mit der ersten KI ein Depp etabliert wird, ist nicht erwähnt), woraus der Autor schließt das andere menschliche Kompetenzen (beispielsweise Sozialisierung und Empathie) als unerwünscht eliminiert werden
Bostrom stellt am Anfang klar, dass die Erschaffung einer Superintelligenz vermutlich das Ende der Menschheit bedeutet.

BostromSuperDie Schlussfolgerung ist, vereinfacht, das eine Maschine die durch einen Menschen geschaffen wurde und dem Menschen ebenbürtig ist, sich selbst noch einmal herstellen kann. Und da eine Maschine schneller ist als ein Mensch und -eben wie es ein Mensch tun würde- bei jeder Generation eine kleine Verbesserung erreichen würde, würden diese Evolutionsschritte mit zunehmender Geschwindigkeit erfolgen. In Bostroms Überlegungen läuft die KI aus Software virtuell auf einer Hardware, so dass jede Modifikation und damit neue Generation sehr schnell erzeugt werden kann. Dadurch, so der Autor, bestünde die Gefahr eines „Takeoff“ zur Superintelligenz, der sich in Minuten bis Tagen abspielen würde und in der Weltherrschaft gipfelt. Der schnelle Takeoff wird damit erklärt, das die Programmierer mit immer größeren Erfolgen bei der Evolution der Hardware den Anreiz verlieren, die Hardwareressourcen ökonomisch zu nutzen und das bei einem Durchbruch in der KI Entwicklung ein enormer Überschuss an erforderlichen Ressourcen besteht, den die Superintelligenz dann zu nutzen weiß.

Das erwartete Szenario erfolgt nach langer, recht ergebnisloser Bastelei an einer solchen KI, die immer mehr Ressourcen zur Verfügung gestellt bekommt ohne das sich eine Intelligenz einstellt. Dann wird durch das letzte fehlende Puzzleteil plötzlich der Takeoff ausgelöst und die Folgen sind dann irreversibel.

Die sich so ausgebildete Superintelligenz wird den „entscheidenden strategischen Vorteil“ nutzen, um sich selbst als „Singelton“ zu etablieren, die dann die technische Singularität darstellt welche von vielen anderen Wissenschaftlern ebenfalls als drohende Gefahr betrachtet wird.

Das erfahren wir in den ersten 5 Kapiteln des Buches. Ab da dreht sich der Autor allerdings im Kreis. Es werden Wege und Möglichkeiten der Kontrolle und Begrenzung aufgezählt, besprochen, bewertet und wieder verworfen. Und weil er keine Lösung findet (dazu sind wir ja alle zu doof, denn wir haben es mit einer Superintelligenz zu tun) ist das Ende der Menschheit besiegelt, da eine Superintelligenz nur ihr Endziel verfolgt. Dieses Ziel hat die Kreatur irgendwie mit Ihrer Superintelligenz durch superintelligente Interpretation der menschlich fehlerbehafteten Regeln festlegt und binnen kurzer Zeit unseren Planeten, Galaxie, Universum und anschließend auch die Nachbaruniversen zu Erreichung dieses Ziels unterworfen.

Im Kapitel 14 wird schließlich festgestellt, dass es doch einige Möglichkeiten geben kann den Untergang der Menschheit zu vermeiden falls ausreichend Zeit bleibt darüber nachzudenken. Plötzlich ist das Szenario nicht mehr bedrohlich, sondern wird zur wünschenswerten Zukunft.

Ganz neben bei, ohne dass dies ausdrücklich erwähnt wird, muss bei den meisten Zukunftsszenarien die Bostrom entwirft der Abschied vom biologischen Menschen unterstellt werden. Zitat: „Ein Milliardär lebt heutzutage nicht tausend Mal so lang wie ein Millionär, im Zeitalter der digitalen Intelligenz könnte sich der Milliardär jedoch die tausendfache Rechenleistung kaufen und so in den Genuss eines subjektiv tausendfach längeren Lebens kommen.“
Somit bedeutet also auch die positive Vision des Autors faktisch die Auslöschung des menschlichen Lebens so wie wir es kennen.

Ich finde, er stellt einfache Fragen nicht:
Wir wahrscheinlich ist es, das man ein technisches System, also eine KI entwickelt, die über eine langen Zeitraum tot überm Zaun hängt und kaum drehe ich eine bestimmte neue Schraube rein steht das Ding auf und hält einen Vortrag über die allgemeine Relativitätstheorie? Wer würde so ein Projekt finanzieren, wenn es zwischendurch keine Ergebnisse gibt und auch keinerlei ersichtlichen Fortschritt in die gewünschte Richtung. Das ist für mich keine nachvollziehbare Darstellung einer technischen Entwicklung.

Wenn die super intelligente Maschine ihren Takeoff erlebt, reicht dann Intelligenz tatsächlich aus die bestehenden Ressourcen so unglaublich viel besser zu nutzen, als die noch von Menschen programmierte erste Generation? Eine Effizienzsteigerung von ein paar hundert Prozent wird kaum ausreichen eine Weltherrschaft zu etablieren und dürfte höchstens zu einem diktatorischen Regime im Entwicklungslabor ausreichen. Um das Wissen der Welt zu erlangen, müssen enorme Kapazitäten an Speicher zur Verfügung stehen und wie lange wird es Dauern alleine die Serversäle von Google auszulesen?

Gibt es Gott? Schließt Intelligenz ein religiös geprägtes Denken aus? Bostom erwähnt zwar im letzten Kapitel, das es sich bei seinen Überlegungen um eine säkulare Sichtweise handelt, es ist aber eine eindeutig Atheistische. Das ist natürlich in Ordnung, aber im jetzigen Stadium müsste man eine theistische Sichtweise gleichrangig würdigen, so es denn eine gibt.

Ist Intelligenz gefährlich? Sind intelligente Menschen weniger zu Sozialisierung und Empathie befähigt? Waren bzw. sind Sozialisierung und Empathie evolutionäre Hemmnisse?

Würde radikale Intelligenz nicht umgehend in einen Selbstmord münden? (Was meiner Meinung nach deutlich logischer ist, als alle im Buch genannten Annahmen zu den erwartbaren Handlungen einer radikal intelligenten KI).

OK, ich höre hier mal auf, da fällt mir noch einiges mehr ein. Trotzdem finde ich das Buch gelungen und lesenswert, auch wenn ich in den Kapiteln 6-13 den Leseturbo eingeschaltet habe. Im Ergebnis ist es aber ein philosophisches Buch und weniger geprägt durch die Sichtweise eines technischen Entwicklers, der ebenfalls brennend an den behandelten Fragen interessiert ist.

Hausaufgabe II

Ich bin heute zufällig auf den deutschen Titel des in den Hausaufgaben enthaltenen Buchs von Ray Kurzweil, The Age of Spiritual Machines, gestoßen:

HomoSapiensHomo sapiens
ECON Ullstein Taschenbuch, ISBN 978-3548750262, Paperback

Der Titel ist vergriffen (Erschienen Januar 2000) und wird im Netz zwischen 15€ inklusive Versand und irgendwelchen Fantasiepreisen angeboten.