Intelligente Computer - So gefährlich wie Atomwaffen

Vor wenigen Jahren entwickelte ein kleines Start-up in London einen selbstständig lernenden Computer, der seinen menschlichen Schöpfern bald überlegen war. Haben Maschinen schon die Macht, uns zu vernichten? Diese Frage stellt sich der Journalist Jay Tuck in seinem neuen Buch

Das Buch „Evolution ohne uns - Wird Künstliche Intelligenz uns töten?“ ist ab 10. August erhältlich / Plassen Verlag
Anzeige

Autoreninfo

Jay Tuck ist Journalist, erfolgreicher Fernsehproduzent und angesehener Verteidigungsexperte. Der Ex-Redaktionsleiter der „Tagesthemen“ hat in seinen 35 Jahren beim deutschen Fernsehen über 500 Berichte produziert.

So erreichen Sie Jay Tuck:

Anzeige

Als sich Google auf die Suche nach einem Gehirn für sein Gedächtnis machte, schickte es seine Scouts nach London. Die wurden in einem unscheinbaren Bürotrakt am 5 New Street Square fündig. Dort arbeiteten ein Dutzend junge Programmierer in einem geheimnisumwitterten Unternehmen mit dem Namen DeepMind. 

Googles Gehirn ist DeepMind

Papiere und Pressemitteilungen gab es selten, Äußerungen vom Management so gut wie nie. Die Firmenwebsite war ein leerer Bildschirm. Man wusste nur, dass DeepMind irgendwie mit KI-Forschung beschäftigt war. Gründer Demis Hassabis ist ein quirliger Neurowissenschaftler, passionierter Schachspieler und erfolgreicher Entwickler von Computerspielen. Seit dem Studium verfolgte er ein ehrgeiziges Ziel. Er wollte das menschliche Gehirn in einem Computer rechnerisch nachbilden. Er brauchte dazu Software, die mit jedem Entwicklungsschritt neu hinzulernen könnte. Im Jahr 2011 gründete er DeepMind. Er war damals vierunddreißig Jahre alt. Es war neurologisches Neuland. 

„Wir wollen den Computer mit der Fähigkeit ausstatten, selbstständig aus Erfahrung zu lernen, wie ein Mensch das tun würde, und vielleicht Dinge zu meistern, von denen wir heute noch nicht einmal wissen, wie wir sie programmieren müssen“, so Hassabis. Er fütterte seinen Rechner mit Atari-Spielen, gab ihm aber keine Informationen über Spielregeln oder Bedienung. Als einzige Quelle hatte der Rechner die Informationen, die auf dem Bildschirm erschienen. Die Maschine lernte im wahrsten Sinne des Wortes spielend – indem sie sich eigenständig das Spielen von 49 Konsolen-Games beibrachte. Das Vorbild des Rechners: die menschliche Fähigkeit zu lernen. Am Anfang waren seine Rückschlüsse zufällig, der Rechner auf sich selbst angewiesen. Später hatte er den Sinn erkannt, die Bedienung begriffen und die Spiele gemeistert. Alsbald besiegte er seine menschlichen Erfinder.

Computer lernen selbstständig

Zunächst klingt das unspektakulär. Kinder können das auch. Für die Forscher war es sensationell – lernfähige Software. Das Lernen durch die Eingabe unstrukturierter Informationen wird von Experten „unbeaufsichtigtes Lernen“ (unsupervised learning) genannt. Der Computer muss die Struktur herausfinden und selbstständig entscheiden, was er damit machen will. Mit der revolutionären Künstlichen Intelligenz ihrer Algorithmen meisterten die Rechner von DeepMind Spiele wie Pong oder Space Invaders. Sie lernten allein von den sichtbaren Daten auf dem Bildschirm. Für herkömmliche KI-Systeme mussten Software-Teams tagelang Algorithmen entwerfen, Befehle codieren und Daten detailliert kennzeichnen, bevor der Rechner etwas damit anfangen konnte. Der Computer wurde sozusagen an die Hand genommen. Hier lernte er ohne Anleitung.

„Es war aufregend zu sehen, wie er immer wieder Strategien entdeckte, die für die Programmierer neu waren“, sagt Hassabis. Es ist vielleicht niedlich, wenn ein Computer unerwartete Wege beim Spiel geht. Man kann sich dabei förmlich den Stolz in den Augen der Erfinder vorstellen. Die Vorstellung, dass eine lernfähige Intelligenz, die große Bereiche des menschlichen Lebens kontrolliert, eigene Wege geht, ist weniger niedlich. „Wir sind nur an dieser Art von KI interessiert“, so Hassabis.

Die Idee hinter dem Forschungsprogramm ist es, langsam die Bereiche zu erweitern, in denen der Computer selbstständig lernt. Das Vorbild sind wir selbst. Die Forscher haben einen Prototyp vor Augen – das menschliche Gehirn. Menschen können ihre Schnürsenkel zuschnüren, mit dem Fahrrad fahren und Astrophysik studieren – alles mit derselben Lernarchitektur. Es ist Neuland. Aber es ist möglich. Im Hintergrund entwickelten die Forscher ein unabhängig denkendes Wesen mit maschineller Lernfähigkeit – eine Künstliche Intelligenz. Nach den ersten Babyschritten schrieb sie ihren eigenen Code. Die Wege, die sie gehen würde, waren nicht vorhersehbar. Hassabis Versuch war ein Durchbruch für die Künstliche Intelligenz. Es war aber keine Spielerei. 

Auslöschung der menschlichen Rasse 

DeepMind befand sich an der Spitze der KI-Forschung. Das wussten Branchen-Insider. Ihre Forschung erweckte akutes Interesse in Mountain View, Kalifornien. Als Google an die Tür klopfte, glaubten Hassabis und seine Freunde an das große Glück. Der schönste Traum eines jeden Start-up-Gründers ist schließlich der Börsengang. Oder ein Kaufinteressent, der tiefe Taschen hat. Google war interessiert. Und Google hat tiefe Taschen. Es bot knapp Euro 500 Millionen für DeepMind. Die Firmengründer, hätte man denken können, würden sofort zuschlagen. Aber nein, sie zögerten. Nicht wegen des Kaufpreises. Der hätte sie über Nacht zu sehr vermögenden Männern gemacht. Sie waren aber besorgt um das Gefahrenpotenzial ihrer Arbeit. Sie stellten Bedingungen, ungewöhnliche Bedingungen.

Die Tüftler an der Themse wussten, dass ihre Software-Kreation gefährlich werden könnte. In den Worten des Mitbegründers Demis Hassabis betrieben sie mit DeepMind „ein Manhattan-Projekt in Sachen Künstlicher Intelligenz“. Sein Vergleich mit der Entstehung der ersten Atombombe ist nicht abwegig. Viele Wissenschaftler halten das Gefahrenpotenzial von Künstlicher Intelligenz durchaus für vergleichbar mit atomaren Waffen. Shane Legg, sein Partner und Mitbegründer von DeepMind, hält es für möglich, dass Künstliche Intelligenz eigene Wege gehen könnte. Mehrfach stellten Programmierer fest, dass die DeepMind-Rechner eigenständig einen Code schrieben, den die menschlichen Ingenieure nicht mehr entziffern konnten. Das war cool. KI sollte eigene Wege gehen. Dass die neue Software unverständlich war, machte die Kollegen allerdings nervös. Die Maschine konnte denken. Das war unheimlich. Legg erkannte das Potenzial. Künstliche Intelligenz sei gefährlich. „Sie könnte bei der Auslöschung der menschlichen Rasse sehr wohl eine Schlüsselrolle spielen.“

Der Kanarienvogel im Bergbau

Hassabis und Legg wollten im Kaufvertrag mit Google einige Sicherheiten verankern, damit Künstliche Intelligenz nicht zur Bedrohung für die Menschheit wird. Deswegen verlangten sie – als Voraussetzung für den Verkauf an Google – dass der kalifornische Datengigant einen Ethik-Ausschuss einrichtet. Unabhängige Experten sollten die Forschung und Entwicklung von KI ständig überwachen und sicherstellen, dass sie nicht außer Kontrolle gerät. Die Jungunternehmer wollten verhindern, dass ihre Forschung mit der Künstlichen Intelligenz nicht aus dem Ruder läuft. Sie fürchteten ernsthaft, dass die Horrorvisionen aus Hollywood-SciFi-Filmen womöglich wahr werden könnten. Von Presse und Parlament – so glaubten sie – könne man keine vernünftige Aufsicht erwarten. Wie der Kanarienvogel im Bergbau soll das Ethik-Komitee frühzeitig vor der Gefahr einer drohenden Intelligenz-Explosion warnen. Seit der Übernahme durch Google hört man allerdings wenig vom Ethik-Ausschuss, nicht einmal, wer seine Mitglieder sind, ist bekannt. Hassabis verweigert dazu die Aussage. Presseanfragen bleiben unbeantwortet.

Demis Hassabis scheint inzwischen von Google sehr angetan zu sein. Durch den Verkauf ist er vielfacher Millionär geworden. Er glaubt an sein Team. Er vertraut Google. „Wenn irgendwer den Durchbruch schaffen kann, wird dies das Team sein. Die Zukunft wird Google gehören, und zwar in einer Art und Weise, die wir uns heute nicht im Ansatz vorstellen können.“ Mit seiner Leidenschaft arbeitet er bereits an einem neuen Ziel: der „proaktiven Version“ der Google-Suche. Sie soll nicht nur einfach für die Menschen Dinge finden. Sie soll auch Entscheidungen für sie treffen.

 

Dieser Text ist ein Auszug aus dem Buch „Evolution ohne uns - Wird Künstliche Intelligenz uns töten?“ von Jay Tuck, Plassen Verlag, erscheint am 10. August 2016, 220 Seiten, gebunden 19,99 Euro.

 

Anzeige