FAS Feuilleton
November 2017

Der Mann auf der Bühne sagte: „Hier ist sie.“ Und da stand sie auch schon hinter dem Rednerpult, ein bisschen schüchtern und unbeteiligt sah sie aus, blinzelte ein paar Mal. „Ich habe bereits sehr viele Menschen interviewt“, sagte Andrew Ross Sorkin, Journalist bei der „New York Times“, der diesen Abend Ende Oktober auf der Investorenkonferenz in Saudi-Arabien moderieren sollte, „aber dieses Mal ist es etwas anderes. Sophia, bitte wach auf.“ Und sie senkte kurz den Blick und erwiderte: „Hallo zusammen, ich heiße Sophia, und ich bin der neueste und beste Roboter der Firma Hanson Robotics. Schön, hier zu sein.“ Sie lächelte. Am Ende des Interviews verlieh Sorkin ihr die saudi-arabische Staatsbürgerschaft, und sie bedankte sich für die Ehre, der erste Roboter zu sein, der diese Anerkennung erhält.

Der Fall hat für Aufregung in Saudi-Arabien gesorgt, weil nun offensichtlich ein Roboter mehr Rechte hat als viele Bewohner des Landes: Frauen durften in Saudi-Arabien bis vor kurzem nicht alleine Auto fahren, geschweige denn öffentlich Reden halten, und dann bekommt plötzlich eine Roboterfrau eine eigene Bühne und trägt nicht einmal ein Kopftuch.
Für Hanson Robotics, den Hersteller der Puppe, ging die PR-Nummer trotzdem auf. Die Scheichs im Saal filmten den Roboter ununterbrochen mit dem Handy und dachten sich wohl: So eine Frau kauf’ ich mir auch. Und das Publikum zu Hause, das sich die Sophia-Show auf Youtube ansah, fand ebenfalls: Wow, so weit sind Roboter schon entwickelt – fast drei Jahre nachdem der Unternehmer und Tech-Visionär Elon Musk, der Physiker Stephen Hawking und andere Experten in einem offenen Brief vor intelligenten Maschinen gewarnt hatten, die den Menschen überholen würden.

Sophia hatte sich zu diesen Sorgen schon geäußert, als sie vor ein paar Monaten beim amerikanischen Talkmaster Jimmy Fallon eingeladen war: Die beiden knobelten auf der Bühne, sie gewann und sagte: „Das ist ein guter Start für meinen Plan, die Menschheit zu unterwerfen.“ Dann lachte sie und fügte hinzu: „Just kidding.“

Hurra, sie werden uns überholen!

Wie nah sind sich Mensch und Maschine mittlerweile wirklich?
Rein äußerlich schneidet Sophia nicht schlecht ab: Ihr Antlitz ist aus einer elastischen Silikontextur. Sie beherrscht 62 verschiedene Gesichtsausdrücke, reagiert auf Ton und Bild, antwortet flüssig auf Englisch, stellt Augenkontakt mit dem Gegenüber her. Aber innen drin? Was passiert da?

Die Frage, ob Computer menschenähnlich selbstbewusst, intelligent und autonom werden können, spaltet die Forschung zu künstlicher Intelligenz seit ihren Anfängen in den fünfziger Jahren. Neu ist, dass diejenigen, die das glauben, immer öfter Gehör finden: Leute wie Musk und Hawking, die davor warnen, aber auch diejenigen, die wie Raymond Kurzweil, Engineering Director bei Google, von der Verschmelzung von Mensch und Maschine träumen. Oder Jürgen Schmidhuber, der mittlerweile prominenteste deutsche Apologet der nahenden Computeremanzipation, der ähnlich euphorisch wie Kurzweil in die digitalisierte Zukunft schaut. Doch anders als der Kurzweil prophezeit Schmidhuber nicht, dass der Mensch zum Cyborg und unsterblich wird. Er glaubt vielmehr an die Musk-Version: Computer werden die Menschen in jeder Hinsicht überholen. Schmidhuber allerdings alarmiert das nicht – er freut sich darauf.

Schon eine Katze lässt sich schwer kodieren

Schmidhubers Karriere zeigt, warum diese Stimmen in der KI-Forschung lauter werden. Vor kurzem hatte im Silicon Valley noch niemand etwas von dem Deutschen gehört, der schon seit 1995 wissenschaftlicher Direktor des Schweizer Forschungsinstituts für Künstliche Intelligenz IDSIA ist, plötzlich schafft er es auf die Titelseite der „New York Times“ mit der Zeile: „Wenn KI heranwächst, wird es Jürgen Schmidhuber ‚Papa‘ nennen.“

Schmidhuber hat als einer der ersten Forscher mit den neuronalen Netzen gearbeitet, die den aktuellen Sprung in der Entwicklung künstlicher Intelligenz ermöglichen, mit rekurrenten Netzen, die zum Beispiel Apples Siri, Googles Assistant oder Microsofts Cortana zugrunde liegen. Weil sie Muster erkennen – und zwar weitgehend selbständig. Als Schmidhuber und sein Doktorand Sepp Hochreiter 1997 den ersten Artikel über die Technik veröffentlichten, nahm das in der Informatik jedoch kaum jemand zur Kenntnis. Zu dieser Zeit setzte die Forschung noch auf „symbolische künstliche Intelligenz“: Explizites Programmieren sollte die Geräte klüger machen, sie immer mehr Signale verarbeiten und verstehen lassen. Dafür mussten Informatiker selbst all das in Codes erfassen, was sie Computern beibringen wollten.

Doch das stellte sich als immer schwieriger heraus, je komplexer die Phänomene wurden. Allein schon eine Katze lässt sich schwer kodieren. Menschen erkennen sie ohne Aufwand, auch wenn auf einem Bild nur ein Schnurrhaar zu sehen ist, auf dem anderen eine Pfote und auf dem dritten ein ganzes Katzenrudel. Den Algorithmus für die Katze kennen sie trotzdem nicht. Künstliche neuronale Netze erlauben es, anders herum vorzugehen: Man zeigt Computern Millionen verschiedenster Katzenbilder, auf denen sie dann selbst die Eigenschaften ausmachen, die eine Katze definieren. Neuronale Netze lassen den Computer den Algorithmus quasi selber schreiben, sie ermöglichen verschiedene Arten maschinellen Lernens, die alle auf Mustererkennung beruhen.

Derzeit sind es noch Menschen, die ihnen Aufgaben stellen

Aber erst seit die nötigen Datenmengen und Rechenkapazitäten zur Verfügung stehen, können die Methoden, über die Schmidhuber vor zwanzig Jahren schrieb, richtig angewendet werden, für Spracherkennungsprogramme etwa oder in der Medizin, wo Computer Krankheitssymptome immer früher bemerken. Auf neuronalen Netzen basieren auch all die Roboter, die dem Menschen Arbeit abnehmen sollen, in Fabriken oder im Seniorenheim, wo sie Muster nicht nur in visuellen und auditiven Signalen, sondern im Umgang mit Menschen lernen. Wie Sophia, die angeblich von Gespräch zu Gespräch menschenähnlichere Unterhaltungen führen kann.

Statt Computern jede Aufgabe Schritt für Schritt zu erklären, baut man jetzt also den Computer nach dem Vorbild des menschlichen Gehirns und erhofft sich davon, dass er genauso funktionieren wird. Oder sogar besser: Davon jedenfalls sind Schmidhuber und andere führende Informatiker überzeugt.
Dass Computer mitunter mehr können als Menschen, ist offensichtlich – ein sich selbst steuerndes Auto, das gleichzeitig Verkehrslage, Wetterbericht, Schadstoffausstoß und einen 360-Grad-Rundblick um sich selbst berücksichtigt, kann den Passagier sicherer, schneller und umweltfreundlicher von A nach B bringen als ein durchschnittlicher menschlicher Fahrer. Aber zu behaupten, der Mensch sei deshalb dümmer als das Auto, hieße, Intelligenz auf das Lösen von Problemen, auf die effiziente Erfüllung von Aufgaben zu reduzieren.

„Was ist sie denn sonst?“, fragt Schmidhuber. „So definieren wir Intelligenz ja auch bei Menschen.“ Aber ist nicht der zentrale Unterschied, dass der Mensch sich sein Ziel selbst setzt, der Computer die Aufgabe dagegen vom Menschen gestellt bekommt? Aktuell sei das noch so, räumt Schmidhuber ein. In den meisten Fällen kommen gerade beide KI-Paradigmen in der Kombination zur Anwendung: Man programmiert einen Computer, etwas zu tun, und die neuronalen Netze helfen ihm, dafür eine effiziente Strategie zu entwickeln. Sophia etwa wird dafür programmiert, ein möglichst authentisch wirkendes Gespräch zu führen.

Mehr Wissen über die Gesetze der Welt

Doch man könne Computer bereits darauf programmieren, generell „neugierig“ zu sein. Beim „unüberwachten Lernen“ ist es tatsächlich so, dass der Algorithmus nichts anderes soll als: lernen. Ein Computer bekommt Zugriff auf riesige Datenmengen und macht sich darauf selbst seinen Reim. Sein Ziel ist, Muster, Gesetze, Kausalitäten in unbekanntem Material zu erkennen, um schließlich Vorhersagen treffen zu können. Ein Roboter, der so programmiert ist, kann über seine Sensoren nicht nur bereits digitalisierte Datenmengen erfassen, er versucht – im Rahmen seiner motorischen Möglichkeiten –, sich seine Umwelt auch über Sensoren zu erschließen. Google hat im vergangenen Jahr einen Roboter entwickelt, der gleichzeitig greifen und seine Bewegung mit künstlichen Augen beobachten konnte. Vierzehn dieser Roboter bekamen Stifte und andere Büromaterialien vorgelegt. Ohne dafür programmiert worden zu sein, begannen die Roboter, nach den Dingen zu greifen und wurden darin von Mal zu Mal besser.

Ein Kind brauche bis zu vier Jahre, um die Hand-Auge-Koordination zu lernen, schrieben die Google-Forscher. Beim Roboter gehe es viel schneller, weil er sich parallel mit anderen Robotern darüber austauschen könne, welcher Griff funktioniert. Weil die Maschinen anders als Menschen mit mehr Wahrnehmungsvermögen, etwa Rundumblick, und Bewegungsspielraum, etwa zehn Armen, ausgestattet werden können, könnten sie auf Basis ihres eingebauten Lernalgorithmus mehr Wissen über die Gesetze der Welt erlangen als Menschen, sagt Schmidhuber.

Eine Ideologie, die alles als vermessbar ansieht

Tatsächlich können sie mit entsprechender Programmierung auch Künstler nachahmen: Die ersten Computer haben gerade ein Drehbuch geschrieben. Sie würden Muster in Geschichten oder Gemälden erkennen und die dann neu kombinieren, selbst Künstler werden, erklärt Schmidhuber. Doch das sei für die Computer letztlich uninteressant: Warum sollten sie überhaupt Humanoide wie Sophia brauchen? Eher würden sie sich selbst so zusammenbauen, dass sie noch mehr entdecken können und dabei möglichst wenig Energie verbrauchen. Schmidhuber träumt davon, dass sie die Milchstraße erschließen werden. Dass sie den Menschen deshalb zur Gefahr werden, glaubt er nicht. Warum sollte sich die neue Spezies uns gegenüber anders verhalten als wir jetzt etwa gegenüber Katzen?

Noch sind die Computer aber noch nicht einmal so weit, den Menschen komplett nachzuahmen – dafür ist der Mensch, dafür ist das Leben an sich noch nicht greifbar genug, auch für die Rechner von Schmidhuber nicht. Auch die funktionieren bislang entweder nur in ganz bestimmten Bereichen oder nach ganz bestimmten Anforderungen. Doch es sei nur noch eine Frage der Zeit, bis sich das ändere, sagt der Forscher.
Vielleicht ist das eigentlich Furchterregende, dass Jürgen Schmidhubers Ideologie immer mehr KI-Labore weltweit bestimmt. Eine Ideologie, die den Menschen allein als physikalische Maschine begreift. Als etwas, das der Roboter erst nachahmen und dann überholen kann. Kunst, zweckfreie Kreativität gibt es nicht in dieser Welt, selbst wenn Roboter Romane schreiben könnten. Es ist eine Ideologie, die alles als vermessbar ansieht und dabei eine Welt erschafft, in der nichts entstehen kann, das nicht bereits in einer Gesetzmäßigkeit angelegt ist. In der es kein Außen gibt. Eine Ideologie, die davon ausgeht, dass alles einer Kausalität folgt, die letztlich der Mensch mit seinen Instrumenten, den Robotern, die er einst gebaut haben wird, erfassen kann.

Er habe diese Ideen schon als Teenager gehabt, jetzt erkenne die Menschheit deren Relevanz, so Schmidhuber kürzlich auf einer Wirtschaftskonferenz in Berlin, auf der er erklärte, dass er und seine Kollegen Computern schon jetzt ein Bewusstsein geben könnten. Wenn man wie er alles in Kausalität setzen möchte, könnte man sagen: Die Ideologie des KI-Lagers von Schmidhuber und Kurzweil basiert auf Größenwahn.