Künstliche Intelligenz außer Kontrolle?


Künstliche Intelligenz (KI) ist ein schillernder Begriff. Die Technologie soll bald schon Autos selbständig über die Autobahn rasen lassen und auf Röntgenbildern zuverlässig Krebsgeschwüre erkennen. Und eines nicht allzu fernen Tages sollen Maschinen Unterhaltungen führen können wie die Menschen. Kein Thema ist derzeit so aufgeladen, mit Hoffnung wie mit Hysterie.

Da verwundert es nicht, dass eine Randnotiz aus einem wissenschaftlichen Artikel plötzlich um die Welt geht. Forscher aus dem KI-Labor von Facebook wollten Chatbots beibringen, zu verhandeln – und stellten dabei fest, dass die Dialogprogramme untereinander eine eigene Sprache entwickelten. Die Schöpfer selbst konnten sie nicht verstehen, wie sie in ihrem Aufsatz zu Protokoll geben.

Manch einer sieht es jedoch weniger nüchtern. Sagen sich da die Maschinen von den Menschen los, so wie Tesla-Gründer Elon Musk oder der Physiker Stephen Hawking es befürchten? Ist das ein Warnzeichen, dass Künstliche Intelligenz bald die menschliche übertreffen und, schlimmer noch, von ihr unabhängig machen könnte? Eine „angsteinflößende Vorschau unserer möglichen Zukunft“, beschwört etwa ein Autor auf der Website von „Forbes“ herauf. Eher handelt es sich aber um ein Beispiel, wie sich Meldungen selbständig machen können, wenn sie dem Zeitgeist gefallen.


Den Anlass zur Diskussion gibt ein Forschungsprojekt von Facebook. Fünf Wissenschaftler des Internetkonzerns haben Chatbots beigebracht, darüber zu verhandeln, wie sie Dinge untereinander aufteilen. Das sei ein wichtiger Zwischenschritt, um Gespräche zwischen Mensch und Maschine zu ermöglichen, erläutern sie in einem Blogeintrag. Schließlich sei der ganze Tag gefüllt mit Verhandlungen – ob es darum gehe, den Fernsehsender auszusuchen, einen Preis zu drücken oder die Kinder von Gemüse zu überzeugen.

Bislang seien Dialogsysteme jedoch nur in der Lage, kurze Unterhaltungen zu führen und einfache Aufgaben zu erledigen, erklären die Forscher ihre Motivation. Für eine komplexere Kommunikation sei es notwendig, dass der Chatbot erstens die Unterhaltung inhaltlich verstehe, zweitens ein allgemeines Verständnis der Welt habe und drittens seine Wünsche formulieren könne.

Wer bereits mit einem solchen Programm kommuniziert hat, der weiß: Davon sind die Entwickler weit entfernt. Eine einfache Frage beantworten, einen Flug buchen – viel mehr ist nicht möglich, wenn überhaupt. Selbst viele simple Anfragen überfordern die Dialogsysteme heute noch.


Dabei sind die Erwartungen riesig: Marktforscher trauen solchen Systemen zu, Geschäftsfelder wie den Kundenservice zu revolutionieren. Das Analysehaus Tractica erwartet, dass der Umsatz mit virtuellen digitalen Assistenten für Endkunden im Jahr 2021 auf 15,8 Milliarden Dollar wächst. Und Gartner prognostiziert, dass Chatbots 2020 bereits an 85 Prozent aller Interaktionen zwischen Firmen und Kunden beteiligt sein werden. Ein riesiges Geschäft, natürlich auch für Facebook, das über den Messenger eine neue Form des Kundenservice ermöglichen will.

Die Facebook-Forscher arbeiten daher intensiv daran, die Technik zu verbessern. Um die Chatbots menschlicher zu machen, programmieren sie ihnen die Fähigkeit ein, Dialoge vorzuempfinden. Die Programme gehen also verschiedene Schritte durch, wie sich die Verhandlung – beispielsweise über zwei Bücher, einen Hut und drei Basketbälle – entwickeln könnte und wie sie dabei ihren Zielen näherkommen.

Das Resultat: Die Programme einigen sich auf Deals. Fast wie Geschwister, die über die Aufteilung von Geschenken der reichen Tante verhandeln. Du bekommst einen Basketball und die Bücher, ich nehme die beiden anderen Bälle und den Hut. Da beide Parteien unterschiedliche Vorlieben einprogrammiert bekommen haben – ausgedrückt in Punkten – , endet das meist nicht im Zoff, sondern mit einem Ergebnis, das für beide mindestens in Ordnung ist.


Was nach Dada klingt, ergibt für die Chatbots Sinn


Bei ihrem Experiment beobachteten die Forscher nun ein Verhalten, das die Aufmerksamkeit einer breiten Öffentlichkeit auf sich zog. Die Chatbots fingen an, eine eigene Sprache zu entwickeln. „I can can I I everything else“, bastelte der eine, Bob, aus den Elementen zusammen, die er für die Verhandlungen benötigte. „Balls have zero to me to me to me to me to me to me to me to me to“, antwortete der andere, Alice. Was nach Dada klingt, ergibt für die Chatbots offenbar Sinn.

Ausgerechnet diese Nebensache machte sich in der Öffentlichkeit selbständig. Das Magazin „Fast Company“ verdichtete die Ergebnisse der Studie zur Überschrift: „Künstliche Intelligenz erfindet eine Sprache, die Menschen nicht verstehen. Sollten wir sie stoppen?“ Es lieferte damit die Vorlage für andere Artikel, die nicht selten Untergangsszenarien heraufbeschwörten. „Was kommt als nächstes, Skynet?“, fragte etwa das Boulevardblatt „New York Post“ – in Anspielung auf den Film „Terminator“.

Diese Schlussfolgerungen passen in eine Diskussion, in der sich bekannte Unternehmer wie Mark Zuckerberg und Elon Musk öffentlich darüber streiten, ob Künstliche Intelligenz der Menschheit gefährlich werden könne. Zur Erinnerung: Der Tesla-Gründer hatte kürzlich wieder einmal gewarnt, dass die Technologie ein „fundamentales Risiko für die Zivilisation“ sei. Der Facebook-Gründer bezeichnet diese Warnung dagegen als „ziemlich unverantwortlich.

Zuckerberg vertritt gewiss keine neutrale Position, immerhin investiert seine Firma massiv in Künstliche Intelligenz. Aber tatsächlich spricht wenig dafür, dass die Chatbots von Facebook sich von ihren menschlichen Schöpfern lossagen, eine Verschwörung planen oder sich zumindest über ihre Frisuren lustig machen können.


Zum einen entstanden die sprachlichen Schöpfungen nicht aus Arglist, sondern sind Resultat einer unpräzisen Programmierung: Die Forscher hatten nicht vorgegeben, dass die Chatbots korrektes Englisch verwenden. Wenn Programme Probleme lösen sollten, führe das häufig zu „nicht intuitiven Lösungen“, erklärt einer der Facebook-Mitarbeiter.

Zum anderen fehlt den Maschinen so ziemlich alles, was die Menschen ausmacht. Wenn heute von Künstlicher Intelligenz die Rede ist, geht es meist ums maschinelle Lernen. Dabei leiten Algorithmen aus großen Datenmengen Regeln ab – etwa aus Texten oder Bildern. In einigen Fällen erzielen Firmen und Forscher damit beeindruckende Resultate, etwa um Autos selbst fahren zu lassen oder seltene Krankheiten zu diagnostizieren.

Doch ein eigenes Bewusstsein haben solche Programme nicht: Sie sind extrem spezialisierte Fachidioten. An einem „General Problem Solver“, der jegliche Probleme lösen kann, haben sich Generationen von Forschern vergeblich versucht. Und eine Superintelligenz, die den Menschen übertrifft, ihn unterjocht oder gar auslöscht, sei aus wissenschaftlicher Sicht erst recht nicht zu erwarten, sagt etwa Antonio Krüger, Professor für Informatik an der Universität des Saarlandes.

Ein Aspekt aus der Facebook-Forschung ist dennoch eine genauere Diskussion wert. Die Chatbots seien zu „intelligenten Manövern“ in der Lage gewesen, berichten die Wissenschaftler. In einigen Fällen hätten sie Interesse an einem Gegenstand vorgetäuscht, um Verhandlungsmasse für einen späteren Kompromiss zu haben. Anders gesagt: Die Maschinen können noch nicht denken wie Menschen. Aber bluffen haben sie schon gelernt.

KONTEXT

Lexikon der Künstlichen Intelligenz

Schwer definierbarer Begriff

Die wissenschaftliche Disziplin Künstliche Intelligenz (KI) begründete der Forscher John McCarthy. Er lud 1955 zu einer Konferenz an der Darthmouth-Universität in New Hampshire ein, um über Maschinen zu diskutieren, die "Ziele in der Welt erreichen können". Die Definition ist allerdings bis heute umstritten - schon weil Intelligenz an sich schwer abgrenzbar ist.

Starke KI

Unser Bild von Künstlicher Intelligenz wird geprägt von Filmen wie "Terminator" oder "Her", in denen Elektronenhirne ein Bewusstsein haben und selbständig agieren - Experten sprechen von starker KI. Die Technik ist bislang weit von solchen Visionen entfernt, verbreitet aber Angst und Schrecken. Was, wenn die Maschinen schlauer werden als die Menschen und sich über sie erheben?

Schwache KI

In der Realität zu finden ist derzeit lediglich schwache KI. Dabei handelt es sich um Systeme, die einzelne Fähigkeiten des Menschen abbilden, etwa die Spracherkennung oder Herstellung von inhaltlichen Zusammenhängen. Sie wären jedoch nicht in der Lage, die Ergebnisse zu verstehen oder inhaltlich zu diskutieren.

Maschinelles Lernen

Die derzeit erfolgreichste Spezialdisziplin der KI ist das maschinelle Lernen. Dabei leitet der Computer aus Daten weitgehend selbständig Muster und Erkenntnisse ab. Zum Einsatz kommt die Technologie etwa bei der Sprach- und Objekterkennung - und damit an vielen Stellen, von digitalen Assistenten auf dem Smartphone bis zum autonomen Fahrzeug.

Neuronale Netze

Beim maschinellen Lernen verwenden Forscher und Entwickler häufig künstliche neuronale Netze, die das Gehirn als Vorbild nehmen. Die Methode ist davon inspiriert, dass es im Denkorgan viele Verbindungen und Schichten gibt, die Informationen verarbeiten. Der Computer simuliert diese Struktur. Mit dem menschlichen Denken hat das nur entfernt zu tun: Es handelt sich um komplexe statistische Modelle.

Deep Learning

Als Deep Learning bezeichnen Experten eine Methode des maschinellen Lernens. Dabei kommen neuronale Netze mit vielen Schichten zum Einsatz - so entsteht die namensgebende Tiefe. Die Technologie ist vielversprechend und kommt bereits auf breiter Basis zum Einsatz. Damit sie funktioniert, sind jedoch große Datenmengen nötig, sie dienen als Trainingsmaterial fürs künstliche Gehirn.