Künstliche Intelligenz löst die Probleme der Tech-Konzerne nicht

Jede Ära besitzt ihre Buzzwords, wohlklingende Schlagworte, die bestimmte Sachverhalte kurz und prägnant rüberbringen. Die Phrasen versprechen viel, sind aber dem Wohlklang oft mehr verpflichtet als der Information.

Manchmal trägt so ein Zauberwort sogar automatisch zur Wertsteigerung bei. Als der Getränkehersteller Long Island Ice Tea seinen Namen in „Long Blockchain“ änderte, schnellte der Kurs um fast 500 Prozent in die Höhe. Der Weg von Buzzword zu Bullshit ist oft nicht sehr weit.

Im Silicon Valley hat derzeit der Begriff „künstliche Intelligenz“ Hochkonjunktur. Facebook und Alphabet haben die Technologie stets als Allheilmittel angepriesen: Fake-News, Wahlmanipulation, Hass und Propaganda – versierte Maschinen erledigen das schon, mehr Technologie hilft mehr. Doch das Buzzword-Bingo führt in die Irre. Maschinen erkennen problematische Inhalte weit weniger zuverlässig als gern behauptet.


Inzwischen räumt selbst Facebook ein, regelmäßig Material zu finden, das die Maschinen übersehen. Er halte künstliche Intelligenz für das beste Werkzeug, um die Facebook-Gemeinschaft sicherer zu machen, sagt Facebooks Technikchef Mike Schroepfer in dieser Woche bei der Entwicklerkonferenz F8. Doch er räumt ein: „Wir haben noch sehr viel zu tun.“

Schroepfer benennt das Problem einer ganzen Branche. Auch die Google-Mutter Alphabet kämpft mehr schlecht als recht gegen den Missbrauch beim Videokanal Youtube an. Nachdem Werbekunden die Plattform vergangenen März boykottierten, gelobte das Netzwerk Besserung. Doch erst neulich wieder liefen Werbespots von 300 Kunden wie Amazon, Adidas oder Nordstrom vor Nazi-Propaganda und pädophilen Inhalten.

Die Zwangslage hat sich die Industrie selbst eingebrockt. Sie vertraut der Macht der Algorithmen allzu sehr. Maschinen bestimmen immer stärker, welche Inhalte in Facebooks Newsfeed auftauchen oder was Youtube abspielt. Manipulationen sind da buchstäblich vorprogrammiert.

Die heutigen Debatten um Propaganda, Hasskommentare und Datenmissbrauch sind allenfalls Vorboten der künftigen vollautomatisierten Welt. Die Unternehmensberatung McKinsey schätzt, dass künstliche Intelligenz schon bald jährlich Werte in Höhe von bis zu 5,8 Billionen Dollar erlösen könnte. Welches Unternehmen will sich das entgehen lassen? Die Technologie eröffnet gigantische Chancen, doch wir sollten ihre Fähigkeiten realistischer einschätzen.


Youtubes Maschinen entdeckten sechs Millionen problematische Videos im vierten Quartal, 75 Prozent, bevor sie ein Nutzer betrachtete. Der Erfolg ist beachtlich, doch verschwindend gering angesichts der Flut von einer Milliarde Stunden Bewegtbilder, die Nutzer täglich im Netzwerk konsumieren.

Bei der Analyse von Bewegtbildern steckt die Computerintelligenz laut Facebooks-Manager Matt Feiszli noch „in den Kinderschuhen“. Selbst dann, wenn es angesichts der Datenflut von Videos, Fotos, Kommentaren und Posts bei Facebook kaum ohne maschinelle Unterstützung gehen wird, ist deshalb Skepsis angesagt.

Algorithmen liefern gute Ergebnisse bei der Suche nach bestimmten Schlagworten oder Signal-Ausdrücken. Doch für ein tieferes Verständnis fehlt der Maschine menschliches Alltagswissen. Sie scheitert an Ironie, Sarkasmus, doppeldeutigen Kontexten oder allgemeiner Sprachdynamik. Der Umgangston bei Facebook und Youtube ist informell, durchsetzt von Slang, Rechtschreibfehlern, neuen Wortschöpfungen. Eine Maschine versteht das alles nicht.

Sicher, bei Facebook und Youtube urteilen auch Menschen über Inhalte. Bis Ende des Jahres stockt Facebook-Chef Mark Zuckerberg seine Löschtruppe auf 20.000 Personen auf. Doch bei der Entwicklerkonferenz präsentierte das Netzwerk vor allem technische Lösungen.

Um die Maschinen zu trainieren, zapft Facebook Instagram an, eine Fundgrube für Milliarden Fotos und wertvolle Datensätze, Studienmaterial für datenhungrige Algorithmen. Die Bilderkennung nehmen die Nutzer den Maschinen ab, sie beschriften ihre Schnappschüsse und versehen sie mit Hashtags. Für Facebook ist die Arbeitsverteilung praktisch.

Doch die Strategie provoziert schon die nächste Privatsphäre-Debatte. Die Qualität der künstlichen Intelligenz hängt von Informationen ab, an denen sie trainiert wird. Daten sind der Schmierstoff für die Software. Facebook oder Google, aber auch jede andere Firma mit datengetriebenen Geschäftsmodell, verlangen nach diesem Input. Die umstrittene Datensammelei wird also einfach weitergehen.