„Durch Sprache wird Technologie menschlicher“


Werner Vogels sieht nicht unbedingt aus wie einer, der dazu beigetragen hat, aus Amazon einen weltweit agierenden Technologiekonzern zu machen. Statt Anzug und Krawatte trägt Amazons Chief Technology Officer (CTO) lieber Jeans zum Sakko. Vogels ist eine imposante Erscheinung, er spricht laut, und trotz seiner Zeit in den USA hat er noch immer diesen freundlichen Singsang in der Stimme, der seine niederländische Herkunft verrät. Vogels hat Anteil daran, dass Amazon mit der Tochter Amazon Web Services (AWS) zu einem führenden Anbieter für Cloud-Computing geworden ist. Eine Gelddruckmaschine für Amazon-Chef Jeff Bezos – mit Kunden wie Airbnb, BMW oder Netflix. Dabei hatte Vogels zu Beginn seiner Karriere ganz andere Pläne.

Herr Vogels, Sie haben Informatik studiert und lange als Wissenschaftler gearbeitet. Wann wurde es Ihnen im Elfenbeinturm zu viel?
In meiner Zeit an der Cornell University habe ich bei zwei Start-ups mitgearbeitet. In den Vereinigten Staaten ist es etwas anders: Dort lernt man als Wissenschaftler, die akademische mit der wirklichen Welt zu verbinden. Oft hat man als Wissenschaftler ja den Luxus, sich die Welt so zu erschaffen, wie man sie gerne hätte. Bei meiner Arbeit in den Start-ups kam ich aber auf den Geschmack, Dinge für richtige Menschen zu bauen. Nach einer gewissen Zeit landete ich dann bei Amazon.

Heute sind Sie Chief Technology Officer: Wie würden Sie Ihre Rolle beschreiben?
In vielen Unternehmen berichtet der Chief Technology Officer an den Chief Innovation Officer und ist im Grunde die Person, die für die Datencenter und die Computerinfrastruktur des Unternehmens verantwortlich ist. Bei Amazon ist das etwas anders, denn Amazon sieht eben nur von außen aus wie ein Handelskonzern, ist aber in Wirklichkeit ein Technologieunternehmen. Der CTO war hier immer ein Stratege und machte sich Gedanken darüber, was die großen technologischen Herausforderungen sind, die es braucht, um gewisse Ziele zu erreichen.


Sie sprechen in der Vergangenheit – was ist denn aus dem Strategen geworden?
In dem Maße, in dem Amazon auch ein Technologieanbieter wurde – wie zum Beispiel mit der Cloud-Computing-Division Amazon Web Services – hat sich auch die Rolle des CTOs verändert: Er wurde vielmehr zu einem „External facing technologist“ – also demjenigen, der nach außen Technologie ein Gesicht gibt. Die Rolle beinhaltet nun, mit den Kunden zu interagieren und zu verstehen, wie sie Technologie verwenden und darüber nachzudenken, wie man sich immer wieder neu erfindet.

Amazon hat als Onlinehändler quasi eine Alleinstellung – muss das Unternehmen sich da überhaupt neu erfinden?
Wenn Amazon als Händler aufhören würde, ständig nach Innovation zu suchen, wäre es in zehn bis fünfzehn Jahren aus dem Geschäft. Nicht weil ein größerer Händler daher käme, sondern weil es einen Tod auf Raten bedeuten würde. Also muss sich Amazon immer neu im Sinne des Kunden ausrichten. Mitunter denken wir, Innovation bedeutet immer, etwas Neues zu erschaffen, aber manchmal muss man einfach nur darüber nachdenken, welche Wünsche immer für die Kunden Bestand haben werden.


„Sprachassistenten werden den Zugang zu Wissen verändern“


Was zum Beispiel?
Im Handel sind das ganz klassische Sachen: Die Größe des Katalogs – je größer die Auswahl, desto wahrscheinlicher der Sucherfolg des Kunden. Oder eine schnellere Zustellung oder niedrigere Preise. Das alles sind keine Neuerfindungen, sondern lediglich Innovationen auf Basis von Kundenbedürfnissen, die es immer schon gab. Wir verbessern kontinuierlich, aber manchmal bedeutet Innovation auch, Dinge zu entwickeln, die Kunden zwar dringend brauchen, aber die nach außen hin nicht besonders sexy sind.

Sie waren die treibende Kraft hinter dem Aufbau des Cloud-Anbieters Amazon Web Services, zu dessen Kunden Coca-Cola, Netflix oder Pfizer gehören. Es ist eine Wachstums- und Erfolgsgeschichte. Cloud-Computing war eine technologische Sensation: Was ist das nächste große Ding?
Wenn ich das nur wüsste (lacht). Nein, ernsthaft: Dank der Auslagerung von Daten in die Cloud, sind wir in der Lage hochkomplexe Datenströme zu verarbeiten, etwas, das wir vor zehn oder fünf Jahren so noch nicht konnten. Das führt zum Beispiel dazu, dass Sprachinteraktion mit digitalen Interfaces möglich wird. In der Vergangenheit hat sich Kommunikation nach den Geräten gerichtet, die wir verwendet haben – bei Smartphone, Tablet oder Computer mussten wir lernen, eine Tastatur oder eine Maus zu bedienen. Durch Sprachassistenten wird sich das ändern – die Technologie richtet sich nach dem Menschen. Das wird auch den Zugang zu Wissen verändern.


Wie kann Sprache Wissen zugänglich machen?
Einer unserer Kunden bei Amazon Web Services ist das International Rice Research Institute auf den Philippinen – die wissen wirklich alles, was es über Reis zu wissen gibt. Sie haben 70.000 DNA-Stränge von Reissorten in ihren Kühlschränken. Auf Basis ihres Wissens haben sie eine Datenbank gebaut, die kleinen Farmern dabei helfen sollte, optimal Reis anbauen zu können. Leider hat die niemand verwendet.

Warum das?
Na ja, keiner der Farmer hatte ein Smartphone, geschweige denn einen Computer zur Verfügung. Das einzige, was es in jedem noch so kleinen Dorf gibt, ist ein Telefon. Also haben sie eine sprachgesteuerte Datenbank gebaut. Der Farmer kann nun anrufen, seine Parzelle Land beschreiben und mithilfe von Machine Learning nennt das System die richtige Menge an Dünger und so weiter. Sprache macht digitale Systeme möglich, die natürlich zu bedienen sind. Das hilft auch Menschen, die vielleicht nicht mit Computern aufgewachsen sind oder zu jung sind, um sie zu bedienen. In Zukunft wird die erste menschliche Interaktion mit einem digitalen System über die Sprache sein.

Herr Vogels, vielen Dank für das Interview.

KONTEXT

Lexikon der Künstlichen Intelligenz

Schwer definierbarer Begriff

Die wissenschaftliche Disziplin Künstliche Intelligenz (KI) begründete der Forscher John McCarthy. Er lud 1955 zu einer Konferenz an der Darthmouth-Universität in New Hampshire ein, um über Maschinen zu diskutieren, die "Ziele in der Welt erreichen können". Die Definition ist allerdings bis heute umstritten - schon weil Intelligenz an sich schwer abgrenzbar ist.

Starke KI

Unser Bild von Künstlicher Intelligenz wird geprägt von Filmen wie "Terminator" oder "Her", in denen Elektronenhirne ein Bewusstsein haben und selbständig agieren - Experten sprechen von starker KI. Die Technik ist bislang weit von solchen Visionen entfernt, verbreitet aber Angst und Schrecken. Was, wenn die Maschinen schlauer werden als die Menschen und sich über sie erheben?

Schwache KI

In der Realität zu finden ist derzeit lediglich schwache KI. Dabei handelt es sich um Systeme, die einzelne Fähigkeiten des Menschen abbilden, etwa die Spracherkennung oder Herstellung von inhaltlichen Zusammenhängen. Sie wären jedoch nicht in der Lage, die Ergebnisse zu verstehen oder inhaltlich zu diskutieren.

Maschinelles Lernen

Die derzeit erfolgreichste Spezialdisziplin der KI ist das maschinelle Lernen. Dabei leitet der Computer aus Daten weitgehend selbständig Muster und Erkenntnisse ab. Zum Einsatz kommt die Technologie etwa bei der Sprach- und Objekterkennung - und damit an vielen Stellen, von digitalen Assistenten auf dem Smartphone bis zum autonomen Fahrzeug.

Neuronale Netze

Beim maschinellen Lernen verwenden Forscher und Entwickler häufig künstliche neuronale Netze, die das Gehirn als Vorbild nehmen. Die Methode ist davon inspiriert, dass es im Denkorgan viele Verbindungen und Schichten gibt, die Informationen verarbeiten. Der Computer simuliert diese Struktur. Mit dem menschlichen Denken hat das nur entfernt zu tun: Es handelt sich um komplexe statistische Modelle.

Deep Learning

Als Deep Learning bezeichnen Experten eine Methode des maschinellen Lernens. Dabei kommen neuronale Netze mit vielen Schichten zum Einsatz - so entsteht die namensgebende Tiefe. Die Technologie ist vielversprechend und kommt bereits auf breiter Basis zum Einsatz. Damit sie funktioniert, sind jedoch große Datenmengen nötig, sie dienen als Trainingsmaterial fürs künstliche Gehirn.