Neue Sprachsteuerung für vernetzte Autos

Neuer chinesische Hersteller: Ab 2019 will Byton mit einem elektrischen Geländewagen auf den Markt kommen. Foto: Thomas Geiger/dpa-tmn

Der Ehepartner, die Kinder, der Hund und jetzt auch noch das Auto: Künftig wird es auf Reisen womöglich ganz schön gesprächig. Denn Sprachsteuerung fürs Auto ist neben Autopiloten und Elektroantrieb einer der großen Trends bei der Elektronikmesse CES in Las Vegas.

Las Vegas (dpa/tmn) - Der Verkehr auf den sechs Spuren ist dicht, die anderen Autofahrer sind nervös. Und zum ersten Mal seit 160 Tagen gießt es in Las Vegas zur Elektronikmesse CES (noch bis 12. Januar) wie aus Kübeln.

Kein Wunder, dass Werner Preuschoff voll auf damit beschäftigt ist, seine neue Mercedes A-Klasse heil über den «Strip» zu steuern. Für Navigationseingaben oder Komforteinstellungen hat er da beim besten Willen keine Hand frei, und für E-Mails oder die Terminplanung der nächsten Tage erst recht nicht.

Hätte er dafür früher anhalten oder bis zum Ende der Fahrt warten müssen, lässt sich der Mercedes-Entwickler heute vom Verkehr nicht behindern, sondern justiert die Temperatur, lässt sich Restaurants empfehlen und organisiert seinen nächsten Bürotag - und das alles, ohne die Hände vom Lenkrad und die Augen von der Straße zu nehmen. Sondern als würde er mit seiner Sekretärin sprechen, redet er mit seinem Auto und diktiert so seine Wünsche.

So wie vom Smartphone mit Siri oder Amazons Alexa bekannt, muss er dafür keine Befehle mehr lernen. «Sondern man spricht das System mit «Hey Mercedes» an und redet dann in einem freien Dialog», beschreibt der Projektleiter der neuen Mercedes-Benz User Experience (MBUX) die Funktion. Die geht zusammen mit dem um einen großen Touchscreen und noch aufwendigere Grafiken erweiterten Infotainmentsystem MBUX im Sommer mit der neuen A-Klasse an den Start. Sie soll endlich Schluss machen mit dem hilflosen Gestammel der Kunden und den bisweilen unverständlichen Reaktionen der Systeme.

Nach einem ganz ähnlichen Prinzip funktioniert der Sprachassistent Casey, den der Zulieferer Bosch vorgestellt hat. Er erkennt nach Angaben des Unternehmens Aufträge in 30 Sprachen, ist ebenfalls auf natürlichen Sprachfluss trainiert und kann anders als das Mercedes-System sogar individuell benannt werden. So können die Nutzer ihrem Auto endlich tatsächlich einen Namen geben, so ein Bosch-Experte auf der Messe.

Die Intelligenz für das System steckt dabei in der sogenannten Head-Unit, und die Analyse erfolgt im Auto. Steht aber darüber hinaus eine Online-Verbindung zur Verfügung, können die Dienste um aktuelle Informationen wie Wetterprognosen oder die Speisekarten ausgewählter Restaurants ergänzt werden. Genau wie bei dem Mercedes-System kommt dabei laut Bosch auch künstliche Intelligenz zum Einsatz, die den Nutzer in seinen Gewohnheiten beobachtet und daraus Schlussfolgerungen für künftige Situationen zieht.

Die verbesserte Sprachsteuerung ist einer der großen CES-Trends. Die Ursache dafür kann man hier auch gleich sehen: Die Fahrzeuge werden immer komplexer. Das Angebot an Infotainment und Funktionen ist schier unüberschaubar. Und weil neben dem Elektroantrieb auch das autonome Fahren ein großer Trend ist, werden die Menschen im Auto immer mehr Zeit haben, sich damit zu beschäftigen.

«Dann braucht es eine ebenso fesselnde wie funktionierende Benutzeroberfläche», sagt Carsten Breitfeld. Er ist Chef des chinesischen Start-ups Byton, das 2019 mit einem neuen Geländewagen kommen will, der weniger mit seinem Elektroantrieb als seinem Cockpit beeindruckt. Denn das gesamte Armaturenbrett besteht aus einem einzigen Bildschirm, der über Touchbedienung, Gestensteuerung und - natürlich - über Spracheingabe mit Amazon Alexa gesteuert wird.

Zwar lässt sich mit Systemen wie diesen die Komplexität der Bedienung schon deutlich reduzieren. Und in Autos wie dem Byton gibt es deshalb nicht einmal mehr eine Handvoll Schalter. Doch dem japanischen Hersteller Nissan geht das noch nicht weit genug. Er will deshalb sogar förmlich die Gedanken des Fahrers lesen. Dafür zapft er mit der «Brain-to-Vehicle»-Technologie die Gehirnströme an. Autonome Systeme analysieren sie und lassen dies in die Interaktion mit dem Auto einfließen. So soll das System etwa Bewegungen fürs Lenken und Bremsen vorhersehen und sie dann schneller umsetzen können.

So weit ist es in der A-Klasse noch nicht. Entwicklungsingenieur Preuschoff kurvt mit im Prototypen noch immer ums Messegelände. Er hat mit dem Auto heute wohl mehr gesprochen als mit seiner Familie. Kein Wunder, dass der Mund so langsam trocken wird und er jetzt bald mal ein frisch gezapftes Bier braucht. «Hey Mercedes, führ mich zum Hofbräuhaus,» sind seine letzten Worte im Dialog mit der Zukunft. Er wird es wohl beim alkoholfreien Weizen belassen. Denn auch die neue A-Klasse fährt nicht elektrisch - und hat keinen Autopiloten.