DolphinAttack: Mit unhörbaren Signalen Sprachassistenten bedienen

Felix Knoke
Videoscreenshot

Sprachassisten hören auf gesprochene Sprache, können aber auch mit Ultraschallsignalen gesteuert werden. Das hat eine Forschergruppe der Zhejiang University in China gezeigt.

In ihrem Paper DolphinAttack: Inaudible Voice Commands beschreiben sie, wie sie beliebte Sprachdienste wie Apples Siri, Google Assistant, Samsung S Voice, Huawei HiVoice, Microsoft Cortana und Amazon Alexa mit unhörbaren Tonsignalen steuerten.

In einem Test mit einem selbstgebautem Ultraschallautsprecher/Handy-Konvolut lösten sie FaceTime-Anrufe auf einem iPhone aus, aktivierten Google Now und schalteten das Handy in den Flugzeugmodus und manipulierten sogar das Navigationssystem in einem Audi.

Der Angriff hat ein deutliches Gefährdungspotenzial. Über ihn kann ein Gerät zum Aufrufen einer Malware-beladenen Website gebracht werden, es kann zur Überwachung missbraucht, zum Versand von gefälschten Nachrichten, zu Überlastangriffen und zur Verschleierung anderer Angriffe genutzt werden (zum Beispiel indem die Bildschirmhelligkeit komplett heruntergedreht wird).

Die Empfehlung der Forscher: Sprachsysteme sollten gegen Angriffe wie DolphinAttack abgesichert werden, sie beschreiben auch, wie das geht:

"Wir bestätigen, dass es möglich ist, DolphinAttack zu erkennen, indem man die Audiodaten mithilfe einer Supported Vector Machine (SVM) klassifiziert und empfehlen eine Überarbeitung der sprachgesteuerten Systeme, um sie gegen unhörbare Sprachbefehle abzuhärten."

Paper, YouTube