Erfolgreicher Hacker-Angriff auf Sprachassistenten

Dass die Sprachassistenten Siri, Cortana, Alexa & Co nicht unangreifbar sind, haben wir uns alle wahrscheinlich schon gedacht. Jeder kann in deiner Abwesenheit den Sprachbefehl starten. Dem kann man vorbeugen, wenn man die Geräte nicht unbeaufsichtigt lässt. Das ist aber nur die halbe Wahrheit, denn die Mikrofone nehmen auch für uns unhörbare Befehle wahr.

Nichts hören, nichts merken

Das Zauberwort heißt Ultraschall. Der Mensch hört, im Gegensatz zu verschiedenen Tieren, keine Töne oberhalb von 20 kHz. Aus diesem Grund wird die Ultraschall-Attacke auch als Delfin-Angriff bezeichnet.

Chinesische Forscher haben im August 2017 in einer (bereits veröffentlichten) Arbeit beschrieben, wie dieser Angriff funktioniert.

Einige Sprachassistenten lassen sich beispielsweise so einstellen, dass sie nur auf die Stimme ihres Herren (oder Frau) reagieren. Dies kann man aber durch einen Brute-Force-Angriff mit etwas Zeit umgehen.

Fast alle Sprachassistenten sind gefährdet

Nach Angaben der chinesischen Forschern von der Zhejiang University war die Ultraschall-Methode bei Siri, Google Now, Cortana, Alexa, Huawei Hivoice und der Samsung S Voice erfolgreich. Das lässt vermuten, dass auch die anderen Sprachassistenten per Ultraschall angreifbar sind.

Gegenmaßnahmen

In ihrer Arbeit haben die Forscher aber auch eine Lösung, wie Audio-Kommandos verifiziert werden können. Mit einer supported Vector Machine (SVM) werden eigene Kommandos abgesichert, andere Signale – auch die Unhörbaren – werden ignoriert.

Bis es aber benutzerfreundliche SVM-Lösungen für PC und Mobilgeräte gibt, wird wohl noch etwas Zeit verstreichen. Bis dahin bleibt uns im Zweifelsfall nur die Deaktivierung von Siri & Co.

Nach oben scrollen