Laser-Hacking: Zugriff per Licht geht weit über Amazon Alexa hinaus

John Woll, 27.11.2020 16:06 Uhr 15 Kommentare
Mit Lichtimpulsen können digitalen Assistenten Sprachbefehle aus der Ferne vorgegaukelt werden. Die Wissenschaftler, die das Laser-Hacking anhand von Amazon Alexa-Lautsprechern demonstriert hatten, zeigen jetzt, dass die Methode sich auf viele weitere Angriffe anwenden lässt.

Mit etwas Licht hört der digitale Assistent alles

Im letzten Jahr hatte ein Team an Sicherheitsforschern demonstriert, dass digitale Assis­tenten, die mit Sprachbefehlen arbeiten, mit Licht gehackt werden können. Das Grundprin­zip: Mit einem Laser zielen die Wissenschaftler auf die Mikrofone der Geräte - aus einer Entfernung von bis zu 110 Metern. "Durch die Modulation von elektrischen Signalen in der Intensität eines Lichtstrahls können Angreifer Mikrofone so austricksen, dass sie elektrische Signale erzeugen, als würden sie echten Ton empfangen", so die Forscher damals.

Laser-Hacking von digitalen Assistenten
Demonstration der Nutzung von Lichtbefehlen an Mikrofonen

Mit der Ausweitung der vorausgegangenen Studie wollen die Wissenschaftler außerdem zeigen, dass sich das Prinzip des "Licht-Hacks" neben digitalen Assistenten auch auf viele weitere Systeme anwenden lässt, unter anderem auf "medizinische Geräte, autonome Fahrzeuge, industrielle Systeme und sogar Raumfahrtsysteme", solange diese über entsprechende Sensorsysteme verfügen. Gerade im Smart Home kommt es wegen der steigenden Anzahl an verbundenen Geräten zu problematischen Szenarien.

"Die Benutzerauthentifizierung auf diesen Geräten fehlt oft, sodass der Angreifer mittels lichtinjizierter Sprachbefehle die durch Smartlock geschützten Haustüren des Ziels aufsperren, Garagentore öffnen, auf Kosten des Ziels auf E-Commerce-Websites einkaufen oder sogar verschiedene Fahrzeuge, die mit dem Google-Konto des Ziels verbunden sind (z.B. Tesla und Ford), aufsperren und starten kann", schreiben die Forscher in ihrem Artikel.

Einfache Lösung

Die Forscher beschreiben aber auch zwei einfachen Lösungswege für das potenzielle Einfallstor: So sollten Entwickler in der Software eine zweite Schutzebene vorsehen, die Nutzer erkennt, darüber hinaus könnten die Mikrofone mit einer lichtundurchlässigen Schicht auch physisch vor den Attacken geschützt werden.
15 Kommentare lesen & antworten
Folge WinFuture auf Google News
Verwandte Themen
Smart Home
Desktop-Version anzeigen
Hoch © 2023 WinFuture Impressum Datenschutz Cookies