Alexa ist das "Hirn" der Sprachsteuerung in vielen Amazon-Geräten. Sie steckt beispielsweise im smarten Lautsprecher Echo. Fürs Auto gibt es den Echo-Auto-Adapter.

Alexa ist das "Hirn" der Sprachsteuerung in vielen Amazon-Geräten. Sie steckt beispielsweise im smarten Lautsprecher Echo. Fürs Auto gibt es den Echo-Auto-Adapter. (Foto: © Amazon)

Vorlesen:

Bei Alexa ist Vorsicht geboten

Sprachassistenten sind heute weit verbreitet. Einer der Bekanntesten ist Alexa von Amazon. Bei der Nutzung von „Alexa Skills“ mahnen Experten jetzt zur Vorsicht.

Mit den Sprachbefehlen "Alexa Skills" können User zahlreiche Extrafunktionen auf ihren Amazon-Sprachassistenten laden. Doch die bringen nicht nur Vorteile mit sich, sondern bergen oftmals Sicherheitslücken und Datenschutzprobleme. Das haben Wissenschaftler jetzt herausgefunden.

Sprachbefehle von externen Anbietern

In ihrer Studie haben die Forscher erstmals das Ökosystem der "Alexa Skills" untersucht. Diese Sprachbefehle werden nicht nur vom amerikanischen Tech-Riesen Amazon selbst, sondern auch von externen Anbietern entwickelt.

User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten diese.

Studie über Ergebnisse

Die Ergebnisse haben die Wissenschaftler des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum (RUB) und der North Carolina State University auf der Konferenz "Network and Distributed System Security Symposium (NDSS)" am 24. Februar 2021 präsentiert.

Das könnte Sie auch interessieren:

Signifikante Sicherheitsmängel

Dabei stellten sie signifikante Mängel für eine sichere Nutzung fest. "Ein erstes Problem besteht darin, dass Amazon die Skills seit 2017 teilweise automatisch aktiviert. Früher mussten User der Nutzung jedes Skills zustimmen. Nun haben sie kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt, und wer diese überhaupt programmiert hat", erklärt Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB.

Dabei sei leider häufig unklar, wann welcher Skill angesteuert werde. Wer Alexa zum Beispiel um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen; welcher dafür automatisch ausgewählt wird, ist nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.

Neue Skills unter falschem Namen

Es konnte außerdem nachgewiesen werden, dass Skills unter falschem Namen veröffentlicht werden können. "So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall", so Degeling.

Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch das sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oft nicht auf. Die Forscher haben selbst einen Versuch unter falschem Namen durchgeführt. Dabei könnten durchaus wertvolle Informationen von Nutzern abgegriffen werden.

Warnung vor Cyber-Angreifern

Ein Beispiel: Wenn ein Automobilanbieter für sein Smart-System im Auto etwa noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreifer dies unter seinem Namen tun. So könnten Fremde das Vertrauen der User in einen bekannten Hersteller ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen, warnen die Forscher.

Kriminelle könnten derzeit aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise die Autotüren zu öffnen. In Zukunft müsste man aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.

Nachträgliche Änderungen umgehen Kontrolle

Die Forscher machten noch ein Sicherheitsrisiko aus: "Wir konnten feststellen, dass die Skills von den Anbietern im Nachhinein noch geändert werden können", erklärt Christopher Lentzsch von der RUB. Diese Lücke relativiert die Sicherheit des vorherigen Zertifizierungsprozesses durch Amazon.

Angreifer könnten dann ihren Sprachbefehl nach einer Weile so umprogrammieren, dass sie beispielsweise nach den Kreditkartendaten der User fragen. Bei der Amazon-Kontrolle fallen solche Manipulationen in der Regel auf und werden nicht zugelassen – durch den Trick der nachträglichen Änderung des Programms wird diese Kontrolle umgangen.

Amazon arbeitet an Gegenmaßnahmen

Außerdem wies das Forscherteam erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills nach. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy, in den besonders sensiblen Bereichen "Kids" und "Gesundheit und Fitness" sogar noch weniger. "Gerade hier sollte es starke Nachbesserungen geben", so Degeling. Amazon hat einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet an Gegenmaßnahmen.

Text: / handwerksblatt.de

Das könnte Sie auch interessieren: