Sprachsteuerung Forscher beklagen gravierende Sicherheitsmängel bei Alexa Skills

Redakteur: Katharina Juschkat

Alexa Skills sind kleine Hilfsprogramme, die dem Sprachassistenten Alexa neue Fähigkeiten geben. Oft ist es aber unklar, wer hinter den Skills steht, und welche aktiviert sind. Für Angreifer eröffnet das viele Möglichkeiten.

Firma zum Thema

Von wem stammen die Alexa Skills, und welche verwendet der Sprachassistent? Forscher kritisieren die fehlende Transparenz.
Von wem stammen die Alexa Skills, und welche verwendet der Sprachassistent? Forscher kritisieren die fehlende Transparenz.
(Bild: gemeinfrei / Pixabay )

Alexa kann mittels Sprachbefehle das eigene Smart Home steuern oder simple Fragen beantworten. Alexa Skills bietet weitere Extrafunktionen für den Sprachassistenten in Form kleiner Hilfsprogramme, die im Alexa Skill Store für das eigene Gerät aktiviert werden können. Jetzt hat ein Forschungsteam festgestellt: Diese Skills bergen oftmals Sicherheitslücken und Datenschutzprobleme.

Über 90.000 Skills analysiert

In einer Studie haben die Wissenschaftler des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum (RUB) und der North Carolina State University erstmalig das Ökosystem der Alexa Skills untersucht. Diese Sprachbefehle werden nicht nur vom US-amerikanischen Tech-Unternehmen Amazon selbst, sondern auch von externen Anbietern entwickelt.

User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten diese.

Keine Übersicht: Welcher Skill macht was?

Dabei stellten die Forscher gravierende Mängel für eine sichere Nutzung fest. Ein erstes Problem: Früher mussten die Skills alle händisch aktiviert werden, seit 2017 aber aktiviert Amazon Skills teilweise automatisch. Damit wissen Nutzer gar nicht, welche Skills überhaupt aktiviert sind und wer diese programmiert hat. Dr. Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB, fasst zusammen: „Nutzer haben kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt.“

Es ist oft unklar, wann welcher Skill angesteuert wird. Ein Beispiel: Wer Alexa um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen; welcher dafür automatisch ausgewählt wird, ist nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.

Selbstversuch: Skills unter falschem Namen veröffentlichen

„Wir konnten außerdem nachweisen, dass Skills unter falschem Namen veröffentlicht werden können“, so Martin Degeling. So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Degeling: „Doch das ist nicht immer der Fall.“ Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch dieses sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.

„In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden“, erklärt der Forscher. Wenn also ein Automobilanbieter für sein Smart-System im Auto beispielsweise noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreiferinnen und Angreifer dies unter seinem Namen tun.

„Sie können das Vertrauen der User in den bekannten Namen und in Amazon ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen“, so Degeling. Kriminelle können aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzerinnen und Nutzer aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.

Skills umprogrammieren, um an Daten zu kommen

Die Forscher machten noch ein anderes Sicherheitsrisiko aus: „Wir konnten feststellen, dass die Skills von den Anbietern im Nachhinein noch geändert werden können“, erklärt Christopher Lentzsch vom Lehrstuhl für Informations- und Technikmanagement der RUB. Diese Lücke relativiert also auch die Sicherheit des vorherigen Zertifizierungsprozesses durch Amazon.

„Angreifer*innen könnten ihren Sprachbefehl nach einiger Zeit so umprogrammieren, dass sie beispielsweise nach den Kreditkartendaten der User fragen“, so Lentzsch weiter. In der Prüfung von Amazon fallen solche Aufforderungen in der Regel auf und werden nicht zugelassen – durch den Trick der nachträglichen Änderung des Programms kann diese Kontrolle umgangen werden.

Datenschutzerklärung weist erhebliche Mängel auf

Zusätzlich zu diesen Sicherheitsrisiken wies das Forscherteam außerdem erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills nach. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy, in den besonders sensiblen Bereichen „Kids“ und „Gesundheit und Fitness“ sogar noch weniger.

Amazon hat einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet nach eigenen Angaben an Gegenmaßnahmen.

(ID:47260867)