Jump to navigation

Logo RUB
  • Energie
  • Studium
  • Forschung
  • Transfer
  • News
  • Über uns
  • Einrichtungen
 
MENÜ
  • RUB-STARTSEITE
  • News
  • Wissenschaft
  • Studium
  • Transfer
  • Leute
  • Hochschulpolitik
  • Kultur und Freizeit
  • Vermischtes
  • Servicemeldungen
  • Serien
  • Dossiers
  • Bildergalerien
  • Presseinformationen
    • Abonnieren
  • RUB in den Medien
    • Abonnieren
  • Rubens
  • Rubin
    • Abonnieren
    • Printarchiv
  • Archiv
  • English
  • Redaktion

Newsportal - Ruhr-Universität Bochum

Presseinformation
  • Christopher Lentzsch analysierte mit seinen Kollegen die Sicherheit von Extrafunktionen für Amazons Sprachassistenten Alexa.
    © RUB, Marquard
  • Er forscht am Lehrstuhl für Informations- und Technikmanagement der RUB.
    © RUB, Marquard
  /  
IT-Sicherheit

Datenschutzprobleme und Sicherheitsrisiken bei Alexa Skills

Amazon unterzieht die Zusatzfunktionen für seine Sprachassistenten zwar einem Sicherheitscheck. Doch der kann von Betrügern nachträglich umgangen werden – nur eins von mehreren Problemen.

Mit den Sprachbefehlen „Alexa Skills“ können User zahlreiche Extrafunktionen auf ihren Amazon-Sprachassistenten laden. Doch die bringen nicht nur Vorteile mit sich, sondern bergen oftmals Sicherheitslücken und Datenschutzprobleme. Das wies ein Forschungsteam des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum (RUB) und der North Carolina State University nach, zusammen mit einem ehemaligen Doktoranden, der im Lauf des Projekts zu Google wechselte. Ihre Arbeit präsentieren sie auf der Konferenz „Network and Distributed System Security Symposium (NDSS)“ am 24. Februar 2021.

Über 90.000 Skills analysiert

In ihrer Studie haben die Wissenschaftler um Christopher Lentzsch und Dr. Martin Degeling erstmalig das Ökosystem der Alexa Skills untersucht. Diese Sprachbefehle werden nicht nur vom US-amerikanischen Tech-Unternehmen Amazon selbst, sondern auch von externen Anbietern entwickelt. User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten diese.

Dabei stellten sie signifikante Mängel für eine sichere Nutzung fest. „Ein erstes Problem besteht darin, dass Amazon die Skills seit 2017 teilweise automatisch aktiviert. Früher mussten User der Nutzung jedes Skills zustimmen. Nun haben sie kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt, und wer diese überhaupt programmiert hat“, erklärt Dr. Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. Dabei sei leider häufig unklar, wann welcher Skill angesteuert werde. Wer Alexa zum Beispiel um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen; welcher dafür automatisch ausgewählt wird, ist nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.

Neue Skills unter falschem Namen einstellen

„Wir konnten außerdem nachweisen, dass Skills unter falschem Namen veröffentlicht werden können. So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall“, so Martin Degeling. Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch dieses sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.

„In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden“, erklärt der Forscher. Wenn also ein Automobilanbieter für sein Smart-System im Auto beispielsweise noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreiferinnen und Angreifer dies unter seinem Namen tun. „Sie können das Vertrauen der User in den bekannten Namen und in Amazon ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen“, so Degeling. Kriminelle können aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzerinnen und Nutzer aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.

Amazon-Kontrolle umgehen

Die Forscher machten noch ein anderes Sicherheitsrisiko aus: „Wir konnten feststellen, dass die Skills von den Anbietern im Nachhinein noch geändert werden können“, erklärt Christopher Lentzsch vom Lehrstuhl für Informations- und Technikmanagement der RUB. Diese Lücke relativiert also auch die Sicherheit des vorherigen Zertifizierungsprozesses durch Amazon. „Angreifer*innen könnten ihren Sprachbefehl nach einiger Zeit so umprogrammieren, dass sie beispielsweise nach den Kreditkartendaten der User fragen“, so Lentzsch weiter. In der Prüfung von Amazon fallen solche Aufforderungen in der Regel auf und werden nicht zugelassen – durch den Trick der nachträglichen Änderung des Programms kann diese Kontrolle umgangen werden.

Mangelhafte Datenschutzerklärungen

Zusätzlich zu diesen Sicherheitsrisiken wies das Forscherteam außerdem erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills nach. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy, in den besonders sensiblen Bereichen „Kids“ und „Gesundheit und Fitness“ sogar noch weniger. „Gerade hier sollte es starke Nachbesserungen geben“, so Degeling.

Amazon hat einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet nach eigenen Angaben an Gegenmaßnahmen.

Förderung

Die Arbeiten wurden unterstützt von der National Science Foundation (CNS-1849997) und dem Land NRW.

Originalveröffentlichung

Christopher Lentzsch, Sheel Jayesh Shah, Benjamin Andow, Martin Degeling, Anupam Das, William Enck: Hey Alexa, is this skill safe?: Taking a closer look at the Alexa Skill ecosystem, Network and Distributed System Security Symposium (NDSS), 2021, Paper-Download

Technische Details und die wissenschaftliche Originalarbeit stellen die Forscher auf der Website www.alexa-skill-analysis.org zur Verfügung.

Pressekontakt

Dr. Martin Degeling
Lehrstuhl Systemsicherheit
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
E-Mail: martin.degeling@rub.de

Download hochauflösender Bilder
Der Download der gewählten Bilder erfolgt als ZIP-Datei.
Bildzeilen und Bildnachweise finden Sie nach dem Entpacken in der enthaltenen HTML-Datei.
Nutzungsbedingungen
Die Verwendung der Bilder ist unter Angabe des entsprechenden Copyrights für die Presse honorarfrei. Die Bilder dürfen ausschließlich für eine Berichterstattung mit Bezug zur Ruhr-Universität Bochum verwendet werden, die sich auf die Inhalte des Artikels bezieht, der den Link zum Bilderdownload enthält.
Ich akzeptiere die Nutzungsbedingungen.
Veröffentlicht
Mittwoch
24. Februar 2021
09.13 Uhr
Von
Christina Scholten (HGI)
Share
Teilen

IT-Sicherheit

Die digitale Vernetzung durchdringt inzwischen fast alle Bereiche des Lebens. Schutzmechanismen zu entwickeln ist eine vordringliche Aufgabe.

Mehr aus dem Dossier
Das könnte Sie auch interessieren
Felix Schuster
Interview

Daten abgeschirmt verarbeiten in der Cloud

IT-Sicherheitsforscher Thorsten Holz mit einem Comic-Heft in der Hand
Exzellenzcluster CASA

Ein Comic über IT-Sicherheit

Das Wissenschaftlerteam
Kryptografie

Sicherheit mit Sollbruchstelle

Derzeit beliebt
KI: Das Bochumer Team mit Projektleiter Peter Salden, Nadine Lordick, Jonas Loschke und Maike Wiethoff (von links)
Künstliche Intelligenz

Bochumer Projekt schafft Klarheit zu KI-Tools für NRW-Hochschulen

Viktoria Däschlein-Gessner
Chemie

ERC Consolidator Grant für Viktoria Däschlein-Gessner

Ein junger Mann mit schwarzem Kapuzenpulli sitzt in einer Hörsaalreihe und lächelt.
Politik und Studium

Dienstag Bachelorarbeit abgeben, Sonntag Bundestagsmandat gewinnen

 
Mehr Wissenschaft
Ressort
 
Zur Startseite
News
  • A-Z
  • N
  • K
Logo RUB
Impressum | Kontakt
Ruhr-Universität Bochum
Universitätsstraße 150
44801 Bochum

Datenschutz
Barrierefreiheit
Impressum
Schnellzugriff
Service und Themen
Anreise und Lagepläne
Hilfe im Notfall
Stellenangebote
Social Media
Facebook
Twitter
YouTube
Instagram
Seitenanfang y Kontrast N
Impressum | Kontakt