"Alexa, spiel 'Summer in the City'!" Tippen und Klicken war gestern, jetzt spielen Sprachassistenten – wie Apples Siri, Amazons Alexa, Googles Assistant oder Microsofts Cortana – Musik, antworten auf Zuruf, erinnern an Termine oder steuern aus der Ferne technische Funktionen zu Hause.
Was auf den ersten Blick witzig sei, berge jedoch Gefahren, warnt die Arbeiterkammer (AK) in ihrer neue Studie "Digitale Assistenten", die mit dem Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW) erstellt wurde.
Bei vertraulichen Gesprächen mitlauschen
"Apples Siri, Amazons Alexa, Googles Assistant und Cortana von Microsoft sind oft auf dem Handy mit dabei oder lauschen in den Wohnungen mit. Die Anbieter sammeln Sprachprofile, geben beispielsweise Standortdaten weiter, die Zwecke jenseits der Diensterfüllung bleiben dank vager Datenschutzerklärungen meist im Verborgenen – das ist vielen nicht bewusst, vor allem Kindern nicht", warnte AK Konsumentenschützerin Daniela Zimmer am Dienstag im Rahmen einer Pressekonferenz.
Diese "Sprachbutler" seien auch anfällig für Fehlaktivierungen, ohne Aktivierungswort mitgelauschte, vertraulichste Gespräche innerhalb der eigenen vier Wände würden immer wieder bei den Anbietern landen, Waren würden auf Zuruf von Nichtberechtigten bestellt. Zimmer: "Deutsche Innenminister wünschen sich sogar, dass sie künftig vor Strafgerichten 'aussagen'. Die Überwachungs- und Missbrauchsrisiken sind also vielfältig. Experten meinen, dass weibliche Geräte-Namen und drollige Antworten auch dazu dienen, den Wanzen-Charakter zu kaschieren."
Bewusstsein schärfen
Co-Studienautor Jaro Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der ÖAW betont: "Derzeit wird die Qualität und Objektivität der Antworten nicht kontrolliert. Fraglich ist, ob die Assistenten unter Umständen mehr ihren Herren als den Nutzern dienen? Die Antwortauswahl und Reaktionen könnten davon abhängen, dass die Hersteller nur mit bestimmten Lieferanten kooperieren, welche Politik der Anbieter unterstützt, oder ob Dritte dafür gezahlt haben."
"Wir möchten das Bewusstsein schärfen, dass die digitalen Sprachassistenten nicht harmlos sind", so Gabriele Zgubic, Leiterin der AK Wien Konsumentenpolitik. "Die Anbieter müssen sorgfältiger mit den Daten der Konsumenten umgehen und mehr Augenmerk auf den Datenschutz legen. Konsumenten müssen klare Informationen haben, wie ihre Daten genutzt und verarbeitet werden."
Skeptische Konsumenten
27 Prozent der österreichischen Haushalte erteilen smarten Geräten bereits Befehle (Integral 3. Quartal 2017). Nach Angaben des deutschen Bundesverbands Digitale Wirtschaft sollen dabei Männer die smarten Butler öfter nutzen als Frauen (62 zu 52 Prozent). Frauen finden es komischer, mit Geräten zu sprechen als Männer (34 zu 24 Prozent) und befürchten häufiger, dass das Gerät sie falsch versteht (31 zu 26 Prozent). Männer befürchten dafür öfter, dass ihre Daten missbraucht werden und dass man sie abhören könnte (36 zu 30 Prozent). Unter den 16- bis 24-jährigen in Deutschland sollen bereits drei von vier Sprachbefehle erteilt haben.
Die häufigsten Bedenken der Nicht-Nutzer sind laut der deutschen statista: Ich habe Sicherheitsbedenken, ungewollt belauscht zu werden (43 Prozent). Die sammeln zu viele Daten von mir (40 Prozent). Ich suche mir Infos lieber selbst heraus, damit ich die Qualität besser einschätzen kann (35 Prozent). Ich möchte nicht, dass meine Stimme aufgezeichnet wird (22 Prozent).
Vage formulierte Datenschutzerklärungen
"Sprachassistenten sind bei vielen auf dem Handy immer mit dabei oder lauschen in den Wohnungen mit. Neben dem Inhalt der Sprachaufnahmen können auch Ort und Zeit der Nutzung viel über Lebensgewohnheiten aussagen", sagt AK Datenschützerin Daniela Zimmer.
Die Anbieter müssen die Verarbeitung von Daten transparent, unter Angabe einer genauen Speicherdauer und an klare Zwecke gebunden durchführen. "Ihre Datenschutzerklärungen sind allerdings viel zu vage formuliert", so Zimmer. "Dabei fallen äußerst heikle Daten an. Nicht nur an den ‚Beifang' unautorisiert aufgezeichneter privater Gespräche ist dabei zu denken. Der britische Gesundheitsdienst setzt Alexa künftig sogar als 'Doktor' ein: Alexa soll medizinische Beratung, quasi als Hausbesuchersatz, anbieten, womit Berge an sensiblen Daten anfallen." (as)
Die vollständige Studie finden Sie hier.
www.arbeiterkammer.at