Dialoge mit Amazons Sprachassistentin werden teils an Küchentischen in Polen analysiert. Nutzer können künftig widersprechen.

Berlin/Seattle - In der Debatte über die Auswertung von Nutzerdaten aus Sprachassistenten ist Amazons Dienst Alexa in den Fokus geraten. Nach einem Bericht der „Welt am Sonntag“ sollen befristete Angestellte teilweise von zu Hause aus Daten aus Amazons Sprachassistentin Alexa auswerten. „Einigen Mitarbeitern ist es gestattet, von anderen Orten aus zu arbeiten“, erklärte Amazon der Zeitung. „Dabei gelten strenge Sicherheitsmaßnahmen und Richtlinien, an die sich jeder Mitarbeiter halten muss“, heißt es demnach weiter in der Stellungnahme des Konzerns. Insbesondere die Arbeit an öffentlichen Orten sei untersagt.

 

Seit diesem Wochenende bietet Amazon Alexa-Nutzern, die sich um ihre Daten sorgen, eine neue Option an: Sie können die Auswertung von Mitschnitten durch Mitarbeiter des Konzerns verhindern. In der Alexa-App findet sich nun ein Schalter dafür.

Die Kritik an den Assistenten nimmt zu

In den vergangenen Wochen hatte es zunehmend Kritik daran gegeben, dass sich auch Menschen aufgezeichnete Fragmente von Unterhaltungen der Nutzer anhören und abtippen, um die Spracherkennung zu verbessern. Die jahrelange Praxis war den Nutzern bis vor wenigen Monaten weitestgehend unbekannt.

Nun weist die Alexa-App die Nutzer in einem Punkt in den Datenschutz-Einstellungen erstmals ausdrücklich darauf hin, die Sprachaufnahmen werden „möglicherweise bei der Entwicklung neuer Funktionen verwendet und hierbei manuell überprüft, um unsere Services zu verbessern“. Davon sei nur ein „sehr kleiner Anteil“ der Mitschnitte betroffen. Über dem Software-Schalter, der das ablehnt, platzierte Amazon einen Warnhinweis, dass das Ausschalten möglicherweise Funktionen einschränkt.

In Polen bewarb ein Zeitarbeitsdienstleister die Jobs zur Auswertung von Alexa-Aufnahmen in inzwischen gelöschten Anzeigen der „Welt am Sonntag“ zufolge als „Telearbeit im ganzen Land“. Ein Zeitarbeiter sagte dem Blatt, er und viele seiner Kollegen arbeiteten vom Küchentisch aus.

Dass Fragmente von Alexa-Aufnahmen auch von Menschen ausgewertet werden, war im Frühjahr durch einen Bericht des Finanzdienstes Bloomberg bekannt geworden. Damals ging es um das Anhören der Aufnahmen bei einem Dienstleister in Rumänien.

Hinweise blieben aus

Schnell kam heraus, dass dies auch bei den beiden anderen viel genutzten Sprachassistenten – Apples Siri und dem Google Assistant – der Fall ist. Bei Apple gab es zumindest einen Hinweis auf solche Transkriptionen in einem Sicherheitsdokument für Entwickler. Keiner der Anbieter wies aber bei der Einrichtung der Assistenten ausdrücklich darauf hin, dass auch ihre Mitarbeiter oder Dienstleister die Aufnahmen zu hören bekommen könnten.

Anfang Juli kam eine neue Welle der Kritik, als Mitschnitte vom Google Assistant aus den Niederlanden geleakt wurden.

Das veranlasste den Hamburger Datenschützer Johannes Caspar, ein Verwaltungsverfahren gegen Google einzuleiten. Der Internetkonzern setzte bereits Anfang Juli die Auswertung der Aufnahmen durch Menschen weltweit aus – wie allerdings erst jetzt bekannt wurde. Apple folgte mit einem weltweiten Stopp am vergangenen Freitag – und versprach zudem, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, hieß es. Sprachassistenz-Software wie Alexa oder Siri reagiert auf Sprachbefehle des Nutzers. Ein Beispiel: Auf „Alexa, wie spät ist es?“ antwortet der Assistent mit der Uhrzeit. Die Alexa-Software wird vor allem auf den Echo-Lautsprechern des Konzerns genutzt. Amazon arbeitet aber – genau wie Google bei seinem Assistant – daran, sie in möglichst vielen Geräten verschiedener Hersteller unterzubringen. Siri kann man nur auf Apple-Geräten aufrufen.

Die Assistenten starten die Aufzeichnung grundsätzlich erst, wenn sie das Aktivierungswort – „Hey, Google“, „Alexa“ oder „Hey, Siri“ – hören. Allerdings müssen die Mikrofone ständig aktiv sein, um das Weckwort nicht zu verpassen.

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, ihr Weckwort gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter auch herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Laut Google werden rund 0,2 Prozent der Aufzeichnungen nachträglich angehört, Apple und Amazon zufolge ist es weniger als ein Prozent.