Software Amazon lässt manche Alexa-Befehle abtippen

SDA

11.4.2019 - 14:36

Mündliche Befehle an einen «Smart Speaker» von Amazon werden unter Umständen von Mitarbeitenden zur Verbesserung der Spracherkennung abgetippt. (Archivbild)
Mündliche Befehle an einen «Smart Speaker» von Amazon werden unter Umständen von Mitarbeitenden zur Verbesserung der Spracherkennung abgetippt. (Archivbild)
Source: KEYSTONE/AP/ELAINE THOMPSON

Amazon lässt Mitarbeiter aufgezeichnete Befehle von Nutzern an seine Assistenzsoftware Alexa anhören und abtippen, um die Spracherkennung zu verbessern. Der Konzern bestätigte die Vorgehensweise am Donnerstag.

«Wir versehen nur eine extrem geringe Anzahl von Interaktionen einer zufälligen Gruppe von Kunden mit Anmerkungen, um die Nutzererfahrung zu verbessern», hiess es von Amazon.

Bloomberg zufolge wird diese Arbeit an diversen Standorten rund um die Welt erledigt, unter anderem in Boston, Costa Rica, Indien und Rumänien. Laut zwei Mitarbeitern in Bukarest schlagen sie dort pro Schicht jeweils bis zu 1000 Mitschnitte um. Ein Mitarbeiter aus Boston sagte, er habe zum Beispiel Aufzeichnungen mit den Worten «Taylor Swift» analysiert und sie mit der Anmerkung versehen, dass die Nutzer die Sängerin meinten.

Keine Identifizierung

«Im Rahmen dieses Workflows haben Mitarbeiter keinen direkten Zugriff auf Informationen, die die Person oder das Konto identifizieren können», betonte Amazon. Der Finanzdienst berichtete zugleich, auf einem Screenshot zu einem solchen Transkriptions-Auftrag seien eine Account-Nummer, der Vorname des Nutzers sowie die Seriennummer des Geräts aufgeführt gewesen. Der Konzern erklärte, alle Informationen würden streng vertraulich behandelt und es werde mit Zugangseinschränkungen und Verschlüsselung gearbeitet.

Aus Amazons öffentlichen Informationen zu Alexa geht bisher nicht explizit hervor, dass unter Umständen auch Menschen die Aufzeichnungen anhören könnten. «Zum Beispiel verwenden wir Ihre Befehle an Alexa, um unsere Systeme zur Spracherkennung und zum Verstehen natürlicher Sprachen zu trainieren», heisst es allgemein in Fragen und Antworten auf einer Amazon-Seite. Zugleich können Nutzer in den Einstellungen die Nutzung ihrer Aufnahmen zur Weiterentwicklung des Dienstes ablehnen sowie bisherige Aufnahmen löschen.

Vertrauliche Informationen

Einige der Mitarbeiter hätten die Aufgabe, sich die Sprachbefehle anzuhören und nachzuprüfen, ob Alexa die Worte richtig erkannt hatte, schrieb Bloomberg. In anderen Fällen werde eine Unterhaltung mit der Software angehört, um zu sehen, wie gut sie mit dem Nutzer interagierte.

In einigen Fällen hätten die Mitarbeiter vertrauliche Informationen wie Namen oder Bankkonto-Informationen gehört, berichtete Bloomberg. In diesen Fällen sollten sie ein Häkchen im Menüpunkt «kritische Daten» setzen und sich die nächste Aufnahme vornehmen.

Bloomberg nannte auch weitere Beispiele für von den Mitarbeitern gehörte private Aufnahmen: Ein Frau, die in der Dusche singt, ein Kind, das nach Hilfe ruft. Zwei Beschäftigte sagten Bloomberg, sie hätten auch etwas gehört, was ein sexueller Übergriff gewesen sein könnte. Laut zwei Mitarbeitern aus Rumänien seien sie in solchen Situationen angehalten, nichts zu unternehmen, schrieb der Finanzdienst.

Auch versehentliche Aufnahmen

Geräte mit der Assistenzsoftware wie Amazons Echo-Lautsprecher beginnen die Aufnahme grundsätzlich erst, wenn sie das festgelegte Weck-Wort wie «Alexa» hören. Zugleich passiert es immer wieder mal, dass die Funktion fälschlicherweise aktiviert wird, weil die Software glaubt, das Wort gehört zu haben. Auch versehentliche Aufnahmen würden abgetippt, berichtete Bloomberg. Den Mitarbeitern zufolge würden pro Tag bis zu 100 solcher Aufnahmen durchgearbeitet.

Von Amazon gab es am Donnerstag zunächst keine weiteren Informationen. Auch die Konkurrenten Apple und Google äusserten sich zunächst nicht zur Anfrage, ob sie auf eine ähnliche Vorgehensweise bei ihren Assistenten Siri und Google Assistant zurückgreifen.

Zurück zur Startseite