Siri, Google Now und Cortana werden aufgezeichnet – Nein, echt?

Alexander Trust, den 24. Februar 2015
Restaurant-Suche mit Siri
Restaurant-Suche mit Siri, Bild: engadget

Auf Reddit behauptet derzeit ein Nutzer, dass alle Gespräche, die Nutzer mit den Sprachassistenten Siri von Apple oder Cortana von Microsoft geführt werden, von den Firmen aufgezeichnet würden und Dritten zugänglich gemacht.

Vergessen zu erwähnen hat der Nutzer FallenMyst, dass Gespräche von Nutzern mit dem Service Google Now ebenfalls aufgezeichnet werden. So wie vor kurzem Samsung im Rampenlicht stand, als es hieß seine Smart TVs würden Gespräche aufzeichnen, wird nun versucht, Apple- und Microsoft-Kunden ebenfalls für das Thema zu sensibilisieren. Problematisch im Fall von Samsung war lediglich, dass Nutzer die Funktion ausschalten hätten müssen, um dem zu widersprechen, und die Gesprächsdaten unverschlüsselt übertragen wurden.

FallenMyst arbeitet seit heute für „Walk N’Talk Technologies“ – eine Google-Recherche hat mir keine wirklich brauchbaren Informationen zu diesem Unternehmen preisgegeben. Wenn es tatsächlich existiert, dann versteckt es sich relativ gut. Dort darf FallenMyste sich jedenfalls Sound-Schnipsel anhören und muss bewerten, wie gut ein verschriftlichter Text zu dem passt, was gesagt wurde. Offenbar um die Spracherkennung zu verbessern.

Wie man aus den Kommentaren bei Reddit entnehmen kann, ist das manchen Nutzern vollends bewusst. Nicht zuletzt heißt es in Apples Nutzungsbedingungen (PDF) für Siri und die Diktat-Funktion (Paragraph 4.c):

„By using Siri or Dictation, you agree and consent to Apple’s and its subsidiaries’ and agents’ transmission, collection, maintenance, processing, and use of this information, including your voice input and User Data, to provide and improve Siri, Dictation, and dictation functionality in other Apple products and services.“
Apple

Microsoft und Google haben für ihre Services Google Now und Cortana ähnliche Bedingungen formuliert. Die Aufzeichnungen werden offenbar dazu verwendet, um die Qualität der Spracherkennung zu verbessern. Wie anders könnte dies geschehen, indem man anonymisiert Menschen Audio und Transkript vergleichen lässt? Schockiert ist der neue Mitarbeiter des Monats, der von seinem Arbeitgeber womöglich wegen des Verstoßes von Geheimhaltungsklauseln schon bald wieder vor die Tür gesetzt werden wird, vor allem über die vielen sexuellen Gespräche, die Nutzer über Siri, Cortana und Co führen.

Er hat Kindern zugehört, die Siri gefragt haben, ob es sie mag, musste sich aber auch Stellen anhören, in denen Nutzer ins Mikrofon sprachen, dass sie Sex haben wollten.


Ähnliche Nachrichten

Passende Angebote