Apple setzt a . aus Syrien Programm, mit dem Mitarbeiter Siri Aufzeichnungen zur Qualitätskontrolle, Berichte TechCrunch .
Apple wird den derzeit verwendeten Prozess überprüfen, bei dem Mitarbeiter anonymisierte Siri Aufzeichnungen, um zu bestimmen, ob Siri hört Fragen richtig oder wird versehentlich aktiviert.
Apple plant in Zukunft auch die Veröffentlichung eines Software-Updates, mit dem Siri Benutzer entscheiden sich dagegen, dass ihre Siri Abfragen, die in diesem Bewertungsprozess enthalten sind, der als Benotung bezeichnet wird.
'Wir sind bestrebt, ein großartiges Siri-Erlebnis zu bieten und gleichzeitig die Privatsphäre der Benutzer zu schützen', sagte Apple in einer Erklärung gegenüber TechCrunch. 'Während wir eine gründliche Überprüfung durchführen, setzen wir die Siri-Bewertung weltweit aus. Darüber hinaus werden Benutzer im Rahmen eines zukünftigen Software-Updates die Möglichkeit haben, an der Benotung teilzunehmen.'
Die Entscheidung, das Programm auszusetzen und eine Opt-out-Option anzubieten, kommt nach einem Bericht von Der Wächter dass Details von einem der Auftragnehmer, die an der Evaluierung von Siri Abfragen.
Der Mitarbeiter äußerte sich besorgt über die fehlende Offenlegung von Apple über die menschliche Aufsicht und sagte, dass Auftragnehmer, die an dem Programm arbeiten, über vertrauliche medizinische Informationen, Drogengeschäfte, Aufzeichnungen von Paaren beim Sex und andere private Details von versehentlichen Siri Aktivierungen.
Wann Der Wächter Bericht herauskam, bestätigte Apple, dass eine kleine Anzahl anonymisierter Siri Anfragen werden analysiert, um Siri und Diktat. Während Apple Siri Daten, die für die Qualitätskontrolle ausgewertet werden und Siri Verbesserung, die aktuelle Datenschutzrichtlinie und die Sicherheitsdokumente erwähnen die menschliche Aufsicht nicht ausdrücklich.
Beliebte Beiträge