Apple-News

Apple-Mitarbeiter äußern intern Bedenken über CSAM-Erkennungspläne

Freitag, 13. August 2021, 12:43 Uhr PDT von Sami Fathi

Apple-Mitarbeiter schließen sich jetzt dem Chor von Einzelpersonen an, die Bedenken hinsichtlich der Pläne von Apple zum Scannen äußern iPhone Fotobibliotheken von Benutzern für CSAM oder Material zum sexuellen Missbrauch von Kindern, die sich laut einem Bericht von Reuters .





Apple Park Drohne Juni 2018 2
Entsprechend Reuters , hat eine nicht näher bezeichnete Anzahl von Apple-Mitarbeitern interne Slack-Kanäle aufgerufen, um Bedenken hinsichtlich der CSAM-Erkennung zu äußern. Mitarbeiter befürchten insbesondere, dass Regierungen Apple zwingen könnten, die Technologie zur Zensur zu verwenden, indem sie andere Inhalte als CSAM finden. Einige Mitarbeiter befürchten, dass Apple seinen branchenführenden Ruf im Bereich Datenschutz schädigt.

Apple-Mitarbeiter haben einen internen Slack-Kanal von Apple mit mehr als 800 Nachrichten zu dem vor einer Woche angekündigten Plan überflutet, sagten Arbeiter, die nicht identifiziert werden wollten, gegenüber Reuters. Viele äußerten Bedenken, dass die Funktion von repressiven Regierungen ausgenutzt werden könnte, die nach anderem Material für Zensur oder Verhaftungen suchen, so Arbeiter, die den tagelangen Thread gesehen haben.



Vergangene Sicherheitsänderungen bei Apple haben auch bei den Mitarbeitern Besorgnis ausgelöst, aber das Ausmaß und die Dauer der neuen Debatte seien überraschend, sagten die Arbeiter. Einige Poster befürchten, dass Apple seinen führenden Ruf beim Schutz der Privatsphäre beschädigt.

Apple-Mitarbeiter in Rollen im Zusammenhang mit der Benutzersicherheit sollen dem Bericht zufolge nicht an den internen Protesten beteiligt gewesen sein.

Seit es Ankündigung letzte Woche , Apple wurde mit Kritik an seinen CSAM-Erkennungsplänen bombardiert, die noch im Herbst mit iOS 15 und iPadOS 15 eingeführt werden sollen. Die Bedenken drehen sich hauptsächlich darum, wie die Technologie für zukünftige Implementierungen durch repressive Regierungen und Regime einen rutschigen Hang darstellen könnte.

wie man ein macbook pro hart neu startet

Apple hat sich entschieden gegen die Idee gewehrt, dass die zum Erkennen von CSAM-Material verwendete On-Device-Technologie für jeden anderen Zweck verwendet werden könnte. In einem veröffentlichtes FAQ-Dokument , sagt das Unternehmen, es werde eine solche Forderung der Regierungen vehement ablehnen.

Könnten Regierungen Apple zwingen, Nicht-CSAM-Images zur Hash-Liste hinzuzufügen?
Apple wird solche Forderungen ablehnen. Die CSAM-Erkennungsfunktion von Apple wurde ausschließlich entwickelt, um bekannte CSAM-Bilder zu erkennen, die in iCloud-Fotos gespeichert sind und von Experten von NCMEC und anderen Kindersicherheitsgruppen identifiziert wurden. Wir haben uns schon früher Forderungen gestellt, von der Regierung vorgeschriebene Änderungen zu erstellen und zu implementieren, die die Privatsphäre der Benutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen, dass diese Technologie darauf beschränkt ist, in iCloud gespeicherte CSAM zu erkennen, und wir werden keiner Aufforderung einer Regierung nachkommen, sie zu erweitern. Darüber hinaus führt Apple eine menschliche Überprüfung durch, bevor eine Meldung an NCMEC erfolgt. In einem Fall, in dem das System Fotos markiert, die nicht mit bekannten CSAM-Bildern übereinstimmen, wird das Konto nicht deaktiviert und kein Bericht an NCMEC gesendet.

Ein offener Brief Die Kritik an Apple und die Aufforderung an das Unternehmen, seinen Plan zur Bereitstellung der CSAM-Erkennung sofort einzustellen, hat zum Zeitpunkt des Schreibens mehr als 7.000 Unterschriften erhalten. Der WhatsApp-Chef hat auch in die Debatte eingewogen .

Tags: Apple-Datenschutz , Apple-Kindersicherheitsfunktionen