Apfel heute angekündigt das mit der Veröffentlichung von iOS 15 und iPad 15 , es beginnt mit dem Scannen iCloud-Fotos in den USA nach bekanntem Material über sexuellen Missbrauch von Kindern (CSAM) zu suchen, mit Plänen, die Ergebnisse an das National Center for Missing and Exploited Children (NCMEC) zu melden.
Bevor Apple seine Pläne detailliert darlegte, wurden Nachrichten über die CSAM-Initiative durchgesickert, und Sicherheitsforscher haben bereits Bedenken geäußert, wie Apples neues Bildscanprotokoll in Zukunft verwendet werden könnte, wie von Financial Times .
Apple verwendet ein 'NeuralHash'-System, um bekannte CSAM-Bilder mit Fotos auf dem Bild eines Benutzers zu vergleichen iPhone bevor sie in iCloud hochgeladen werden. Bei Übereinstimmung wird dieses Foto mit einem kryptografischen Sicherheitsgutschein hochgeladen, und bei einem bestimmten Schwellenwert wird eine Überprüfung ausgelöst, um zu überprüfen, ob die Person CSAM auf ihren Geräten hat.
Wie kann ich mein iPhone von einem anderen Telefon aus finden?
Derzeit verwendet Apple seine Technologie zum Scannen und Abgleichen von Bildern, um nach Kindesmissbrauch zu suchen, aber Forscher befürchten, dass sie in Zukunft angepasst werden könnte, um nach anderen besorgniserregenderen Bildern zu suchen, wie z Proteste.
In einer Reihe von Tweets hat der Kryptografieforscher von Johns Hopkins Matthew Green sagte, dass CSAM-Scannen eine 'wirklich schlechte Idee' ist, da es in Zukunft auf das Scannen von Ende-zu-Ende-verschlüsselten Fotos erweitert werden könnte, anstatt nur Inhalte, die in iCloud hochgeladen werden. Für Kinder, Apfel ist Implementieren einer separaten Scanfunktion, die direkt in iMessages, die Ende-zu-Ende-verschlüsselt sind, nach sexuell eindeutigen Inhalten sucht.
Green äußerte auch Bedenken hinsichtlich der Hashes, die Apple verwenden möchte, da es möglicherweise zu 'Kollisionen' kommen könnte, bei denen jemand eine harmlose Datei sendet, die einen Hash mit CSAM teilt und zu einer falschen Flagge führen könnte.
Apple seinerseits sagt, dass seine Scantechnologie eine 'extrem hohe Genauigkeit' hat, um sicherzustellen, dass Konten nicht falsch gekennzeichnet werden, und Berichte werden manuell überprüft, bevor die iCloud Konto wird deaktiviert und ein Bericht wird an NCMEC gesendet.
Green glaubt, dass die Implementierung von Apple andere Technologieunternehmen dazu bringen wird, ähnliche Techniken zu übernehmen. 'Das wird den Damm brechen', schrieb er. 'Die Regierungen werden es von jedem verlangen.' Er verglich die Technologie mit „Werkzeugen, die repressive Regime eingesetzt haben“.
Das sind schlimme Dinge. Ich möchte nicht unbedingt auf der Seite von Kinderpornos stehen und bin kein Terrorist. Das Problem ist jedoch, dass die Verschlüsselung ein leistungsstarkes Werkzeug ist, das Privatsphäre bietet, und Sie können keine wirklich starke Privatsphäre haben, während Sie gleichzeitig jedes Bild überwachen, das jemand sendet. — Matthew Green (@matthew_d_green) 5. August 2021
Der Sicherheitsforscher Alec Muffett, der früher bei Facebook arbeitete, sagte, dass Apples Entscheidung, diese Art des Scannens von Bildern zu implementieren, ein 'großer und rückschrittlicher Schritt für die Privatsphäre des Einzelnen' war. 'Apple geht zurück in die Privatsphäre, um 1984 zu ermöglichen', sagte er.
Ross Anderson, Professor für Sicherheitstechnik an der Universität Cambridge, sagte, es sei eine „absolut entsetzliche Idee“, die zu einer „verteilten Massenüberwachung“ von Geräten führen könnte.
Wie viele auf Twitter darauf hingewiesen haben, führen mehrere Technologieunternehmen bereits Bildscans für CSAM durch. Google, Twitter, Microsoft, Facebook und andere verwenden Bild-Hashing-Methoden, um bekannte Bilder von Kindesmissbrauch zu suchen und zu melden.
Und wenn Sie sich fragen, ob Google Bilder nach Bildern von Kindesmissbrauch scannt, habe ich in der Geschichte, die ich vor acht Jahren geschrieben habe, darauf geantwortet: Das tut es **SEIT 2008**. Vielleicht setzen Sie sich alle hin und setzen Ihre Hüte wieder auf. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5. August 2021
Es ist auch erwähnenswert, dass Apple schon einige Inhalte scannen für Bilder von Kindesmissbrauch vor der Einführung der neuen CSAM-Initiative. Im Jahr 2020 sagte Apples Datenschutzbeauftragte Jane Horvath, dass Apple eine Screening-Technologie verwendet habe, um nach illegalen Bildern zu suchen, und dann Konten deaktiviert, wenn Beweise für CSAM entdeckt werden.
Erscheinungsdatum des iPod touch der 9. Generation
Apfel im Jahr 2019 hat seine Datenschutzrichtlinien aktualisiert darauf hinzuweisen, dass hochgeladene Inhalte auf „potenziell illegale Inhalte, einschließlich Material zur sexuellen Ausbeutung von Kindern“ überprüft würden, sodass die heutigen Ankündigungen nicht ganz neu sind.
Hinweis: Aufgrund des politischen oder gesellschaftlichen Charakters der Diskussion zu diesem Thema befindet sich der Diskussionsthread in unserem Politische Nachrichten Forum. Alle Forumsmitglieder und Site-Besucher sind herzlich eingeladen, den Thread zu lesen und zu verfolgen, aber das Posten ist auf Forumsmitglieder mit mindestens 100 Beiträgen beschränkt.
Tags: Apple-Datenschutz , Apple-Kindersicherheitsfunktionen
Beliebte Beiträge