Apple-News

Sicherheitsforscher sind alarmiert über Apples Pläne, iCloud-Bilder zu scannen, üben aber bereits weit verbreitet

Donnerstag, 5. August 2021 14:04 PDT von Juli Clover

Apfel heute angekündigt das mit der Veröffentlichung von iOS 15 und iPad 15 , es beginnt mit dem Scannen iCloud-Fotos in den USA nach bekanntem Material über sexuellen Missbrauch von Kindern (CSAM) zu suchen, mit Plänen, die Ergebnisse an das National Center for Missing and Exploited Children (NCMEC) zu melden.





Kindersicherheitsfunktion
Bevor Apple seine Pläne detailliert darlegte, wurden Nachrichten über die CSAM-Initiative durchgesickert, und Sicherheitsforscher haben bereits Bedenken geäußert, wie Apples neues Bildscanprotokoll in Zukunft verwendet werden könnte, wie von Financial Times .

Apple verwendet ein 'NeuralHash'-System, um bekannte CSAM-Bilder mit Fotos auf dem Bild eines Benutzers zu vergleichen iPhone bevor sie in iCloud hochgeladen werden. Bei Übereinstimmung wird dieses Foto mit einem kryptografischen Sicherheitsgutschein hochgeladen, und bei einem bestimmten Schwellenwert wird eine Überprüfung ausgelöst, um zu überprüfen, ob die Person CSAM auf ihren Geräten hat.



Wie kann ich mein iPhone von einem anderen Telefon aus finden?

Derzeit verwendet Apple seine Technologie zum Scannen und Abgleichen von Bildern, um nach Kindesmissbrauch zu suchen, aber Forscher befürchten, dass sie in Zukunft angepasst werden könnte, um nach anderen besorgniserregenderen Bildern zu suchen, wie z Proteste.

In einer Reihe von Tweets hat der Kryptografieforscher von Johns Hopkins Matthew Green sagte, dass CSAM-Scannen eine 'wirklich schlechte Idee' ist, da es in Zukunft auf das Scannen von Ende-zu-Ende-verschlüsselten Fotos erweitert werden könnte, anstatt nur Inhalte, die in ‌iCloud‌ hochgeladen werden. Für Kinder, Apfel ist Implementieren einer separaten Scanfunktion, die direkt in iMessages, die Ende-zu-Ende-verschlüsselt sind, nach sexuell eindeutigen Inhalten sucht.

Green äußerte auch Bedenken hinsichtlich der Hashes, die Apple verwenden möchte, da es möglicherweise zu 'Kollisionen' kommen könnte, bei denen jemand eine harmlose Datei sendet, die einen Hash mit CSAM teilt und zu einer falschen Flagge führen könnte.

Apple seinerseits sagt, dass seine Scantechnologie eine 'extrem hohe Genauigkeit' hat, um sicherzustellen, dass Konten nicht falsch gekennzeichnet werden, und Berichte werden manuell überprüft, bevor die ‌iCloud‌ Konto wird deaktiviert und ein Bericht wird an NCMEC gesendet.

Green glaubt, dass die Implementierung von Apple andere Technologieunternehmen dazu bringen wird, ähnliche Techniken zu übernehmen. 'Das wird den Damm brechen', schrieb er. 'Die Regierungen werden es von jedem verlangen.' Er verglich die Technologie mit „Werkzeugen, die repressive Regime eingesetzt haben“.


Der Sicherheitsforscher Alec Muffett, der früher bei Facebook arbeitete, sagte, dass Apples Entscheidung, diese Art des Scannens von Bildern zu implementieren, ein 'großer und rückschrittlicher Schritt für die Privatsphäre des Einzelnen' war. 'Apple geht zurück in die Privatsphäre, um 1984 zu ermöglichen', sagte er.

Ross Anderson, Professor für Sicherheitstechnik an der Universität Cambridge, sagte, es sei eine „absolut entsetzliche Idee“, die zu einer „verteilten Massenüberwachung“ von Geräten führen könnte.

Wie viele auf Twitter darauf hingewiesen haben, führen mehrere Technologieunternehmen bereits Bildscans für CSAM durch. Google, Twitter, Microsoft, Facebook und andere verwenden Bild-Hashing-Methoden, um bekannte Bilder von Kindesmissbrauch zu suchen und zu melden.


Es ist auch erwähnenswert, dass Apple schon einige Inhalte scannen für Bilder von Kindesmissbrauch vor der Einführung der neuen CSAM-Initiative. Im Jahr 2020 sagte Apples Datenschutzbeauftragte Jane Horvath, dass Apple eine Screening-Technologie verwendet habe, um nach illegalen Bildern zu suchen, und dann Konten deaktiviert, wenn Beweise für CSAM entdeckt werden.

Erscheinungsdatum des iPod touch der 9. Generation

Apfel im Jahr 2019 hat seine Datenschutzrichtlinien aktualisiert darauf hinzuweisen, dass hochgeladene Inhalte auf „potenziell illegale Inhalte, einschließlich Material zur sexuellen Ausbeutung von Kindern“ überprüft würden, sodass die heutigen Ankündigungen nicht ganz neu sind.

Hinweis: Aufgrund des politischen oder gesellschaftlichen Charakters der Diskussion zu diesem Thema befindet sich der Diskussionsthread in unserem Politische Nachrichten Forum. Alle Forumsmitglieder und Site-Besucher sind herzlich eingeladen, den Thread zu lesen und zu verfolgen, aber das Posten ist auf Forumsmitglieder mit mindestens 100 Beiträgen beschränkt.

Tags: Apple-Datenschutz , Apple-Kindersicherheitsfunktionen