Apple-News

Universitätsforscher, die ein CSAM-Scansystem entwickelt haben, fordern Apple auf, die „gefährliche“ Technologie nicht zu verwenden

Freitag, 20. August 2021 6:48 PDT von Sami Fathi

Angesehene Universitätsforscher lassen die Alarmglocken über die Technologie hinter Apples Scan-Plänen läuten iPhone Fotobibliotheken von Benutzern für CSAM oder Material zum sexuellen Missbrauch von Kindern, die die Technologie als 'gefährlich' bezeichnen.





Apple Privatsphäre
Jonanath Mayer, Assistenzprofessor für Informatik und öffentliche Angelegenheiten an der Princeton University, sowie Anunay Kulshrestha, Forscherin am Princeton University Center for Information Technology Policy, beide einen Kommentar verfasst zum Die Washington Post , in dem sie ihre Erfahrungen mit der Bilderkennungstechnologie schildern.

Die Forscher haben vor zwei Jahren ein Projekt gestartet, um CSAM in Ende-zu-Ende-verschlüsselten Online-Diensten zu identifizieren. Die Forscher stellen fest, dass sie aufgrund ihres Fachgebiets 'den Wert einer Ende-zu-Ende-Verschlüsselung kennen, die Daten vor dem Zugriff Dritter schützt'. Diese Sorge, sagen sie, ist es, was sie angesichts der 'Verbreitung von CSAM auf verschlüsselten Plattformen' entsetzt.



So aktivieren Sie Ihre Apple Card

Mayer und Kulshrestha sagten, sie wollten einen Mittelweg für die Situation finden: ein System aufbauen, mit dem Online-Plattformen CSAM finden und die Ende-zu-Ende-Verschlüsselung schützen können. Die Forscher stellen fest, dass Experten auf diesem Gebiet die Aussicht auf ein solches System bezweifelten, es jedoch geschafft haben, es zu bauen, und dabei ein erhebliches Problem festgestellt haben.

Wir suchten nach einem möglichen Mittelweg, bei dem Online-Dienste schädliche Inhalte identifizieren könnten, während sie ansonsten die Ende-zu-Ende-Verschlüsselung beibehalten könnten. Das Konzept war einfach: Wenn jemand Material teilte, das einer Datenbank mit bekannten schädlichen Inhalten entsprach, wurde der Dienst benachrichtigt. Wenn eine Person unschuldige Inhalte teilt, würde der Dienst nichts erfahren. Die Leute konnten die Datenbank nicht lesen oder herausfinden, ob der Inhalt übereinstimmte, da diese Informationen Strafverfolgungsmethoden aufdecken und Kriminellen helfen könnten, einer Entdeckung zu entgehen.

Sachkundige Beobachter argumentierten, ein System wie unseres sei alles andere als machbar. Nach vielen Fehlstarts haben wir einen funktionierenden Prototyp gebaut. Aber wir sind auf ein eklatantes Problem gestoßen.

Seit Apple die Funktion angekündigt hat, wurde das Unternehmen bombardiert mit Bedenken dass das System hinter der Erkennung von CSAM verwendet werden könnte, um auf Wunsch repressiver Regierungen andere Formen von Fotos zu erkennen. Apple hat sich gegen eine solche Möglichkeit entschieden und erklärt, dass es jede solche Anfrage von Regierungen ablehnen wird.

Nichtsdestotrotz sind Bedenken hinsichtlich der zukünftigen Auswirkungen der Technologie, die für die CSAM-Erkennung verwendet wird, weit verbreitet. Mayer und Kulshrestha sagten, dass ihre Bedenken, wie Regierungen das System verwenden könnten, um andere Inhalte als CSAM zu erkennen, sie „beunruhigt“ hätten.

Welche Apple-TV-Generation habe ich?

Eine ausländische Regierung könnte zum Beispiel einen Dienst für Menschen erzwingen, die missbilligte politische Äußerungen teilen. Das ist keine Hypothese: WeChat, die beliebte chinesische Messaging-App, verwendet bereits Content-Matching, um abweichendes Material zu identifizieren. Indien hat in diesem Jahr Regeln erlassen, die eine Vorabprüfung regierungskritischer Inhalte erfordern könnten. Russland hat kürzlich eine Geldstrafe gegen Google, Facebook und Twitter verhängt, weil sie Protestmaterialien für die Demokratie nicht entfernt haben.

Wir haben andere Mängel festgestellt. Der Prozess zum Abgleichen von Inhalten kann zu falsch positiven Ergebnissen führen, und böswillige Benutzer könnten das System austricksen, um unschuldige Benutzer einer Überprüfung zu unterziehen.

Wir waren so beunruhigt, dass wir einen Schritt machten, den wir in der Informatikliteratur noch nicht gesehen hatten: Wir warnten vor unserem eigenen Systemdesign und drängten auf weitere Forschung, um die gravierenden Nachteile abzumildern....

Apple hat die Bedenken der Benutzer bezüglich seiner Pläne weiterhin berücksichtigt. Veröffentlichung zusätzlicher Dokumente und eine FAQ-Seite . Apple glaubt weiterhin, dass sein CSAM-Erkennungssystem, das auf dem Gerät eines Benutzers ausgeführt wird, seinen langjährigen Datenschutzwerten entspricht.

Tags: Apple-Datenschutz , WashingtonPost.com , Apple-Kindersicherheitsfunktionen