Apple-News

Craig Federighi räumt Verwirrung um Apple-Sicherheitsfunktionen für Kinder ein und erklärt neue Details zu Sicherheitsvorkehrungen

Freitag, 13. August 2021, 07:33 Uhr PDT von Hartley Charlton

Apples Senior Vice President of Software Engineering, Craig Federighi, hat heute die umstrittenen Pläne des Unternehmens verteidigt Kindersicherheitsfunktionen in einem bedeutenden Interview mit Das Wall Street Journal , die eine Reihe neuer Details zu den Sicherheitsvorkehrungen enthüllt, die in Apples System zum Durchsuchen der Fotobibliotheken von Benutzern auf Material zum sexuellen Missbrauch von Kindern (CSAM) integriert sind.





craig wwdc 2021 Datenschutz
Federighi gab zu, dass Apple die letzte Woche bearbeitet hatte Bekanntmachung der beiden neuen Funktionen schlecht in Bezug auf die Erkennung expliziter Inhalte in Nachrichten für Kinder und CSAM-Inhalte, die in gespeichert sind iCloud-Fotos Bibliotheken und räumte die weit verbreitete Verwirrung um die Tools ein:

Es ist wirklich klar, dass viele Nachrichten in Bezug auf das Verständnis der Dinge ziemlich durcheinander geraten sind. Wir wünschen uns, dass dies für alle etwas klarer geworden wäre, denn wir fühlen uns sehr positiv und stark bei dem, was wir tun.



wie nehme ich meine sim karte raus

[…]

Im Nachhinein war die gleichzeitige Einführung dieser beiden Funktionen ein Rezept für diese Art von Verwirrung. Durch die gleichzeitige Veröffentlichung wurden sie technisch verbunden und bekamen große Angst: Was passiert mit meinen Nachrichten? Die Antwort ist ... nichts passiert mit Ihren Nachrichten.

Die Kommunikationssicherheitsfunktion bedeutet, dass Kinder, wenn sie explizite Bilder über iMessage senden oder empfangen, vor dem Anzeigen gewarnt werden, das Bild unscharf wird und es die Möglichkeit gibt, ihre Eltern zu benachrichtigen. Beim CSAM-Scannen wird andererseits versucht, die Fotos der Benutzer mit gehashten Bildern bekannter CSAMs abzugleichen, bevor sie in iCloud hochgeladen werden. Konten, bei denen CSAM erkannt wurde, werden dann einer manuellen Überprüfung durch Apple unterzogen und können dem National Center for Missing and Exploited Children (NCMEC) gemeldet werden.

wann kommen die nächsten iphones

Die neuen Funktionen wurden von den Benutzern stark kritisiert, Sicherheitsforscher , das Electronic Frontier Foundation (EFF) und Edward Snowden , Facebooks ehemaliger Sicherheitschef , und selbst Apple-Mitarbeiter .

Inmitten dieser Kritik ging Federighi auf einen der Hauptsorgenbereiche ein und betonte, dass Apples System mit „mehrfacher Überprüfbarkeit“ davor geschützt sei, von Regierungen oder anderen Dritten ausgenutzt zu werden.


Federighi enthüllte auch eine Reihe neuer Details zu den Sicherheitsvorkehrungen des Systems, wie zum Beispiel die Tatsache, dass ein Benutzer etwa 30 Übereinstimmungen für CSAM-Inhalte in seinem Fotos Bibliothek, bevor Apple benachrichtigt wird, woraufhin es bestätigt, ob diese Bilder echte Instanzen von CSAM zu sein scheinen.

Wenn und nur wenn Sie einen Schwellenwert von ungefähr 30 übereinstimmenden kinderpornografischen Bildern erreichen, weiß Apple nur dann etwas über Ihr Konto und weiß etwas über diese Bilder, und zu diesem Zeitpunkt weiß es nur über diese Bilder, nicht über eines Ihrer anderen Bilder. Das ist keine Analyse, denn hatten Sie ein Bild von Ihrem Kind in der Badewanne? Oder hatten Sie ein Bild von irgendeiner anderen Art von Pornografie? Dies entspricht buchstäblich nur den genauen Fingerabdrücken bestimmter bekannter kinderpornografischer Bilder.

Er wies auch auf den Sicherheitsvorteil hin, den Matching-Prozess auf die iPhone direkt und nicht auf den Servern von ‌iCloud‌

Da es sich um das [Telefon] handelt, sind Sicherheitsforscher ständig in der Lage, die Vorgänge in der [Telefon]-Software von Apple zu überprüfen. Wenn also Änderungen vorgenommen wurden, die den Anwendungsbereich in irgendeiner Weise erweitern würden – auf eine Weise, die wir uns verpflichtet hatten, es nicht zu tun – gibt es Nachprüfbarkeit, sie können erkennen, dass dies geschieht.

Auf die Frage, ob die Datenbank mit Bildern, die zum Abgleichen mit CSAM-Inhalten auf den Geräten der Benutzer verwendet werden, durch das Einfügen anderer Materialien, wie z. wobei sich mindestens zwei „in unterschiedlichen Gerichtsbarkeiten“ befinden, um vor Missbrauch des Systems zu schützen.

So zeigen Sie die vollständige Website auf dem iPhone an

Diese Kinderschutzorganisationen sowie ein unabhängiger Prüfer werden in der Lage sein zu überprüfen, ob die Bilddatenbank nur aus Inhalten dieser Einrichtungen besteht, so Federighi.

Federighis Interview gehört nach der gemischten öffentlichen Reaktion auf die Ankündigung der Kindersicherheitsfunktionen zu den bisher größten PR-Pushbacks von Apple, aber das Unternehmen hat auch wiederholt versucht, dies zu tun auf die Bedenken der Nutzer eingehen , Veröffentlichung einer FAQ und direktes Ansprechen von Bedenken in Interviews mit den Medien .

Tags: The Wall Street Journal , Craig Federighi , Apple Kindersicherheitsfunktionen