Apple-News

Apple stellt neue Kindersicherheitsfunktionen vor, darunter das Durchsuchen der Fotobibliotheken von Benutzern auf Material mit bekanntem sexuellem Missbrauch

Donnerstag, 5. August 2021, 13:00 Uhr PDT von Joe Rossignol

Apple heute Vorschau auf neue Kindersicherheitsfunktionen das noch in diesem Jahr mit Software-Updates auf seine Plattformen kommen wird. Das Unternehmen sagte, dass die Funktionen nur in den USA zum Start verfügbar sein und im Laufe der Zeit auf andere Regionen ausgeweitet werden.





Sicherheitsfunktion für die iPhone-Kommunikation

Kommunikationssicherheit

Erstens erhält die Nachrichten-App auf dem iPhone, iPad und Mac eine neue Kommunikationssicherheitsfunktion, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos empfangen oder senden. Apple sagte, dass die Nachrichten-App maschinelles Lernen auf dem Gerät verwenden wird, um Bildanhänge zu analysieren. Wenn festgestellt wird, dass ein Foto sexuell eindeutig ist, wird das Foto automatisch unscharf und das Kind wird gewarnt.



Was passiert, wenn du jemanden facetimest, der bereits Facetiming macht?

Wenn ein Kind versucht, ein in der Nachrichten-App als sensibel gekennzeichnetes Foto anzuzeigen, wird es darauf hingewiesen, dass das Foto möglicherweise private Körperteile enthält und dass das Foto möglicherweise verletzend ist. Je nach Alter des Kindes besteht auch die Möglichkeit, dass Eltern eine Benachrichtigung erhalten, wenn ihr Kind das sensible Foto weiter ansieht oder nach einer Warnung ein sexuell eindeutiges Foto an einen anderen Kontakt sendet.

Apple sagte, dass die neue Kommunikationssicherheitsfunktion später in diesem Jahr in Updates für iOS 15, iPadOS 15 und macOS Monterey für Konten erscheinen wird, die als Familien in iCloud eingerichtet wurden. Apple hat dafür gesorgt, dass iMessage-Konversationen durch eine Ende-zu-Ende-Verschlüsselung geschützt bleiben, sodass private Kommunikationen von Apple nicht gelesen werden können.

Scannen von Fotos auf Material zum sexuellen Missbrauch von Kindern (CSAM)

Zweitens wird Apple ab diesem Jahr mit iOS 15 und iPadOS 15 in der Lage sein, in iCloud Photos gespeicherte Bilder von bekanntem Child Sexual Abuse Material (CSAM) zu erkennen, sodass Apple diese Vorfälle dem National Center for Missing and Exploited Children (NCMEC) melden kann. , eine gemeinnützige Organisation, die mit US-amerikanischen Strafverfolgungsbehörden zusammenarbeitet.

Apple sagte, dass seine Methode zur Erkennung von bekanntem CSAM unter Berücksichtigung der Privatsphäre der Benutzer entwickelt wurde. Anstatt Bilder in der Cloud zu scannen, sagte Apple, dass das System einen Abgleich auf dem Gerät mit einer Datenbank mit bekannten CSAM-Bild-Hashes durchführt, die von der NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Apple sagte, dass es diese Datenbank weiter in einen unlesbaren Satz von Hashes umwandeln wird, der sicher auf den Geräten der Benutzer gespeichert wird.

Die Hashing-Technologie namens NeuralHash analysiert ein Bild und wandelt es laut Apple in eine eindeutige Nummer um, die für dieses Bild spezifisch ist.

„Der Hauptzweck des Hashs besteht darin, sicherzustellen, dass identische und optisch ähnliche Bilder zu demselben Hash führen, während Bilder, die sich voneinander unterscheiden, zu unterschiedlichen Hashs führen“, sagte Apple in einem neuen Whitepaper „Erweiterter Schutz für Kinder“. 'Beispielsweise wird ein Bild, das leicht beschnitten, verkleinert oder von Farbe in Schwarzweiß umgewandelt wurde, genauso behandelt wie das Original und hat denselben Hash.'

Apple Csam Flussdiagramm
Bevor ein Bild in iCloud Photos gespeichert wird, wird laut Apple ein Abgleichprozess auf dem Gerät für dieses Bild mit dem nicht lesbaren Satz bekannter CSAM-Hashes durchgeführt. Bei Übereinstimmung erstellt das Gerät einen kryptografischen Sicherheitsgutschein. Dieser Gutschein wird zusammen mit dem Bild in iCloud Photos hochgeladen, und sobald ein nicht bekannt gegebener Schwellenwert von Übereinstimmungen überschritten wird, kann Apple den Inhalt der Gutscheine für CSAM-Spiele interpretieren. Apple überprüft dann manuell jeden Bericht, um zu bestätigen, dass eine Übereinstimmung vorliegt, deaktiviert das iCloud-Konto des Benutzers und sendet einen Bericht an NCMEC. Apple teilt nicht den genauen Schwellenwert mit, stellt jedoch eine „extrem hohe Genauigkeit“ sicher, dass Konten nicht falsch gekennzeichnet werden.

Apple sagte, seine Methode zur Erkennung von bekanntem CSAM bietet gegenüber bestehenden Techniken „erhebliche Vorteile für die Privatsphäre“:

• Dieses System ist eine effektive Methode, um bekannte CSAMs zu identifizieren, die in iCloud Photos-Konten gespeichert sind, und gleichzeitig die Privatsphäre der Benutzer zu schützen.
• Als Teil des Prozesses können Benutzer auch nichts über den Satz bekannter CSAM-Images erfahren, der für den Abgleich verwendet wird. Dies schützt den Inhalt der Datenbank vor böswilliger Verwendung.
• Das System ist sehr genau, mit einer extrem niedrigen Fehlerquote von weniger als einer von einer Billion Konten pro Jahr.
• Das System schützt die Privatsphäre deutlich mehr als Cloud-basiertes Scannen, da es nur Benutzer meldet, die eine Sammlung bekannter CSAMs in iCloud Photos gespeichert haben.

Die zugrunde liegende Technologie hinter dem Apple-System ist ziemlich komplex und wurde als technische Zusammenfassung mit mehr Details.

„Der erweiterte Schutz von Apple für Kinder ist bahnbrechend. Bei so vielen Menschen, die Apple-Produkte verwenden, haben diese neuen Sicherheitsmaßnahmen lebensrettendes Potenzial für Kinder, die online gelockt werden und deren schreckliche Bilder in Material zum sexuellen Missbrauch von Kindern verbreitet werden“, sagte John Clark, Präsident und CEO des National Center for Missing & ausgebeutete Kinder. „Wir vom National Center for Missing & Exploited Children wissen, dass dieses Verbrechen nur bekämpft werden kann, wenn wir uns konsequent für den Schutz von Kindern einsetzen. Dies können wir nur tun, weil Technologiepartner wie Apple zupacken und ihr Engagement kundtun. Die Realität ist, dass Privatsphäre und Kinderschutz nebeneinander existieren können. Wir applaudieren Apple und freuen uns auf die Zusammenarbeit, um diese Welt für Kinder sicherer zu machen.'

Erweiterte CSAM-Anleitung in Siri und Suche

iphone csam siri
Drittens sagte Apple, dass es die Anleitungen in Siri und Spotlight Search auf Geräte ausweiten wird, indem zusätzliche Ressourcen bereitgestellt werden, die Kindern und Eltern helfen, online sicher zu bleiben und Hilfe in unsicheren Situationen zu erhalten. Beispielsweise werden Benutzer, die Siri fragen, wie sie CSAM oder Ausbeutung von Kindern melden können, auf Ressourcen hingewiesen, wo und wie sie eine Meldung einreichen können.

Die Updates für Siri und Search kommen laut Apple noch in diesem Jahr in einem Update für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey.

Hinweis: Aufgrund des politischen oder gesellschaftlichen Charakters der Diskussion zu diesem Thema befindet sich der Diskussionsthread in unserem Politische Nachrichten Forum. Alle Forumsmitglieder und Site-Besucher sind herzlich eingeladen, den Thread zu lesen und zu verfolgen, aber das Posten ist auf Forumsmitglieder mit mindestens 100 Beiträgen beschränkt.

Tags: Apple-Datenschutz , Apple-Kindersicherheitsfunktionen