Apple-News

Apple ist offen für die Erweiterung neuer Kindersicherheitsfunktionen für Apps von Drittanbietern

Montag, 9. August 2021, 12:00 Uhr PDT von Joe Rossignol

Apple hat heute eine Frage-und-Antwort-Runde mit Reportern zu seinem neue Kindersicherheitsfunktionen , und während des Briefings bestätigte Apple, dass es offen sei, die Funktionen in Zukunft auf Apps von Drittanbietern auszuweiten.





Sicherheitsfunktion für die iPhone-Kommunikation
Zur Auffrischung hat Apple drei neue Kindersicherheitsfunktionen vorgestellt, die in zukünftigen Versionen von iOS 15, iPadOS 15, macOS Monterey und/oder watchOS 8 enthalten sein werden.

Apples neue Kindersicherheitsfunktionen

Erstens kann eine optionale Kommunikationssicherheitsfunktion in der Nachrichten-App auf iPhone, iPad und Mac Kinder und ihre Eltern warnen, wenn sie sexuell eindeutige Fotos empfangen oder senden. Wenn die Funktion aktiviert ist, sagt Apple, dass die Nachrichten-App maschinelles Lernen auf dem Gerät verwendet, um Bildanhänge zu analysieren, und wenn festgestellt wird, dass ein Foto sexuell eindeutig ist, wird das Foto automatisch unscharf und das Kind wird gewarnt.



Zweitens wird Apple in der Lage sein, in iCloud Photos gespeicherte Bilder von bekanntem Child Sexual Abuse Material (CSAM) zu erkennen, sodass Apple diese Vorfälle dem National Center for Missing and Exploited Children (NCMEC) melden kann, einer gemeinnützigen Organisation, die zusammenarbeitet mit US-Strafverfolgungsbehörden. Apple hat heute bestätigt, dass der Vorgang nur für Fotos gilt, die in iCloud-Fotos hochgeladen werden, und nicht für Videos.

Drittens wird Apple die Anleitungen in Siri und Spotlight Search geräteübergreifend erweitern, indem zusätzliche Ressourcen bereitgestellt werden, die Kindern und Eltern helfen, online sicher zu bleiben und Hilfe in unsicheren Situationen zu erhalten. Beispielsweise werden Benutzer, die Siri fragen, wie sie CSAM oder Ausbeutung von Kindern melden können, auf Ressourcen hingewiesen, wo und wie sie eine Meldung einreichen können.

Erweiterung auf Apps von Drittanbietern

Apple sagte, dass es heute zwar nichts in Bezug auf eine Ankündigung zu sagen hat, aber die Ausweitung der Kindersicherheitsfunktionen auf Dritte, damit die Benutzer noch umfassender geschützt sind, ein wünschenswertes Ziel wäre. Apple hat keine konkreten Beispiele genannt, aber eine Möglichkeit könnte sein, dass die Kommunikationssicherheitsfunktion Apps wie Snapchat, Instagram oder WhatsApp zur Verfügung gestellt wird, damit sexuell eindeutige Fotos, die ein Kind erhält, unscharf werden.

Eine andere Möglichkeit besteht darin, dass das bekannte CSAM-Erkennungssystem von Apple auf Apps von Drittanbietern ausgeweitet werden könnte, die Fotos an anderer Stelle als iCloud-Fotos hochladen.

Apple gab keinen Zeitrahmen dafür an, wann die Kindersicherheitsfunktionen auf Dritte ausgeweitet werden könnten, und wies darauf hin, dass das Testen und die Bereitstellung der Funktionen noch abgeschlossen werden muss und das Unternehmen auch sicherstellen muss, dass eine mögliche Erweiterung nicht möglich ist die Datenschutzeigenschaften oder die Wirksamkeit der Funktionen untergraben.

Im Großen und Ganzen sagte Apple, dass die Erweiterung von Funktionen für Dritte der allgemeine Ansatz des Unternehmens ist, und dies seit der Einführung der Unterstützung für Apps von Drittanbietern mit der Einführung des App Store auf iPhone OS 2 im Jahr 2008.