Apple will nicht zulassen, dass die Regierung seine Tools zur Erkennung von Kindesmissbrauch in eine Überwachungswaffe verwandelt

0

Nach heftiger Kritik hat Apple seine Pläne zur Einführung umstrittener neuer Tools verteidigt, die darauf abzielen, Material mit sexuellem Missbrauch von Kindern (CSAM) auf seinen Plattformen zu identifizieren und zu melden.

Letzte Woche kündigte das Unternehmen in einem Blogbeitrag mit dem Titel “Expanded Protections for Children” (Erweiterter Schutz für Kinder) mehrere anstehende Aktualisierungen an. Diese neuen Funktionen, die im Laufe des Jahres mit der Veröffentlichung von iOS 15 und iPadOS 15 eingeführt werden sollen, sind so konzipiert, dass sie mithilfe von algorithmischen Scans nach Material über Kindesmissbrauch auf den Geräten der Nutzer suchen und dieses identifizieren. Ein Tool scannt Fotos auf dem Gerät, die mit iCloud geteilt wurden, auf Anzeichen von CSAM, während die andere Funktion iMessages scannt, die an und von Kinderkonten gesendet werden, um Minderjährige vom Teilen oder Empfangen von Nachrichten mit sexuell eindeutigen Bildern abzuhalten. Wir haben beide Funktionen und die damit verbundenen Bedenken hier ausführlicher beschrieben.

Das Unternehmen hatte kaum Zeit, seine Pläne letzte Woche anzukündigen, bevor es mit einem lautstarken Aufschrei von Bürgerrechtsorganisationen konfrontiert wurde, die die vorgeschlagenen Änderungen als gut gemeint, aber letztlich als eine gefährliche Aushöhlung der persönlichen Privatsphäre bezeichnet haben.

Am Montag veröffentlichte Apple eine Antwort auf viele der geäußerten Bedenken. Das Unternehmen bestritt ausdrücklich, dass seine Scan-Tools eines Tages dazu verwendet werden könnten, auf den Telefonen und Computern der Nutzer nach anderen Arten von Material als CSAM zu suchen. Kritiker befürchten, dass eine Regierung (unsere oder eine andere) Apple unter Druck setzen könnte, die neuen Funktionen hinzuzufügen oder zu ändern, um sie beispielsweise zu einem umfassenderen Instrument der Strafverfolgung zu machen.

In einem seltenen Fall, in dem ein Unternehmen ein festes Versprechen abgibt, etwas nicht zu tun, sagte Apple jedoch definitiv, dass es die Reichweite seiner Scan-Funktionen nicht erweitern wird. Nach Angaben des Unternehmens:

Apple wird alle derartigen Forderungen [seitens einer Regierung]ablehnen. Apples CSAM-Erkennungsfunktion ist ausschließlich darauf ausgelegt, bekannte CSAM-Bilder zu erkennen, die in iCloud Photos gespeichert sind und von Experten des NCMEC und anderen Kinderschutzgruppen identifiziert wurden. Wir waren schon früher mit Forderungen konfrontiert, staatlich verordnete Änderungen zu entwickeln und zu implementieren, die die Privatsphäre der Nutzer beeinträchtigen, und haben diese Forderungen stets abgelehnt. Wir werden sie auch in Zukunft ablehnen.

 

Share.

Leave A Reply