Apples Uploadfilter für iCloud Fotos und iMessage: Die wichtigsten Fragen beantwortet

Alexander Trust, den 10. August 2021
Apple-Werbung auf Hotelwand zu Privatsphäre
Apple-Werbung auf Hotelwand zu Privatsphäre, Bild: Chris Velazco

Momentan gibt es ein echtes Aufregerthema: Apple führt einen Uploadfilter ein. Das Unternehmen bestätigte dieses Vorgehen. Gleichzeitig meldeten sich Experten zu Wort, kritisierten das Vorgehen. Darüber hinaus gibt es Anteilseigner, die an das Unternehmen herantraten. In der Folge veröffentlichte Apple selbst auch eine FAQ.

Das ist Grund genug, zu erläutern, worum es bei dem Thema überhaupt geht. Wir zeigen auch, dass Apple nicht erst jetzt damit anfängt und außerdem nicht das erste Unternehmen ist.

Uploadfilter gegen Kinderpornografie: Worum geht es?

Apple nimmt mit der Veröffentlichung von iOS 15 und iPadOS 15 im Herbst einen Uploadfilter in Betrieb. Dies hatte sich erst im Laufe des Betatests der Betriebssysteme herauskristallisiert. Als Apple die neuen Systeme im Rahmen der WWDC 2021 vorstellte, gab es dazu zunächst keine Informationen. Dies änderte sich in der vergangenen Woche, als Apple eine neue Übersicht veröffentlichte mit Hinweisen, wie man Kindeswohl besser schützen möchte.

Das Unternehmen kontrolliert dabei automatisiert nur Bilder, die auf den Cloudspeicher „in den USA“ hochgeladen werden. Es vergleicht dabei den „Hash-Wert“ einer Bild-Datei vor dem Upload auf iCloud Fotos mit denjenigen einer Datenbank für „Child Sexual Abuse Material“ (CSAM). Kommt es zu Treffern, will Apple dies „irgendwann“ dem „National Center for Missing and Exploited Children“ (NCMEC) melden.

Automatisierter Uploadfilter

Apple will die Fotos auf den Geräten der Nutzer überprüfen, bevor sie in die Cloud hochgeladen werden. Sollte es mit seinem „NeuralHash“-System eine Übereinstimmung finden, wird das Foto vor dem Upload speziell markiert. Es kann dann zu Überprüfungen kommen, wenn ein gewisser Schwellenwert überschritten wird. Vorher bleiben die Bilder verschlüsselt und Apple kann sie nicht einsehen. Wird aber der Schwellenwert überschritten, werden Konzernmitarbeiter sich die Bilder ansehen, um zu entscheiden, ob es sich um meldepflichtiges Material handelt.

Apple „schwört Stein auf Bein“, dass die eigene Technologie eine „extrem hohe Genauigkeit“ habe. Da es hier nicht per se um Nacktheit geht, sondern um Bilder aus Datenbanken, die von echten Kindesmissbrauchsfällen stammen, sollten Urlaubsfotos an dieser Stelle kein Problem darstellen.

iMessage zusätzlich mit Nacktfilter

Ebenfalls ein Stein des Anstoßes ist die Funktion, Bilder in Nachrichten von minderjährigen Kindern auf „Nacktheit“ zu überprüfen. Auch dies soll ein Algorithmus erledigen, nur auf den Geräten der Nutzer. Entdeckt dieser auf einem Bild in einem Chat von Minderjährigen etwas „Nacktheit“, werden die Fotos verwaschen und Kindern wie Eltern gleichermaßen werden darüber informiert, dass die Zöglinge etwas scheinbar Verbotenes tun.

Anfangs wird auch diese Funktion nur in den USA genutzt. Wenn Apple das Feature aber ausweitet, wird eine Probe aufs Exempel sicher das Urlaubsfoto der Familie auf dem FKK-Strand werden.

Diese Nacktheitsüberwachung in der Nachrichten-App wird entsprechend mit iOS 15, iPadOS 15 und aber auch macOS Monterey Einzug halten. Apple betont in seiner FAQ (PDF), dass beide Funktionen explizit nicht dieselbe Technologie zur Erkennung nutzen.

FAQ

Apple veröffentlichte seinerseits in der Folge einer FAQ, die wir im Absatz davor bereits verlinkt haben. Man wollte Unklarheiten aus der Welt schaffen. Einige interessante Themen greifen wir an dieser Stelle noch einmal auf.

Wie wirkt sich dies auf Ende-zu-Ende-Verschlüsselung aus?

Sind Chats deshalb in Zukunft nicht mehr verschlüsselt? Apple scannt die Bilder vor dem Senden auf den Geräten. Die eigentliche Kommunikation bleibt deshalb unberührt.

Werden alle meine Fotos gescannt?

Diese Frage kann Apple grundsätzlich nur mit Ja beantworten, umschifft sie aber ein wenig. Letztlich gibt es ja bereits jetzt Algorithmen, die alle unsere Fotos durchforsten und uns helfen, sie besser zu verstehen. So erkennt Apple Personen, Tiere, Objekte, etc.

Es gibt trotzdem eine Differenzierung. Eine Überprüfung auf Nacktheit soll laut Apple nur dann stattfinden, wenn Eltern die Funktion zum Jugendschutz einschalten und auch dann nur bei Bildern, die Kinder in ihren Nachrichten versenden. Erwachsene, die freizügige Fotos austauschen, werden von dem Algorithmus verschont.

Daneben gibt es dann eben den zweiten Algorithmus, der tatsächlich vor dem Upload von Bildern in die Cloud aktiv wird. Man könnte die Funktion also umgehen, indem man iCloud Fotos deaktiviert. Ansonsten gleicht Apple nicht die Bilder, sondern nur die „Hashes“ ab gegen eine Datenbank von Fotos, die Kinderschutzorganisationen bereitstellen. Apple wehrt sich an dieser Stelle auch gegen Einmischung aus der Politik und behauptet, dass das System nicht manipuliert werden kann und am Ende niemand Angst haben muss, aus Versehen am Pranger zu landen.

Feedback: Kritik und Lob gleichermaßen?

Man habe positives Feedback erhalten, informierte Apple im gleichen Atemzug, als es seine FAQ veröffentlichte. Kindeswohlorganisationen begrüßten den Schritt. Doch auch Sicherheitsunternehmen und Anteilseigner äußerten laut Apple Lob für Apples Vorgehen.

„Since we announced these features, many stakeholders including privacy organizations and child safety organizations have expressed their support of this new solution“.

Doch dies ist nur die eine Seite der Medaille. Denn in den sozialen Medien und aber auch in Publikationen wie der Financial Times äußerten Experten Kritik. Natürlich ließen auch Konkurrenten wie Epic Games CEO Tim Sweeney es nicht aus, das Vorgehen zu kritisieren.

Dammbruch durch Apple?

So veröffentlichte Kryptographie-Experte Matthew Green von der Johns Hopkins Universität eine Reihe von Tweets. Er sieht Apples Schritt kritisch. Das Unternehmen könnte die Überprüfung womöglich irgendwann auch auf Ende-zu-Ende-verschlüsselte Gespräche im Chat ausweiten und außerdem auf ganz andere Kategorien.

Er zeichnet im Verlauf seiner Tweets ein dystopisches Bild von einer Zukunft, in der Apple nun den Dammbruch begangen hat. Regierungen würden ähnliche Filter in Zukunft auch von anderen Unternehmen einfordern. Green sieht zudem einen Widerspruch in Apples Credo von Privatsphäre. Jemand, der jedes einzelne Bild überwache, das ein Nutzer hochlädt, so Green, könne sich diese nicht auf die Fahnen schreiben.

Alec Muffett (Experte für Internetsicherheit) kritisiert Apples Vorgehen ebenfalls, sieht darin einen Rückfall um 1984 Wirklichkeit werden zu lassen. Dies ist als Anspielung auf den Roman von Aldous Houxley gemünzt.

Ross Anderson (Professor in Cambridge) erwartet möglicherweise den Start der Massenüberwachung.

Twitter, Microsoft und Facebook bereits mit Uploadfiltern

Als einer Art von Verteidigung kann man Argumente von Charles Arthur sehen. Der schreibt und belegt, dass Apple mit seinem Uploadfilter gar nicht das erste Unternehmen am Markt ist. Schon 2011 startete Facebook mit einem ähnlichen System. Auch Microsoft und Twitter würden dies tun. Noch früher als Mark Zuckerberg fing laut Arthur jedoch Google damit an. Seit 2008 gibt es einen Uploadfilter gegen kinderpornografische Inhalte beim Suchmaschinenanbieter.

Apple beginnt nicht erst jetzt

Dazu kommt jedoch noch etwas. Jane Horvath, Apples Chief Privacy Officer, äußerte öffentlich bereits früher, dass Apple Inhalte auf kinderpornografische Relevanz überprüfe. Accounts, auf denen entsprechende Inhalte gefunden werden, würden stillgelegt, so Horvath.

Der iPhone-Hersteller änderte übrigens bereits 2019 seine Geschäftsbedingungen und wies darauf hin, hochgeladene Inhalte zu überprüfen. Neu ist lediglich das Ausmaß in Kooperation mit der offiziellen Datenbank.

Spyware von Regierungen?

Tim Sweeney, seines Zeichens Geschäftsführer von Epic Games, sprach von einer Regierungsschnüffelsoftware, die Apple installiert. Die Nutzer würden unter den Generalverdacht gestellt, schuldig zu sein. Dass Sweeney nicht gut auf Apple zu sprechen ist, leuchtet ein. Sein Unternehmen ist im Clinch mit Apple vor Gericht. Grundsätzlich stimmt aber seine Schlussfolgerung. Denn als „unbescholtener“ Bürger zu wissen, dass die eigenen Bilder in jedem Fall in irgendeiner Form, und sei es auch „anonym“ durch einen Algorithmus, geprüft werden, dürfte nicht jedem Gefallen.

Kommt die „Backdoor“?

Die Organisation für digitale Bürgerrechte, die Electronic Frontier Foundation (EFF), kommentierte Apples Entscheidung ebenfalls kritisch. De facto würde das Unternehmen mit diesem Schritt eine Hintertür in seine Systeme einbauen, wenn es darauf ankommt doch verschlüsselte Inhalte einsehen zu können.

Kindesmissbrauch sei eine ernste Angelegenheit, aber Apple würde mit diesem Schritt die Büchse der Pandora öffnen. Denn selbst wenn der Hersteller betont, dass er ein System entwickle, das nicht manipuliert werden könne. Einmal aktiv, könnte es auch durch Dritte angepasst und manipuliert werden, um dann Gespräche zu belauschen in einer Art, in der Apple selbst es gar nicht plant.

Massenüberwachung?

Niemand Geringerer als Edward Snowden spricht auf Twitter deshalb außerdem von einer Massenüberwachung, die der iPhone-Hersteller einführt. Den Verdacht muss Apple aushalten. Der Konzern betont jedoch, dass man keine Ausnahmen machen werde und seinen Datenbankabgleich nicht für Regierungen und auf Druck von außen erweitern werde.

An dieser Stelle wird sich zeigen, wie weit das Band des Vertrauens zwischen Apple und seinen Kunden über die Jahre gewachsen ist, oder ob nicht doch einige dem Vorzeigeunternehmen den Rücken kehren. Kleiner Tipp: Es werden nicht diejenigen sein, die behaupten, sie hätten nichts zu verbergen.


Ähnliche Nachrichten