Editorial: Wanzen in unseren Taschen
Eine Gruppe hochkarätiger Sicherheitsexperten hat sich in der aktuellen Diskussion um Apples Anti-Kinderporno-Scanner zu Wort gemeldet. Unter dem Titel Wanzen in unseren Taschen: Die Risiken clientseitiger Rasterfahndung warnen sie ausdrücklich vor den Gefahren der Technologie. Zu den 14 Autoren gehören unter anderem Ronald L. Rivest, Whitfield Diffie und Bruce Schneier. Rivest dürfte vielen als das "R" im RSA-Algorithmus bekannt sein, Diffie wiederum als einer der beiden Erfinder des Diffie-Hellmann-Schlüsselaustausches. Real basiert die Sicherheit von weit über 99 Prozent aller SSL-Verbindungen vom Online-Banking über Firmen-VPNs bis hin zum WhatsApp-Telefonat auf RSA und/oder Diffie-Hellmann.
Der dritte genannte Autor, Bruce Schneier, ist der Erfinder des Blowfish-Verschlüsselungs-Algorithmus, dessen ebenfalls von ihm entwickelter Nachfolger Twofish es bis in die Endrunde des Wettbewerbs zur Wahl des internationalen Standard-Verschlüsselungsalgorithmus geschafft hatte. Am Ende gewann zwar Rijndael von Vincent Rijmen und Joan Daemen den Wettbewerb. Twofish gilt aber als gleichwertige Alternative.
Alle die genannten Kryptoexperten und die weiteren Autoren des verlinkten Artikels arbeiten daran, dass unser aller Kommunikation im Digitalzeitalter sicher bleibt. Sie sehen daher clientseitige Scanner extrem kritisch: Zum einen ist die Technologie unzuverlässig, zum anderen kann sie für politische Zwecke missbraucht werden.
Falsch-positive und falsch-negative Bilder
Apple will mit dem Algorithmus NeuralHash Nutzer-Dateien auf illegale Inhalte scannen
Bild: picture alliance/dpa/AP | Matthias Schrader
Dass es einfach ist, einen Scanner, der für die Suche nach illegalen
Kinderpornos entwickelt wurde, auch nach anderen, aus der Sicht eines
Regimes jeweils illegalen Inhalten zu suchen,
hatte ich bereits erwähnt. Das perfide ist
ja: Da der Besitz der Dateien, deren Hashes in der Suchliste stehen,
illegal ist, können Datenschützer nur schwer prüfen, ob der Filter
noch für seinen ursprünglich vorgesehenen Zweck oder schon für etwas
ganz anderes verwendet wird.
Hinzu kommt nun nach Aussage der genannten Sicherheitsforscher, dass der Hash selber auch wenig verlässlich ist: Es ist mit geringem Aufwand sowohl möglich, falsch-negative als auch falsch-positive Ergebnisse zu erzeugen. "Falsch negativ" bedeutet, dass Bilder, deren Hash auf der Sperrliste steht, so verändert werden können, dass sich auch ihr Hash ändert, sie aber dennoch gleich aussehen. Die veränderten Bilder werden dann von der Filtersoftware nicht mehr erkannt, obwohl sie ja weiterhin illegal sind. "Falsch positiv" bedeutet hingegen, dass man harmlose Bilder erzeugt, die die gleichen Hashes erzeugen wie die gesuchten.
Die Autoren fanden in einer öffentlichen Bilderdatenbank mit 14 Millionen Bildern bereits zwei Paare von Kollisionen, also eindeutig unterschiedliche Bilder (eines zeigt beispielsweise einen Hammer, das andere einen Wurm), die dennoch demselben Hash-Wert zugeordnet werden. Schlimmer noch: Bereits wenige Wochen nach der Veröffentlichung von Apples NeuralHash wurden Algorithmen gefunden, die harmlose Bilder so manipulieren können, dass sie (aus Sicht von NeuralHash, natürlich nicht in echt) den gesuchten verbotenen Bildern gleichen. Das kann von Protestern oder von Kinderporno-Verbreitern genutzt werden, um virale Bilder (wie die berühmten süßen Katzenbilder oder Hundewelpen) zu erzeugen, die auf Facebook und Co. intensiv geteilt werden, dann aber die Scanner mit Treffern überfluten.
Letztendlich vergleichen die Autoren der genannten wissenschaftlichen Arbeit die Situation für clientseitige Anti-Kinderporno-Scanner mit der der serverseitigen Anti-Spam-Scanner: Ein Teil des problematischen Materials (Kinderporno bzw. Viagra-Werbung) bleibt hängen, aber ein großer Teil geht eben dank Gegenmaßnahmen der Täter unerkannt durch. Zugleich landen legitime E-Mails immer wieder in der Spam-Box. Und weil die clientseitigen Rasterfahnder so schlecht geeignet sind, ihren Zweck zu erfüllen, ist der damit verbundene Grundrechtseingriff erst recht abzulehnen.