Apple verschiebt CASM-Scan

  Ralf Hersel   Lesezeit: 4 Minuten

Aufgeschoben ist nicht aufgehoben.

apple verschiebt casm-scan

Apple wird die Einführung neuer Tools zur Erkennung von Material über dokumentierten Kindesmissbrauch (CSAM: Child Sexual Abuse Material) verschieben. Das Unternehmen sagt, es wolle sich mehr Zeit nehmen, um "Verbesserungen vorzunehmen", nachdem von vielen Seiten Bedenken hinsichtlich des Datenschutzes und Missbrauchs geäussert wurden.


Das Technologieunternehmen hatte angekündigt, neue Verfahren einzuführen, die CSAM direkt auf dem Smartphone erkennen können und nicht erst, nachdem das Material auf Apples iCloud hochgeladen wurde (wo Inhalte sowieso auf Illegalität überprüft werden). Nach dem Überschreiten eines Schwellwertes (30 Fotos) wollte man dies den Behörden melden.

Die grosse Kritik von Techportalen (Heise, GolemGnu/Linux.ch berichtete) aber auch von Mainstream-Medien (Zeit, Spiegel, FAZ) bezog sich auf das Missbrauchspotential dieser Technologie durch autoritäre Regierungen, um nach anderen Arten von Bildmaterial zu suchen (z.B. politische Gesinnung).

Apple hat nun bestätigt, dass die Einführung nach dem fast ausschliesslich negativen Feedback, verschoben wird. In einer Update-Notiz zur Seite 'Child Safety' sagte das Unternehmen:

Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äusserst wichtigen Funktionen zum Schutz von Kindern veröffentlichen.

Meinung

Mit der Ankündigung, ein gekauftes Gerät (iPhone) vollständig der Kontrolle des Benutzers und Eigentümers zu entziehen, hat Apple die Büchse der Pandora geöffnet. Bisher konnten Anwender eines iPhones darauf vertrauen, dass Inhalte auf ihrem Gerät verblieben, solange diese nicht auf die "Rechner anderer Leute" (iCloud) hochgeladen wurden. Einige Leserinnen werden einwenden, dass der Zweck die Mittel heiligt, wenn es darum geht, die vier Reiter der Infokalypse zu besiegen: dokumentierter Kindesmissbrauch, Terrorismus, Drogenhandel und organisierte Kriminalität. Die Unterscheidung zwischen diesen zu bekämpfenden Inhalten und dem völligen Verlust der Privatsphäre ist jedoch nicht möglich, wie Apples Vorgehen in China deutlich zeigt. Regime werden Apple zwingen, die Inhaltsfilter auf ihnen unliebsame Verhaltensweisen zu justieren. Eine gute Betrachtung liefert dieser Artikel von Edward Snowden bei Netzpolitik.org.

Apple hat mit seiner Ankündigung von CASM-Scan auf Privatgeräten den grösstmöglichen Marketing-Unfall erlitten. Mit einem Schlag hat das Unternehmen bewiesen, dass Apple eben nicht für "Privatsphäre und Datenschutz" steht, sondern diese Werte ganz offenkundig nicht in der Firmenkultur verankert sind. Das ist eine 180-Grad-Wende innerhalb von zwei Wochen.

Was nun geschehen wird: Die Funktion ist implementiert, die Kneifzangen der US-amerikanischen Behörden beissen immer mehr in Tim Cooks Daumen, die Regime haben Blut geleckt. Nun heisst es den Ball flach zu halten. Der mediale GAU muss nun ausgesessen und darüber stillgeschwiegen werden, bis der CASM-Scan für alle Apple-Konsumenten still und heimlich eingeschaltet werden kann.

Was können wir dagegen tun? Die Antwort ist trivial.

Quelle: https://www.apple.com/child-safety/

Tags

Apple, CASM-Scan, CSAM, Child, Zeit, Scan, Material, CASM

Es wurden noch keine Kommentare verfasst, sei der erste!