Apple NeuralHash (Backdoor)

Ich habe kein Verständnis dafür, dass plötzlich alle Apple-User unter den Generalverdacht des Kindesmissbrauchs gestellt werden. Das ist doch alles völlig krank. Ist das die Mentalität der Amis?
Das ist die Mentalität der Nicht-Denker und der "Ich hab doch nichts zu verbergen" Fraktion.

Diskutier darüber mal, irgendwo in der richtigen Welt, in der Pause am Arbeitsplatz oder an der Kasse im Supermarkt. Dann kommt einer und sagt: "Wenn auch nur ein Kind weniger vergewaltigt wird, ist es den Verzicht auf Privatsphäre dann nicht schon wert?"
Was war denn bei Zensursula damals los? "Denkt auch mal einer an die Kinder?" "Kinder sind unsere Zukunft" usw.

Kinderporno ist immer der Aufhänger, weil man damit von 95% der Menschen die Zustimmung bekommt. Danach sind "Schwerstverbrechen" dran, danach Verbrechen gegen Minderheiten und irgendwann interessiert es keinen mehr, dann ist es Standard. Ich schätze mal ein Großteil von uns wird das noch erleben. Wobei: Wenn man mal genau überlegt was für Gadgets und Technologien man heute schon freiwillig nutzt, würde ich behaupten dass wir nur noch ein oder zwei Regierungen brauchen um wirklich alles nachverfolgen zu können. Es wird ja nicht von heute auf morgen dramatische Änderungen geben, sondern nach und nach (Seit Anfang August z.B. ist der Fingerabdruck im Perso obligatorisch).
 
  • Gefällt mir
Reaktionen: 518iT, dg2rbf, 10tacle und 2 andere
Alles ziemlich doppelplusungut das Ganze.
Und demnächst kommt das Gedankenverbrechen, überwacht von der Gedankenpolizei?
Dauert alles nicht mehr lange. Vieles ist schon da.
 
  • Gefällt mir
Reaktionen: Elebato und dg2rbf
Rasterfahndung hieß das früher.
Iirc hatte Herold das damals nur wieder aus der verstaubten Schublade gezogen, weil es effektiv funktioniert.
Die Ursprünge liegen iirc bei der Gestapo, wo man diese effektive Methode in Kobination mit "modernster Technik" nutze, um Staatsfeinde zu lokalisieren.
--> https://de.wikipedia.org/wiki/IBM_und_der_Holocaust
--> https://www.amazon.de/IBM-Holocaust-Strategic-Alliance-Corporation-Expanded-ebook/dp/B00AGIDA8A
Sehr lesenwert!
 
  • Gefällt mir
Reaktionen: dg2rbf
  • Gefällt mir
Reaktionen: dg2rbf
  • Gefällt mir
Reaktionen: bowman, PowerCD, pbro und eine weitere Person
Für den Nutzer ändert sich momentan meines Erachtens nichts, weil Apple nur Photos scannt, die es bisher auch gescannt hat - bisher in der iCloud, nun lokal. Das Missbrauchspotenzial ist allerdings natürlich noch höher und die Begehrlichkeiten der Regierungen weltweit werden größer.

Grundsätzlich ist das hauptsächlich ein Problem der Politik und der Wähler, aber die Erfahrung zeigt auch, dass die Anbieter großen Einfluss haben, den sie bisher genutzt haben, um den Behörden weniger Zugriff zu geben, als diese wünschten (Einführung von E2E, etc.).

Warum sich Apple hier freiwillig angreifbar macht und einen (noch kleinen) Schritt von Tim Cooks Maxime, dass alles auf dem iPhone privat ist, und nur was in die Cloud gelangt von Apple auf Anforderung an die Behörden weitergeleitet wird, weggeht, ist bemerkenswert.
 
  • Gefällt mir
Reaktionen: geronimoTwo, 518iT und dg2rbf
Warum sich Apple hier freiwillig angreifbar macht und einen (noch kleinen) Schritt von Tim Cooks Maxime, dass alles auf dem iPhone privat ist, und nur was in die Cloud gelangt von Apple auf Anforderung an die Behörden weitergeleitet wird, weggeht, ist bemerkenswert.

Ich kann die Ankündigung aktuell (speziell im Kontext von Pegasus) auch nicht wirklich einorden.
Bei Apple arbeiten ja keinesfalls nur dumme/ignorante Menschen.
Sprich die ganze Diskussion, die gerade in den Medien/im Netz passiert, sollte eigentlich auch Apple-intern schon längst passiert sein.

Meine persönliche Ponyhof-Wunschphantasie wäre, daß Apple das bewußt gemacht hat, um diese gesellschaftliche Diskussion zu befeuern.
Der Realistist in mir spricht einem jeden Wirtschaftsunternehmen "Ethik & Moral" als Handlungsgrundlage ab.
Das sieht man bei Apple schön bei den Arbeitsbedingungen der Zulieferer, speziell den Rohstofflieferanten, als auch bei so profanen Dingen wie "Right to repair" und einem (imho) wenig nachhaltigen Produktdesign.
 
  • Gefällt mir
Reaktionen: 518iT und dg2rbf
Grundsätzlich ist das hauptsächlich ein Problem der Politik und der Wähler
Wenn du wählen kannst. Mit dem gleichen Mechanismus kann China Leute finden, die Bilder auf dem Handy haben, welche sich zum muslimischen Glauben zuordnen lassen. Und diese Leute können ihre Führer nicht abwählen.
 
  • Gefällt mir
Reaktionen: drd[cc] und dg2rbf
Im Grunde eine müßige Diskussion. Kinder werden dadurch definitiv nicht besser geschützt, als vorher. Wenn es Bilder der sexuellen Gewalt gibt, ist diese ja schon geschehen.

Null Verbesserung der Prävention, es hat lediglich forensische Funktion. Wie schon angedacht, die Täter weichen einfach auf andere Formen der Bildsicherung aus.
Entweder ist es wenig durchdachter Aktionismus, oder es stecken andere Ziele dahinter. Sehr enttäuschend.
 
  • Gefällt mir
Reaktionen: Italiano Vero, Carmageddon, 518iT und eine weitere Person
Ich habe mein Vertrauen in Apple verloren. Meine bittere Erkenntnis ist, dass Apple der Datenschutz völlig egal zu sein scheint. So einen schäbigen Grund für eine generelle anlasslose Überwachung vorzuschieben finde ich erbärmlich.
 
  • Gefällt mir
Reaktionen: barba64, Italiano Vero, bowman und 6 andere
Sprich die ganze Diskussion, die gerade in den Medien/im Netz passiert, sollte eigentlich auch Apple-intern schon längst passiert sein.
Das ist halt immer die Frage.
Apple hätte die Sache sicher auch gerne offiziell angekündigt, bevor diverse Seiten und Social Media schon aufgrund irgendwelcher Leaks auf Twitter darüber diskutieren.
Alleine die Menge an US Teenager, die denken jedes anzügliche Foto das sie nun per iMessage versenden könnte als Kinderpornographie eingestuft werden ist beachtlich.
 
  • Gefällt mir
Reaktionen: dg2rbf
Die menge an Teenagern, die nicht darüber nachgedacht haben ist sicherlich auch sehr hoch...
Teenager sind ja auch eine ganze Zeit Banane im Kopp...

Das, was du beschreibst ist ja eine andere frisch geleakte Funktion...
Kann man auch drüber streiten, aber die Eltern zu informieren, wenn ein Kinderaccount freizügige Fotos im Chat Teilt/Anschaut ist in meinen Augen eine andere Hausnummer.
Vor allem, weil dem Kind/Teenager die Wahl gelassen wird das Bild anzuschauen oder auch nicht.
Eingeblendete hilfsangebote sind auch nicht verkehrt...

Es passiert also nix einfach im Hintergrund sondern man kann aktiv Einfluss nehmen.
 
  • Gefällt mir
Reaktionen: dg2rbf
Und viele haben eben angenommen, dass CSAM und das iMessage Feature gleich funktionieren...
Und viele denken, dass die private Foto Bibliothek konstant gegen die CSAM gescannt wird was auch nicht der Fall ist...
Ich denke du kommst selbst auf den Rest...ich halt dann auch meinen Mund.
 
  • Gefällt mir
Reaktionen: dg2rbf
Und viele denken, dass die private Foto Bibliothek konstant gegen die CSAM gescannt wird was auch nicht der Fall ist...
Ist es nicht? Solange iCloud Fotos aktiviert ist sollte doch genau das Passieren.

Am besten ist ja noch folgendes...
Durchaus weit hergeholt...

Man ist Mitglied in einer harmlosen Whatsapp Gruppe.
Als Beipiel eine interne gruppe einer großen Partei mit mehreren tausend mitgliedern aus der Basis.
Irgendjemand hat die auf dem kieker und kommt irgendwie als neuer User dazu und Postet CSAM zeug.

Die Whatsapp medien werden bei vielen direkt in die Fotomediathek übertragen.
Dann kommt Apple, scannt das zeug und macht gleich meldung.

Die leute müssen es ja noch nichtmal angesehen haben
Vielleicht werden die whatsapp nachrichten von einem aufpassenden bot nach 1/2/3 minuten gelöscht. oder andere in der whatsapp gruppe haben es gemeldet und es wurde direkt entfernt und der User wird schon verfolgt...

Aber der iCloud account hat den mist gecached und du stehst nach dem Scan gleich in einer Datenbank in der du nicht stehen willst.
Nach Apple zu recht. Im grunde auch zu Recht, aber eben eigentlich komplett unschuldig.

Natürlich ist das ein konstruierter fall.
Derjenige müsste eine große kriminelle Energie aufbringen (und CSAM material organisieren.)
Aber die Privaten/Politischen/Gesellschaftlichen folgen könnten für etliche gravierend sein...

Natürlich währen sie das auch ohne das Scannen von Apple, weil wenn es richtig läuft natürlich jeder in so einer Gruppe auch eine Selbstanzeige wegen Besitzes von CSAM erstatten würde. Aber diese entscheidung der selbstanzeige wird einem eh direkt abgenommen weil die nächste Polizeiwache weiter weg ist, als die Datenstrukturen im Internet.

Viele kennen sicherlich auch nicht das korrekte vorgehen bei plötzlichem unerwartetem auftreten von CSAM.
Ich bin beruflich bedingt (Unter anderem Fernwartung privater Rechner) darin unterwiesen hatte aber das Glück noch nie eine Meldung machen zu müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: geronimoTwo und dg2rbf
Und viele denken, dass die private Foto Bibliothek konstant gegen die CSAM gescannt wird was auch nicht der Fall ist...
Einmal jedes Bild scannen reicht doch. Das muss ja nicht ständig geschehen.
 
  • Gefällt mir
Reaktionen: dg2rbf
@tocotronaut : Reales Polizeiseminar in der Lehrerausbildung Thema:“WhatsApp und Co.“
Es gibt Fälle wo Schüler(innen) Lehrern Fotos von sich geschickt haben, freizügige Fotos. Die gleiche Schülerin hat das dann den Eltern/Kollegen/Schulleitung und schlussendlich auch Polizei als unfreiwilligen Zwang verkauft. Der Lehrer hatte extreme Mühe da erstmal überhaupt angehört zu werden, geschweige denn das Vertrauen und den Glauben der Kollegen zu bekommen. Er konnte es letztlich auflösen und die Schülerin wurde entsprechend der Möglichkeiten belangt. Hängengeblieben ist trotzdem etwas. „War das wirklich nur die Idee der Schülerin?“ etc.

Der betroffene Kollege hat anschließend die Schule gewechselt und ist 150km umgezogen. Warum?
Ursache: Schülerin unzufrieden, Lehrer hat Bilder auf dem Handy - fertig.
Allein der Besitz ist hier schon ausreichend, egal wie man in selbigen gekommen ist.

Und zu neuralHash nochmal: Hier geht es um kinderpornografie (anormale Sexualität), in Russland vllt um homosexuelle Paare (auch nur eine Art anormale Sexualitat im politischen System). Wie gut Apple sich anpasst sieht man beim Versuch ein Pride Armband in RU zu bestellen..

Sollte dieses Feature wirklich in iOS15 kommen, bin ich was iOS angeht raus. Das ist wirklich überhaupt nicht zu rechtfertigen oder in irgendeiner Weise akzeptabel.
 
  • Gefällt mir
  • Wow
Reaktionen: StHenker, Italiano Vero, drd[cc] und 6 andere
Das "Feature" soll wohl auch in Mac OS 12 "Monterey" kommen.
 
  • Gefällt mir
Reaktionen: oktagon
Wenn es in IOS kommt, dann kommt es sicher später auch in MACOS. Auch da gibe es ja die fotos App. Und warum sollte Apple das überhaupt bei Mediendateien belassen? So eine gutmenschliche Intention drängt förmlich dazu, alle Dateien auf dem Rechner und angeschlossenen Netzwerken und Festplatten zu scannen. Nicht, dass ein Bösewicht durch andere Dateitypen oder Folder davon kommt …
HG
 
  • Gefällt mir
Reaktionen: dg2rbf
Ich kann es mir kaum vorstellen, dass das wirklich kommt. ich hoffe da auf ein zurückrudern oder 1. April. 😕

Ich bin ja sonst sehr vorsichtig mit Orwell vergleichen, aber jetzt ist das schon echt krass.
 
  • Gefällt mir
Reaktionen: dg2rbf
Zurück
Oben Unten