Apple NeuralHash (Backdoor)

Man soll ÜBER den Tellerrand schauen, nicht BIS zum Tellerrand! ;)
Das heißt aber nicht, dass man direkt vom Tellerrand herunterspringen muss. 😉

Ich habe nie behauptet, dass mir diese Möglichkeiten und Risiken nicht bewusst sind. Aber ich habe halt eine andere Einschätzung der tatsächlich zu erwartenden Einschränkungen.
 
Aber haben dann nicht doch alle den Mist?

Apple wird ja nicht extra ein Nicht-US-OS rausbringen. Die Möglichkeit wäre dann also vorhanden wenn auch nicht aktiv genutzt außerhalb der USA...
 
das ist kein Verdacht notwendig, Apple hat bereits mehrfach gezeigt, wie sie handeln, wenn es um wichtige Märkte oder Umsätze geht.
Und was meinst du damit konkret? Welchen Auswirkungen hatte das auf dich und den Rest hier?
Apple wird ja nicht extra ein Nicht-US-OS rausbringen. Die Möglichkeit ist dann also vorhanden wenn auch vielleicht (noch) nicht aktiv genutzt außerhalb der USA...
Sie haben auch Sonderwege für China. Selbst die Hardware unterscheidet sich für die Staaten. Ich denke sehr wohl, dass es unterschiedliche Systeme geben kann und wird, bis das Gegenteil bewiesen ist.
 
Ja unglaublich welchen Weg Apple da geht. Wenn ich Baby Fotos von meinem Patenkind in der Badewanne habe und die mir Negativ ausgewertet werden bin ich schon vorverurteilt ein „Kinderschänder“ zu sein. Angeblich wird ja dann der ICloud Account gesperrt ohne weitere Chancen auf Informationen. Mal abgesehen das man dann seinen Ruf als möglicher Kinderschänder nicht mehr von der Backe bekommt kann man seine kompl. Cloud nicht mehr verwenden. Hier wird einem Konzern ein Stück Recht in die Hand gegeben ohne Gerichte.
 
Aber ich habe halt eine andere Einschätzung der tatsächlich zu erwartenden Einschränkungen.
Das wir (in Europa und als normaler Nutzer) aktuell nichts zu befürchten haben ist klar.
Selbst wenn das System wie geplant in betrieb geht ist ein Kampf gegen diese Inhalte durchaus legitim.

Das Problem ist das, was UNWEIGERLICH in den Monaten nach der Einführung kommen wird.
Diese Änderung weckt massive Begehrlichkeiten bei im grunde allen staatlichen Stellen weltweit.
Und es ist dann schon aktiv und eingeführt...

Was man mit diesem System alles anstellen könnte.
Nur eine kleine Anpassung... ein klitzekleiner weiterer hash hinzugefügt.... fällt doch kaum auf....


Und auf der anderen Seite - bekanntes Material in der Verbreitung zu stoppen ist zwar wichtig, hilft kaum gegen die wirklichen Verbrecher.
Vielleicht geht mal indirekt einer ins Netz, aber das wird die absolute Ausnahme bleiben.
 
Das wir aktuell nichts zu befürchten haben ist klar.
Selbst wenn das system wie geplant in betrieb geht ist der Kampf gegen diese Inhalte durchaus legitim.

Das Problem ist das, was UNWEIGERLICH in den Monaten nach der Einführung kommen wird.
Diese Änderung weckt massive Begehrlichkeiten bei im grunde allen staatlichen Stellen weltweit.
Und es ist dann schon aktiv und eingeführt...

Was man mit diesem System alles anstellen könnte.
Nur eine kleine Anpassung... ein klitzekleiner weiterer hash hinzugefügt.... fällt doch kaum auf....
Die Sache ist doch die: Ihr geht davon aus, dass es mit hoher Wahrscheinlichkeit oder definitiv so kommen wird. Ich sehe das halt nicht so pessimistisch. Daran werden eure Argumentationen auch nichts ändern.
 
Ja unglaublich welchen Weg Apple da geht. Wenn ich Baby Fotos von meinem Patenkind in der Badewanne habe und die mir Negativ ausgewertet werden bin ich schon vorverurteilt ein „Kinderschänder“ zu sein. Angeblich wird ja dann der ICloud Account gesperrt ohne weitere Chancen auf Informationen. Mal abgesehen das man dann seinen Ruf als möglicher Kinderschänder nicht mehr von der Backe bekommt kann man seine kompl. Cloud nicht mehr verwenden. Hier wird einem Konzern ein Stück Recht in die Hand gegeben ohne Gerichte.
Bitte erst mal informieren. Gesucht wird nach bekannten, also in älteren Ermittlungsverfahren gefundenen, Darstellungen von Kindesmissbrauch. Ich will nicht verharmlosen, was Apple da plant, das ist in vielerlei Hinsicht problematisch, aber deine Beschreibung entspricht nicht den Tatsachen.
 
Und was meinst du damit konkret? Welchen Auswirkungen hatte das auf dich und den Rest hier?
fragst du das auch chinesische Apple User? Oder Russische?
Die sollen ja sehr begeistert sein darüber, dass Apple die iCloud Daten der User auf Regierungsnahen Servern speichert und den jeweiligen Regierungen direkten oder indirekten Zugriff auf die iCloud Daten eingeräumt hat.
Mit dem Filter und individuellen Anpassungen müssten sie nicht mal mehr die iCloud durchforsten, sie würden die Hinweise auf Regime kritische User nun per automatischer Meldung erhalten.
 
fragst du das auch chinesische Apple User? Oder Russische?
Nein, ich frage konkret euch.

Wie gesagt, ich sehe das ganze eben entspannter, auch weil ich aus beruflichen Gründen da eine andere Sicht drauf habe. Da können wir jetzt noch lang diskutieren, überzeugen werdet ihr mich nicht.
 
Bitte erst mal informieren. Gesucht wird nach bekannten, also in älteren Ermittlungsverfahren gefundenen, Darstellungen von Kindesmissbrauch. Ich will nicht verharmlosen, was Apple da plant, das ist in vielerlei Hinsicht problematisch, aber deine Beschreibung entspricht nicht den Tatsachen.
Grundsätzlich richtig. Aber auch nicht ganz.
Apple fasst aber die Hashwerte mittels KI deutlich weiter als ein 1:1 vergleich der Hashwerte. Deshalb auch der Name: Neural Hash.

Dieses Sytem MUSS - das ist statistisch unumstößlich - deutlich mehr False Positives produzieren.
Und deshalb auch die nachgeschaltete manuelle Auswertung - das system ist darauf ausgelegt möglichst viele ähnliche bildinhalte zu finden die kontrolliert werden müssen.
Und in der Manuellen Auswertung werden garantiert auch fehler gemacht. Geht ja nicht anders, wir sind Menschen.

Zwei Fehlerbehaftete Systeme werden hintereinandergeschaltet und einem Betroffenen wird keine Möglichkeit der Reaktion oder Stellungnahme eingeräumt.


Das gesamte System der Hashwerte ist nicht sonderlich gut für diese angedachte Aufgabe geeignet...
Lest euch das bitte nochmal durch...
https://linus-neumann.de/2012/03/zu-kollisionen-in-hashfunktionen/
 
überzeugen werdet ihr mich nicht.
Das will ich nicht, jeder kann und sollte hier eine eigene Meinung haben.
Wie ich schon im anderen Thread schrieb, habe ich selbst noch keine abschließende Meinung über die Aktion. Dementsprechend werde ich auch erst einmal nichts ändern.
Ich lese nur die - meiner Meinung nach sehr berechtigten - Kommentare von renommierten IT Securiy Spezialisten, Datenschutzverbänden (welche Ironie) und anderen, die das Vorgehen sehr kritisch sehen.
 
Und deshalb auch die nachgeschaltete manuelle Auswertung - das system ist darauf ausgelegt möglichst viele ähnliche bildinhalte zu finden die kontrolliert werden müssen.
Und in der Manuellen Auswertung werden garantiert fehler gemacht. Geht ja nicht anders, wir sind Menschen.
Zudem setzt diese den Zugriff von Apple Mitarbeitern, möglicherweise von extern beauftragten Leuten (Apple Mitarbeiter sind ja vermutlich zu teuer), voraus.
Und was die dann möglicherweise mit den Daten machen, die sie analysieren, darf man sich nicht vorstellen.
 
Och, die NSA hat immer ein Paar Mitarbeiter übrig, die da einspringen können... :suspect:
Beim Einspeisen der Hashwerte ins System und beim Kontrollieren sicherlich auch...

Wie will apple sicherstellen, dass da keine Mitarbeiter mit zwei Arbeitgebern sitzen.
 
Und was meinst du damit konkret? Welchen Auswirkungen hatte das auf dich und den Rest hier?
Man sollte auch an die denken, die genau diese Entscheidung eben nicht mehr treffen können. Wie knapp solche Geshcichten sind, hat man schon mehrfach gesehen in der Geschichte. Geht mich konkret nichts an? Egal, trifft mich nicht..
Bis es dann eben einen selbst trifft. Aber dann ist es zu spät.

Bitte erst mal informieren. Gesucht wird nach bekannten, also in älteren Ermittlungsverfahren gefundenen, Darstellungen von Kindesmissbrauch. Ich will nicht verharmlosen, was Apple da plant, das ist in vielerlei Hinsicht problematisch, aber deine Beschreibung entspricht nicht den Tatsachen.
Youtube: Strg_f zum Thema Kinderpornografie. Oft wird von Pädophilen Bildmaterial aus Quellen genutzt, die normale Familienfotos sind. Bspw. Instagram etc. also Alltagsfotos und private Bilder. Wenn ich diese Bilder in meiner Familien iMessage Gruppe teile, dann falle ich eben absolut ins Raster.

Warum?

Aktuelles Foto von Kiddies im Gartenpool entspricht den bisherigen Bildern von Pädophilen, weil diese genau solche Fotos vorher abgeschnorchelt haben, aus sämtlichen denkbaren Quellen.
Aktuelles Foto von der Tochter beim Turnen/Schwimmen wird geteilt? Hallo Kinderschänder! Ich habe keinen Einfluss darauf und bin gebrandmarkt. Eben weil diese Pädophilen genau solchen Fotos benutzen, teilweise von öffentlichen Webseiten.

Siehe dazu Youtube und Strg_f Kinderpornographie!
 
Zurück
Oben Unten