Apple NeuralHash (Backdoor)

Und jetzt will Apple auch damit anfangen.
Der Unterschied ist, das Microsoft OneDrive Inhalte scant und Apple schon auf dem iPhone scant.
Security Spezialisten bezeichnen das als iOS Backdoor.
 
  • Gefällt mir
Reaktionen: eyvenT und dg2rbf
Stimmt, MS hat ja kein phone mehr, ich glaube, die würden das auch machen wenn MS noch eins hätte.
 
Apple scannt doch schon lange die Photos auf dem iPhone. Woher kommen denn die ganzen thematisierten Rückblicke? Oder die Ordner für Personen, Tiere etc., die man selbst nicht erstellt hat?
 
Stimmt, MS hat ja kein phone mehr, ich glaube, die würden das auch machen wenn MS noch eins hätte.
Sie könnten ja auch die Inhalte der vielen Millionen Windows 10 Geräte scannen, die mit OneDrive verbunden sind.
Aber das tun sie nicht.
 
Bisher hat Apple die Ergebnisse der lokalen Scans aber (angeblich) nicht zum automatisierten Abgleich irgend wo hoch geladen.
 
Sie könnten ja auch die Inhalte der vielen Millionen Windows 10 Geräte scannen, die mit OneDrive verbunden sind.
Aber das tun sie nicht.
MS scannt viel auf W10 Rechner. Wird bei W11 nicht besser werden. Was die FotosApp von MS macht, weiß ich allerdings nicht. Ich nutze die auch nicht.
 
  • Gefällt mir
Reaktionen: dg2rbf
MS scannt viel auf W10 Rechner. Wird bei W11 nicht besser werden. Was die FotosApp von MS macht, weiß ich allerdings nicht. Ich nutze die auch nicht.
Mmmh, Telemetrie Daten sind etwas anderes als das Scannen persönlicher Daten.
Meines Wissens nach erfolgt das nicht bei lokalen Daten.

Microsoft benutzt ja die selbst entwickelte Technik PhotoDNA: https://en.m.wikipedia.org/wiki/PhotoDNA
Diese wird auch von diversen anderen Firmen eingesetzt.
 
  • Gefällt mir
Reaktionen: Strunzoelp
Es wundert mich, dass dieser Thread erst zwei Seiten hat, denn über das Thema wird seit gestern in allen Online-Zeitungen berichtet. Und der Tenor ist überall derselbe: “Apple, lass das.“

Ich sehe das große Risiko darin, dass Regierungen verlangen werden, nach weiteren Hashes zu suchen, um ihnen unliebsame Menschen ausfindig zu machen. Und Apple wird mitmachen, man muss sich ja schließlich an die lokalen Gesetze halten, wie es bereits beim Entfernen der VPN-Apps im chinesischen AppStore hieß.

Und natürlich führt so eine Technik auch zu false positive- und false negative-Ergebnissen. Apple behauptet, es gäbe kaum false positives, weshalb es dann wohl viele false negatives geben muss. Dann nutzt die Technik allerdings auch nicht viel bei dem, was Apple da plant. Aber jeder false positive bedeutet im Rahmen von KiPo auch polizeiliche Maßnahmen, und den Verdacht wird man nie wieder los.

Zuletzt der geplante Pornofilter. Der gilt als opt-in und wirkt nur bei Jugendlichen. Aber auch da sehe ich Apples Potenzial, ihre Betriebssysteme „sauber“ zu halten und deshalb diesen Filter irgendwann als default zu aktivieren.

Es ist einfach zu gefährlich, so etwas zu machen. Apple, lasst das.
 
  • Gefällt mir
Reaktionen: Italiano Vero, Scum, Samson76 und 7 andere
Und natürlich führt so eine Technik auch zu false positive- und false negative-Ergebnissen. Apple behauptet, es gäbe kaum false positives, weshalb es dann wohl viele false negatives geben muss.
Wenn das so gut funktioniert wie iTunes Match, dann gute Nacht :hehehe:.

Nein, im Ernst, das Thema ist zu wichtig, um es ins Lächerliche zu ziehen, du hast völlig Recht mit deinen Aussagen.
 
  • Gefällt mir
Reaktionen: Scum, dg2rbf und drd[cc]
Ein false positive in dem Kontext wäre für den Betreffenden verheerend.
Ein solches Stigma wird man nie wieder los.

Zumal es ja auch schon Fälle gab, wo Facebook-/Instagram von Tätern in dem Umfeld abgesaugt wurden,
weil Eltern/Jugendliche zu unbedacht mit dem eigenen Bildmaterial waren.
Harmlose Alltagsfotos von Kindern, die von Eltern und Kindern in den Sozialen Medien veröffentlicht werden, stehen verstärkt im Fokus von Pädosexuellen. Das hat eine umfangreiche Recherche von Panorama und STRG_F ergeben. Demnach klauen die Täter massenhaft Aufnahmen aus privaten Social Media-Profilen, um sie anschließend in Foren hochzuladen, in denen auch Fotos getauscht werden, die schweren Kindesmissbrauch zeigen.
--> https://daserste.ndr.de/panorama/ar...rpornografie-Seiten,kinderpornografie210.html

Wenn man mangels eigener Medienkompetenz in so ein Raster Gerät wird es für die Betroffenen sehr ekelig werden.
 
  • Gefällt mir
Reaktionen: moonchild und geronimoTwo
Es wundert mich, dass dieser Thread erst zwei Seiten hat
Ja das ist hier so, der Rest des Internets kocht seit Tagen über mit tausend Szenarien wieso das alles keine gute Idee ist bzw. wie es zweckentfremdet werden kann.
Paar Auszüge von HN:
https://news.ycombinator.com/item?id=28099968 schrieb:
Given that Apple technology uses NN and triplet embedding loss, the exact same techniques used by neural networks for face recognition, so maybe the same shortcomings would apply here. For example a team of researchers found a 'Master Faces' that can bypass over 40% of Facial ID. Now suppose that you have such an image in your photo library, it would generate so many false positives …
https://news.ycombinator.com/item?id=28094236 schrieb:
The problem of hash or NN based matching is, the authority can avoid explaining the mismatch.
Suppose the authority want to false-arrest you. They prepare a hash that matches to an innocent image they knew the target has in his Apple product. They hand that hash to the Apple, claiming it's a hash from a child abuse image and demand privacy-invasive searching for the greater good.
https://news.ycombinator.com/item?id=28097304 schrieb:
https://www.apple.com/child-safety/pdf/CSAM_Detection_Techni...
Apple uses sophisticated cryptography to make absolutely certain that you cannot hold them accountable for abuses of this system against you, NONE of which are prevented by its complex construction.
The private set intersection is an alternative to sending you a list of bad-image hashes which uses significantly more bandwidth than simply sending you the list. This alternative is superior for Apple because if they distributed the hashes it would be possible for someone to prove that they had begun matching against innocent images (such as ones connected to targeted races or religions, or sought to out particular pseudonyms by targeted images connected to them). It is inferior for the user for precisely the same reasons.
Some might be fooled into thinking the "threshold" behavior, somehow is in their interest: But no, Apple (or parties that have compromised them) can simply register the same images multiple times and bypass it and the privacy (for apple, but not for you) makes it impossible to detect that they've done that.

Und dann dürfen wir alle nicht vergessen, dass nach den News hier schlicht kein pädophiler jemals wieder ein iDevice anrühren wird, sofern er es überhaupt jemals getan hat. Das ganze führt nur zu Einschränkungen von anständigen Leuten, während die kriminellen einfach die Plattform wechseln. Das ist ein wenig wie die "Film-Piraterie ist böse!" Clips, die sich ein ehrlicher Käufer ansehen muss, derjenige der die Filme runterläd aber nicht. :noplan:
 
  • Gefällt mir
Reaktionen: Bozol und dg2rbf
Und dann dürfen wir alle nicht vergessen, dass nach den News hier schlicht kein pädophiler jemals wieder ein iDevice anrühren wird, sofern er es überhaupt jemals getan hat. Das ganze führt nur zu Einschränkungen von anständigen Leuten, während die kriminellen einfach die Plattform wechseln.
Das wäre ja noch das kleinste Übel.
Mit aktuell "Pegasus" muß man eigentlich jedes iOS-Device z.Z. als kompromitierbar betrachten.
Mit genug böser Absicht und Ressourcen kann jeden unliebsamen Individuum quasi alles auf sein Gerät schieben.
Damit bekommt das noch mal einen besonderes Geschmäckle.
 
  • Gefällt mir
Reaktionen: dg2rbf
Ich habe kein Verständnis dafür, dass plötzlich alle Apple-User unter den Generalverdacht des Kindesmissbrauchs gestellt werden. Das ist doch alles völlig krank. Ist das die Mentalität der Amis?
Das scheint mir eine völlig kranke und paranoide Gesellschaft da drüben in den USA zu sein. Lasst uns doch einfach mit eurer abartigen Scheiße zufrieden.
Welche Karen* hat sich diese Kacke eigentlich ausgedacht?

*Karen (Begriffserklärung)
 
  • Gefällt mir
Reaktionen: 518iT
Apple scannt doch schon lange die Photos auf dem iPhone. Woher kommen denn die ganzen thematisierten Rückblicke? Oder die Ordner für Personen, Tiere etc., die man selbst nicht erstellt hat?
Naja, da scannt das endgerät lokal deine daten, ohne cloud abgleich.

neu ist dass die ergebnisse der lokalen scans jetzt Automatisch mit einer weiteren Instanz geteilt werden, wenn sie in bestimmtes von der KI berechnetes raster passen.
rasterfahndung hieß das früher.

Natürlich wird der bisher ausgeführte ein anderer scan sein, der jetzt hier beschrieben wird. Das sollte man nicht vermischen.
Bisher war es auch nur lokal und führte dann auch mal zu unterscheidlichen Ergebnissen auf unterschiedlichen endgeräten.
Denkbar ist aber, dass die scans durchaus irgendwann zusammengelegt werden.
 
  • Gefällt mir
Reaktionen: 518iT, dg2rbf und Kaito
Ja, das es erst später kommt und erstmal nur bestimmte gruppen betroffen sind ändert aber nix an der geplanten funktionsweise.

Diese ist nach unseren deutschen/europäischen maßstäben durchaus umstritten, wie die diskussion hier ja auch zeigt.
 
  • Gefällt mir
Reaktionen: dg2rbf
Früher™ habe ich als Kunde noch ein paar nette Worte mit der Kassiererin gewechselt. Heute heisst es zack-zack, der Nächste bitte. Schöne Neue Welt!
Naja, die anderen, die nach dir in der Schlange stehen wären sicher begeistert wenn du durch einen netten Plausch mit der Kassiererin den ganzen Verkehr aufhälst. Kann man heute leider nicht mehr bringen, heute hat keiner mehr Zeit.
 
  • Gefällt mir
Reaktionen: dg2rbf und acstylor
Zurück
Oben Unten