Apple NeuralHash (Backdoor)

Wäre wenigstens konsequent.
Aber Du, Sie blaffen ja gerne andere Leute an...
Was hat das mit Konsequenz zu tun?
Wenn ich das Produkt XYZ nicht mehr nutze, darf ich mich nicht mehr darüber austauschen?

Wenn ich meine Quadra, Performa, SE/30, Bondi Blues und Cubes anschaue, habe ich noch genug Gründe im MAC-User Forum zu bleiben. Zahlenmäßig sogar mehr als ein reiner iPhone-User.

Aber was soll da so eine (nochmals ;) ) schwachsinnige "Argumentation" bzw. Diskussion?
 
Zugegeben, in dem Fall wird der Apple-Mitarbeiter, der nochmal drüberschaut vermutlich keine Meldung machen, aber bei der Frau am FKK-Strand wahrscheinlich auch nicht.
Aber dass überhaupt ein Szenario entsteht, bei dem ein Mitarbeiter eines Privatunternehmens (nicht einer Strafverfolgungsbehörde) das Nacktfoto deiner Frau auf deinem persönlichen Smartphone ohne dass Du es bemerkst anschaut - das stimmt Dich kein bisschen nachdenklich?
 
  • Gefällt mir
Reaktionen: mausfang, vanyedoom, maba_de und 3 andere
Wer weiß wie das Rechtssystem in den Staaten ist. Hier ist es nicht denkbar, weshalb es in Europa ja aktuell nicht kommen soll.
 
..Zugegeben, in dem Fall wird der Apple-Mitarbeiter, der nochmal drüberschaut vermutlich keine Meldung machen, aber bei der Frau am FKK-Strand wahrscheinlich auch nicht.
Und was wenn der Mitarbeiter sich daran aufgeilt, es kopiert und online in Umlauf bringt? Das kann existenzgefährdend sein. Stell dir vor die Frau ist Lehrerin und es tauchen diese Bilder online auf. Auf meine Fotos habe nur ich und die Personen Zugriff, denen ich diesen aktiv gewähre. Sonst niemand.
Apple hat das System mit pornographischen Bildern getestet - und da gab es gar keine false positives..
Woher weißt du das? Also das es keine Fehlerkennungen gab.
 
Meines Erachtens ist die Idee ja nicht grundsätzlich verkehrt aber es darf nicht allein in der Hand von Apple liegen und erst recht nicht von Privatpersonen eingesehen und bewertet werden. Wenn überhaupt müssten da Polizeibeamte die Überprüfung in erster Instanz übernehmen. Und es müsste sichergestellt sein, dass die Bilder nicht kopiert werden können.
 
Aber dass überhaupt ein Szenario entsteht, bei dem ein Mitarbeiter eines Privatunternehmens (nicht einer Strafverfolgungsbehörde) das Nacktfoto deiner Frau auf deinem persönlichen Smartphone ohne dass Du es bemerkst anschaut - das stimmt Dich kein bisschen nachdenklich?

Das Foto liegt auf Apples Servern - das ganze System betrifft nur Bilder die man dort hochlädt. Jeder Apple-Mitarbeiter mit genügend Rechten kann sich (theoretisch) die Bilder in der iCloud anschauen, da diese nicht E2E-verschlüsselt sind.

Und was wenn der Mitarbeiter sich daran aufgeilt, es kopiert und online in Umlauf bringt? Das kann existenzgefährdend sein. Stell dir vor die Frau ist Lehrerin und es tauchen diese Bilder online auf. Auf meine Fotos habe nur ich und die Personen Zugriff, denen ich diesen aktiv gewähre. Sonst niemand.

Das können Apple-Mitarbeiter mit Zugriff auf die iCloud-Server jetzt auch schon. Passiert ist es bisher nicht.

Im Fall CSAM ist das noch unwahrscheinlicher, da die Systeme vermutlich besonders gesichert werden, so dass die Mitarbeiter nicht einfach Kinderpornographie kopieren und verschicken können. Geräte ohne USB-Ports und Internet sind in Firmen für sichere Aufgaben eigentlich Standard.

Woher weißt du das? Also das es keine Fehlerkennungen gab.

Apple hat diese Informationen mitgeteilt. Kann man glauben oder auch nicht.
 
Jeder Apple-Mitarbeiter mit genügend Rechten kann sich (theoretisch) die Bilder in der iCloud anschauen, da diese nicht E2E-verschlüsselt sind.
Das können Apple-Mitarbeiter mit Zugriff auf die iCloud-Server jetzt auch schon. Passiert ist es bisher nicht.

Das wären aber alles Szenarien, wo Apple-Mitarbeiter ihre Möglichkeiten (rechtswidrig) ausnutzen würden. Beim Neural Hash ist es aber offiziell Teil des Konzepts, dass Mitarbeiter eines Wirtschaftsunternehmens Deine privaten Bilder sichten und beurteilen, ob Du eine Straftat begangen hast. Ich denke, das ist etwas völlig anderes.

Das Foto liegt auf Apples Servern - das ganze System betrifft nur Bilder die man dort hochlädt.

Und ohne das "Hochladen" (welches ja nicht wirklich ein aktiver Prozess ist, sondern im Hintergrund passiert) ist das System iCloud kaum nutzbar. Die Verantwortung dem Kunden zu geben ("Dann lad die Bilder deiner nackerten Frau halt nicht hoch!") ist etwas zu einfach.
 
  • Gefällt mir
Reaktionen: maba_de, MacMac512 und Der Reisende
Und ohne das "Hochladen" (welches ja nicht wirklich ein aktiver Prozess ist, sondern im Hintergrund passiert) ist das System iCloud kaum nutzbar. Die Verantwortung dem Kunden zu geben ("Dann lad die Bilder deiner nackerten Frau halt nicht hoch!") ist etwas zu einfach.

Warum sollte es nicht die Verantwortung der Kunden sein? Ich habe bisher iCloud Fotos nicht genutzt - schon vor der CSAM Diskussion nicht, weil ich der Meinung bin, nicht alle meiner privaten Bilder müssen in die Cloud und Apple bisher keine Möglichkeit anbietet, den Upload selektiv zu gestalten.
 
..weil ich der Meinung bin, nicht alle meiner privaten Bilder müssen in die Cloud und Apple bisher keine Möglichkeit anbietet, den Upload selektiv zu gestalten.
Das ist doch völlig unerheblich. Wenn ich meine Fotos in einem Online Speicher ablege, muss ich davon ausgehen dürfen, dass die Bilder ausschliesslich durch mich einsehbar sind. Mir ist keine AGB von Apple bekannt, in der steht das sie diese Bilder sichten dürfen. Das vorgesehene Prozedere bedarf aber einer Änderung der AGB`s diesbezüglich. Dem muss ich zustimmen oder nicht. Die Konsequenz wäre es, den Dienst nicht weiter zu nutzen.

Die Änderung der AGB`s bei Facebook/Whatsapp veranlasste mich dazu beide Accounts zu löschen. Muss jeder für sich selbst entscheiden. Wenn Apple dieses System offiziell aktiviert, deaktiviere ich alles was mit Fotos zu tun hat. Nur werden das auch die tun, die Apple damit erwischen will.

Nachtrag: Und selbst wenn ich das deaktiviere, wer weiß ob die Bilder wirklich von den Servern gelöscht werden.
 
Die Frage ist halt, wie wir als Gesellschaft mit diesen Möglichkeiten umgehen. Ist es Sache Apple's, die Rechtmäßigkeit oder Rechtswidrigkeit des Verhaltens anderer Menschen zu beurteilen? Alle Gesellschaften auf der Welt haben dafür Systeme geschaffen: Justiz und Strafverfolgungsbehörden. Das hat ja Gründe.
Wenn diese Linie überschritten wird, und private Institutionen beurteilen, ob andere Privatpersonen sich strafbar machen - was kommt dann noch?
Zeigt das Auto den Fahrer zukünftig an, wenn es eine überhöhte Geschwindigkeit misst?
 
Zurück
Oben Unten