Wie sicher ist die iCloud?

Die einen scannen serverseitig einfach alle deine hochgeladenen Bilder wie es Apple bisher auch getan hat.
Jetzt haben sich dafür entschieden dies clientseitig vor dem eigentlich Upload zu machen und nur Rückmeldung über positive Ergebnisse zu bekommen.
Laut dem Artikel aus #3 sind die Bilder E2E verschlüsselt und nicht wie Du behauptest unverschlüsselt. Deshalb müssen sie ja auf dem Client die Bilder scannen, da sie es in der Cloud nicht können.
 
Trotzdem ein sehr starker Eingriff in die Privatsphäre, das geht ja wohl gar nicht.
Hoffentlich erntet Apple dafür einen riesen Shitstorm.
 
  • Gefällt mir
Reaktionen: Dvvight und Scum
Laut dem Artikel aus #3 sind die Bilder E2E verschlüsselt und nicht wie Du behauptest unverschlüsselt. Deshalb müssen sie ja auf dem Client die Bilder scannen, da sie es in der Cloud nicht können.

Zitat von Horvath(Senior Director of Global Privacy) im Januar 2020:
As part of this commitment, Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.

Weiß zwar nicht wo ich irgendwas von unverschlüsselt behauptet habe aber du darfst mir gerne erklären wie die Lösung von vor 1,5 Jahren im Vergleich zu jetzigen funktioniert, wenn um das lokale Scannen auf dem iPhone jetzt so ein Trara gemacht wird.
 
Ich war schon immer gegen den ungezügelten Überwachungsstaat, den uns der schily-schäuble-de-maizièrsche Erfassungswahn gebracht hat. Und ich habe großen Respekt vor Herrn Snowden. Dennoch muss ich hier eine Lanze für Apple brechen.

Zitat Snowden:

"Gebt euch keiner Täuschung hin", so Snowden, "wenn sie heute nach Kinderpornografie scannen können, sind sie morgen in der Lage, nach allem anderen zu suchen."

Das halte ich für kein valides Argument.
Natürlich haben sie die Möglichkeit, nach "allem" zu suchen.

Aber wieso sollte man zum Schutz von Kindern keine moderaten Maßnahmen anwenden, nur weil es denkbar wäre, dass diese Maßnahmen irgendwann auch größer ausfallen könnten? ALLES kann irgendwie größer und schlimmer werden oder gegen einen verwendet werden.
"Achtung, nicht mehr Autofahren – mit Autos kann man Leute totfahren!"

Ich habe einmal in diesem Forum kritisiert, dass wir Menschen immer mehr von der Technik abhängig werden und alle mit Funk-Autoschlüssel bei einem EMP mal dumm aus der Wäsche gucken.
Reaktion: "Wenn wir uns ständig vor sowas Sorgen machen würden, müssten wir heute noch in Höhlen wohnen."
Und GENAU dieser Vergleichsfall ist hier eingetreten.

Schon in Zeiten von chemischer Fotografie waren US-Drogisten angehalten, die Polizei zu informieren, wenn sie beim Entwickeln von Fotos Abbildungen unbekleideter Minderjähriger sahen. Wenn es inzwischen möglich ist, Fotos nur noch digital zu erzeugen, zu bearbeiten, zu speichern und zu teilen, wieso sollte man mit diesen Regularien zum Minderjährigenschutz nicht auch mit der Zeit gehen?

Natürlich ist die Technologie schon längst so weit, uns komplett zu überwachen. Und dank solcher Kraken wie Google/Alphabet tun sie das auch.
Solange Facebook pro Woche 1.000 DIN-A4-Seiten Material über jeden Nutzer sammelt und sobald nach ein paar Tagen voll Websuchen die Kollegen von Amazon, Google & Co. genauer über meine Vorlieben, meine Einkaufsgewohnheiten und meine politischen Präferenzen Bescheid wissen als ich selbst …

… solange das so ist, mache ich mir über eine Kinderschutzfunktion von Apple die mit Abstand wenigsten Sorgen.
 
  • Gefällt mir
Reaktionen: kultur_schickste, picknicker1971, rogi und 6 andere
So ist. Hier wird mehr rumgeheult als nachgedacht…
 
  • Gefällt mir
Reaktionen: Hans-Ulrich, Compikub und dg2rbf
So ist. Hier wird mehr rumgeheult als nachgedacht…
die Frage, die sich hier stellt ist, ob es Aufgabe von Unternehmen ist oder die der Rechtsstaaten, basierend auf juristisch sauberen Füßen.
Zudem sehe ich hier einfach das Risiko, dass diese Technologie missbräuchlich ausgenutzt wird.
 
  • Gefällt mir
Reaktionen: MacMac512, Dvvight, Samson76 und eine weitere Person
Oder die wollen nur gesetzlichen Regelungen zuvorkommen…oder sie möchten verhindern, dass sie verklagt werden, etc. ich kenne die Hintergründe nicht, aber sehe hier kein Problem. Zumal da Lokal gescannt wird.
 
  • Gefällt mir
Reaktionen: dg2rbf
wie sicher ist das überhaupt?
Die Server stehen nicht unbedingt in Europa und gehostet wird unter anderem bei Google. Sicher sind Deine Daten dort nur dann, wenn Du sie - wie schon angesprochen wurde - z.B. mit Boxcryptor verschlüsselst. Oder Du suchst Dir einen Hoster, der die Server in einem Rechenzentrum in Europa (z.B. Deutschland oder Schweiz) stehen hat. Dann kannst Du optional noch verschlüsseln. Oder Du hostest bei Dir zu Hause.
 
  • Gefällt mir
Reaktionen: dg2rbf
Oder die wollen nur gesetzlichen Regelungen zuvorkommen…oder sie möchten verhindern, dass sie verklagt werden, etc. ich kenne die Hintergründe nicht, aber sehe hier kein Problem. Zumal da Lokal gescannt wird.
und in China sind es vielleicht nicht nur Bilder sondern Regime kritische Aussagen. Das Apple, wenn es um Geld geht, schnell einknickt ist bekannt. Die Backdoor ist ja jetzt schon da… .

Siehe auch den Mactechnews Artikel:
https://www.mactechnews.de/news/article/Apples-Foto-Analyse-Scharfe-Kritik-von-Edward-Snowden-und-der-Electronic-Frontier-Foundation-178228.html
 
  • Gefällt mir
Reaktionen: pbro
Die Diskussion über potientielle Gefahren des Ansatzes ist meiner Meinung nach vollkommen legitim, aber von der totalen Überwachung ist das Feature in der aktuellen Form für mich aktuell dann doch noch etwas entfernt. Gescannt wurden die gleichen Inhalte ja bisher ja auch schon.
Sehe ich auch so …
 
Zumal da Lokal gescannt wird.
Und, zumindest laut dem Artikel aus (Edit #15) die Hashes der lokalen Bilder gegen die Hashes von bereits eindeutig identifizierten Bilder mit dem verbotenen Content verglichen werden.

Es ist ja jetzt nicht so, dass Du Besuch von der Polizei bekommst, wenn Du Deine eigenen Kinder im privaten Plantschbecken fotografierst.

Will heißen, wenn es dann einen Treffer gibt, dann ist es auch ein Treffer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kultur_schickste
Dann gibt es sicherlich bald eine neue Softwarekategorie im App-Store "De-Hasher"
Man muss ja nur ein Pixel des Fotos in einer ähnlichen Farbe speichern um das System auszuhebeln.
Mit dem ansatz fangen sie eh nur die "dummen."

So wichtig ich den kampf finde - ich möchte damit nichts zu tun haben.
Und ich will nicht, dass es auf meinem Gerät passiert und meinen akku kostet.

Für mich ist es ein umdrehen der Beweislast.


ach - so richtig klar, wie ich das finde bin ich nicht.
Licht und Schatten liegen dicht beieinander.


https://www.heise.de/meinung/Totalueberwachung-durch-die-Hintertuer-Apples-fataler-Suendenfall-6157251.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Samson76 und dg2rbf
Wie ist denn der Workflow mit Boxcryptor?
Ist das deutlich mehr Aufwand über diverse Macs und iOs Geräte oder hält sich das im Rahmen?

Kein großer Aufwand. Man legt sich einen Container an. Dieser wird in der Cloud gespeichert. Anschließend installiert man auf den endgeräte den Client und richtet bei der Ersteinrichtung den Container an. Man hat dann im Dock Symbol die Möglichkeit den Container zu entsperren.

Der erscheint dann im Finder als eigenes Volume - wo du die Daten rein kopieren kannst. Ähnlich wie ein sparseimage. Nur, dass man letzteres nicht in anderen Betriebssystem wie Linux oder Windows öffnen könnte.
 
  • Gefällt mir
Reaktionen: dg2rbf
Man muss ja nur ein Pixel des Fotos in einer ähnlichen Farbe speichern um das System auszuhebeln.
Ja, ich wollte das jetzt so net beschreiben … das ist z.B. eine Möglichkeit …

Die Dummen, Unvorsichtigen, Triebgesteuerten … wie auch immer …

Daran sieht man ja irgendwie auch, dass Apple was implementiert, dass eben bereits eindeutig identifiziert „Schändliches“ eben nicht „unentdeckt“ den Weg in „Apples Cloud“ findet … damit tun sie ja quasi „ein Minimum“ … wobei auch interessant … sie müssen die Hashes ja von den Ermittlungsbehörden erst bekommen … verhindern oder neu aufdecken tut das dann ja ohnehin kaum etwas.
 
Würde mich dann doch sehr wundern wenn das lokale System nicht auf ähnlichem Niveau wie PhotoDNA (bzw. der bisher verwendeten Lösung) ist.
Da reicht der Austausch eines Pixels gerade eben nicht aus um das System zu überlisten.
 
Nicht wundern/spekulieren, sondern lesen.

Den Link aus #15

Zitat:

User devices will download an unreadable database of known CSAM image hashes and will do an on-device comparison to the user's own photos, flagging them for known CSAM material before they're uploaded to iCloud Photos. Apple says that this is a highly accurate method for detecting CSAM and protecting children.


Ein Hash ist immer eindeutig. Das minimale Verändern des geprüften Objekts hilft sehr wohl gegen das Überprüfen per Hash.
 
Naja... Hashes können durchaus doppelt auftreten. im Grunde sogar unbegrenzt oft.
bei vielen sachen ist das egal, weil das gehashte dann sinnfrei ist.

Beispiel: Eine gehashte ausführbare datei kann nicht so einfach durch z.b. einen virus ersetzt werden der auch noch sinnvoll ausführbar ist.
aber hier werden nur zwei dateien verglichen.
Das in eine suche einzubauen bringt sicherlich deutlich mehr treffer zustande.

Und dann ist man schon verdächtig und man muss seine unschuld beweisen. Und das ohne überhaupt von der anschuldigung zu wissen.
Man ist dann darauf angewiesen dass die Menschen (die Apple aktuell noch in zweiter instanz vorgesehen hat) keinen Fehler machen.

siehe auch: https://linus-neumann.de/2012/03/zu-kollisionen-in-hashfunktionen/
 
  • Gefällt mir
Reaktionen: BalthasarBux
Nicht wundern/spekulieren, sondern lesen.
Ein Hash ist immer eindeutig. Das minimale Verändern des geprüften Objekts hilft sehr wohl gegen das Überprüfen per Hash.

Und wo liest aus deinem Link heraus, dass aus dem Bild einfach ein Hash erstellt wird anstatt dass wie bei PhotoDNA eine Art digitaler Fingerabdruck durch das Aufteilen in mehrere Bereiche,etc. entsteht und man nicht zwingend eine 1:1 Übereinstimmung benötigt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strunzoelp, mausfang und pbro
Sei es wie es will. Man wird immer mehr durchleuchtet. Ob das gut ist?
 
  • Gefällt mir
Reaktionen: Dvvight
Zurück
Oben Unten