Apple NeuralHash (Backdoor)

Verzieht euch in die User Bar. Euer Thema gerade ist nicht das Thema dieses Fadens.
 
  • Gefällt mir
Reaktionen: pbro, 518iT, NeuerVersuch und 3 andere
Mit 14 ist man bei dir Volljahrig?

Ich sage mit 14 hat man Grütze im Hirn... Das ist von der Natur so vorgesehen.
Noch mal: Sie war 18. Die Aussagen sind vom November 2019. Und mit 18 sollte man zurechnungsfähig und die eigenen Aussagen belastbar sein, oder ist das in der grünen Partei anders?
 
Verzieht euch in die User Bar. Euer Thema gerade ist nicht das Thema dieses Fadens.
Absolut, und trotzdem Danke für den Irrsinn... der Beitrag der RT ist ja das Paradebeispiel das unser Basti Fantasti gleich wieder als Kundesbanzler ran darf...
Absoluter Irrsinn allerorten und nicht zum schön reden.. Ausländer raus aus dem Ausland unfassbar
 
Und dann wollen die Grünen ja noch, das man mit 16 wählt. Bloß dann keine Verantwortung übernehmen.
Hat jetzt eigentlich hier irgendwer seine Ankündigung zum Switch wahrgemacht oder spielt Ihr alle gerade mit dem iPhone 13 Pro Max herum? ;-)
Ich ;)
Aber Fairphone 2021 sieht nice aus, Frame.Work Laptops kommen bald. Sehen gut aus. In paar Jahren wird das was :)
sehr konsequent, aber wieso Fotos per Kabel? kann man doch auch via Mail schicken oder einfach im WLAN zb auf einer verschlüsselten Cloud speichern. Letzteres mache ich so: Fotos werden auf meiner mit dem Cryptomator verschlüsselten Cloud hochgeladen, denn den Cryptomator gibts ja auch als App fürs Smartfon.
Mail? So schön „Postkarten“-Style offen für alle?
Aber dass überhaupt ein Szenario entsteht, bei dem ein Mitarbeiter eines Privatunternehmens (nicht einer Strafverfolgungsbehörde) das Nacktfoto deiner Frau auf deinem persönlichen Smartphone ohne dass Du es bemerkst anschaut - das stimmt Dich kein bisschen nachdenklich?
Keine Nacktfotos machen. Aber ehrlich. Faken wird da immer einfacher. Wozu fremde Bilder nehmen, wenn man das selber machen kann.
Bei der AFD wird von Einzelpersonen auf die Partei geschlossen.
Bei den Grünen darf die Jugendsprecherin ihre Tweets mit "Heil" beenden und in Interviews von unserer "ekligen weißen Mehrheitsgesellschaft" sprechen. Das ist dann halt nur ein bedauerlicher Einzelfall.
Ist halt so. Links/Grün supi, bürgerlich-rechts böse.
 
wenn man hier reinschaut könnte man denken man ist in einem AfD oder NPD Forum gelandet. Ist mir auch schon in den Diskussionen um LGTBQ+ gerechte Sprache u.ä. aufgefallen. Alter Falter.
 
  • Gefällt mir
Reaktionen: lisanet und thepaleking
Sprache = Zwang, keine Entwicklung
„Schwarze“ Sprecherin der Grünen darf Hass-Parolen los werden und Leute wie du sind der Meinung, das ist okay. Alter Falter…
 
So, bitte wieder zurück zum Thema: Apple NeuralHash (Backdoor)

"Politik" würde eher früher als später halt dicht gemacht werden.
 
  • Gefällt mir
Reaktionen: 518iT, Der Reisende, Mr. Gulliver und 2 andere
@kenduo per Mail geht das natürlich nur dann, wenn das Fotos sind, die eigentlich jeder sehren dürfte, irgendwas Belangloses wie z.B. Gebäudefotos oder so. Private Fotos sende ich in meinem wifi auf meine verschlüsselte Cloud.
 
Der neueste Bericht von Sicherheitsforschern, der vor Apple-CSAM-Technologie warnt, bestätigt im Prinzip was ich hier öfter geschrieben habe. Der Gesetzgeber, in diesem Fall die EU, will, dass verschlüsselte Devices gescannt werden können, und das im Fall der EU nicht nur auf Kinderpornographie, sondern auch auf "terroristische Inhalte" und organisiertes Verbrechen, geht also deutlich über die Pläne von Apple hinaus. Dies könnte meine Vermutung bestätigen, dass Apple versucht, gesetzgeberischen Regelungen zuvorzukommen (das unten erwähnte EU-Dokument ist vom letzten November), und diese abzuschwächen.

Aus der New York Times: https://www.nytimes.com/2021/10/14/business/apple-child-sex-abuse-cybersecurity.html

In a 46-page study, the researchers wrote that the proposal by Apple, aimed at detecting images of child sexual abuse on iPhones, as well as an idea forwarded by members of the European Union to detect similar abuse and terrorist imagery on encrypted devices in Europe, used “dangerous technology.”

The cybersecurity researchers said they had begun their study before Apple’s announcement. Documents released by the European Union and a meeting with E.U. officials last year led them to believe that the bloc’s governing body wanted a similar program that would scan not only for images of child sexual abuse but also for signs of organized crime and indications of terrorist ties.

A proposal to allow the photo scanning in the European Union could come as soon as this year, the researchers believe.
Wie ich die Dokumente der EU verstehe, plant man keine einheitliche Lösung. Das Wording erlaubt z.B. eine Lösung wie Apple (Vorabscan, bevor es E2E verschlüsselt wird) oder eine Backdoor in der Verschlüsselung, die dem Hersteller und damit dem Staat Zugriff auf die Inhalte gewährt.
 
Apple hält das für datenschutzfreundlicher - und begründet das auch, deswegen haben sie es ja auch in dieser Form entwickelt.
das es weltweit ein Aufbegehren dagegen gibt ist bekannt.
Aber hier haben sich einige Schwergewichte zusammengetan und deren Fazit ist, dass Apples Maßnahme wirkungslos und zudem gefährlich ist.
Einer dieser Schwergewichte ist Ross Anderson, Professor von Cambridge.
Die Studie der zwölf Spezialisten kann man auf seiner Seite laden: https://arxiv.org/abs/2110.07450v1

Zitat (Übersetzung durch Safari):
Trotz seiner offensichtlichen Vorteile haben Strafverfolgungsbehörden und nationale Sicherheitsbehörden argumentiert, dass die Verbreitung der Kryptographie den Zugang zu Beweisen und Erkenntnissen behindert hat. Einige in Industrie und Regierung befürworten jetzt eine neue Technologie für den Zugriff auf gezielte Daten: clientseitiges Scannen (CSS). Anstatt die Verschlüsselung zu schwächen oder Strafverfolgungsbehörden Hintertürschlüssel zur Entschlüsselung der Kommunikation zur Verfügung zu stellen, würde CSS die Analyse der Daten auf dem Gerät im Klartext ermöglichen. Wenn gezielte Informationen erkannt würden, würden ihre Existenz und möglicherweise ihre Quelle den Agenturen offengelegt; andernfalls würden wenig oder keine Informationen das Client-Gerät verlassen. Seine Befürworter behaupten, dass die CSS eine Lösung für die Debatte über Verschlüsselung versus öffentliche Sicherheit ist: Sie bietet Privatsphäre -- im Sinne einer ungehinderten Ende-zu-Ende-Verschlüsselung -- und die Fähigkeit, schwere Verbrechen erfolgreich zu untersuchen. In diesem Bericht argumentieren wir, dass die CSS weder eine wirksame Verbrechensprävention garantiert noch die Überwachung verhindert. Tatsächlich ist der Effekt das Gegenteil. Die CSS schafft naturgemäß ernsthafte Sicherheits- und Datenschutzrisiken für die gesamte Gesellschaft, während die Unterstützung, die sie für die Strafverfolgung leisten kann, bestenfalls problematisch ist. Es gibt mehrere Möglichkeiten, wie clientseitiges Scannen fehlschlagen, umgangen und missbraucht werden kann.
 
Seine Befürworter behaupten, dass die CSS eine Lösung für die Debatte über Verschlüsselung versus öffentliche Sicherheit ist: Sie bietet Privatsphäre -- im Sinne einer ungehinderten Ende-zu-Ende-Verschlüsselung -- und die Fähigkeit, schwere Verbrechen erfolgreich zu untersuchen.

Danke für den Link, das ist der Report, auf den sich der New York Times-Artikel bezieht.

Genau das, was ich als Argument für Apples Strategie vermutet habe. CSS und dafür Erhaltung von E2E ohne Backdoor, was ja, wie ich gerade oben verlinkt habe, auf der Abschussliste der EU steht.
Die Konzerne gehen davon aus, dass der Gesetzgeber sie zu etwas zwingen wird (CSS oder Backdoors) und sie nur eines davon verhindern können werden, d.h. dass der auch von mir präferierte Idealfall - kein CSS und keine Backdoors - politisch nicht durchsetzbar sein wird.

Was ich im verlinkten Text der Forscher nicht so toll finde, ist, dass die im Zweifel eher für "geschwächte Verschlüsselung" als CSS sind.

The introduction of CSS would be much more privacy invasive than previous proposals to weaken encryption.
This brings us to the decision point. The proposal to preemptively scan all user devices for targeted content is far more insidious than earlier proposals for key escrow and exceptional access.
Da stimme ich nicht zu. Verschlüsselung mit einem eingebauten Zweitschlüssel der bei Apple liegt halte ich persönlich für ebenso "insidious".

Der Report erklärt, warum CSS nichts taugt und akzeptiert dafür (implizit) Backdoors / Zweitschlüssel. Apple hält Zweitschlüssel für schlimmer und will daher CSS.

Der Idealfall - weder Zweitschlüssel noch CSS - steht leider schon gar nicht mehr zur Debatte.
 
Da stimme ich nicht zu. Verschlüsselung mit einem eingebauten Zweitschlüssel der bei Apple liegt halte ich persönlich für ebenso "insidious".
ich schon, wen sichergestellt ist, dass es organisatorische Regelungen gibt, den Schlüssel nicht zu mißbrauchen.
Bsp. nur aufgrund richterlicher Anweisung etc. und dann nach Mehraugen Prinzip.
Zudem verbleibt mir die Option, Daten bereits auf dem Gerät mit eigenen Schlüsseln zu verschlüsseln (S/Mime) und wenn das nicht geht, die Cloud eben nicht für kritische Daten zu nutzen.
Das finde ich allemal besser als eine eklatante Lücke auf dem Device aufzumachen.
 
ich schon, wen sichergestellt ist, dass es organisatorische Regelungen gibt, den Schlüssel nicht zu mißbrauchen.
Bsp. nur aufgrund richterlicher Anweisung etc. und dann nach Mehraugen Prinzip.
Zudem verbleibt mir die Option, Daten bereits auf dem Gerät mit eigenen Schlüsseln zu verschlüsseln (S/Mime) und wenn das nicht geht, die Cloud eben nicht für kritische Daten zu nutzen.
Das finde ich allemal besser als eine eklatante Lücke auf dem Device aufzumachen.
Der Richtervorbehalt ist, nicht nur in Deutschland, ein Witz. Und wer Angst vor Russland und China hat, sollte wissen, dass das dann dort genauso einfach per Richtervorbehalt, funktioniert.

Ich halte es sogar für deutlich einfacher, dass ein Richter einen Beschluss ausstellt, als dass Apple dazu gebracht wird, seine Hash-Datenbaken um spezifische Inhalte zu ergänzen.

Der Zweitschlüssel funktioniert auch für das Device selbst.
 
Der Richtervorbehalt ist, nicht nur in Deutschland, ein Witz. Und wer Angst vor Russland und China hat, sollte wissen, dass das dann dort genauso einfach per Richtervorbehalt, funktioniert.
wie gesagt, dann nutze ich die Cloud nicht.
Einen Scan auf dem Smartphone kann ich nicht verhindern ;).
 
wie gesagt, dann nutze ich die Cloud nicht.
Einen Scan auf dem Smartphone kann ich nicht verhindern ;).
Ich nutze die Foto Cloud jetzt schon nicht ;) Der CSS Scan ist auch nur aktiv, wenn man etwas hochlädt.

Ein Zweitschlüssel würde aber auch ein cloudloses Gerät kompromittieren, während bei CSS theoretisch keiner an die Inhalte auf dem Gerät kommt (sichere Verschlüsselung ohne Hintertür), wenn man nicht die Cloud benutzt. (Denn der EU geht es nicht nur um Inhalte in der Cloud, sondern auch die Möglichkeit auf die Geräte zu kommen.)
 
Ich nutze die Foto Cloud jetzt schon nicht ;) Der CSS Scan ist auch nur aktiv, wenn man etwas hochlädt.
ich bisher schon und da bin ich mit dem Scan einverstanden ;).
Ein Zweitschlüssel würde aber auch ein cloudloses Gerät kompromittieren, während bei CSS theoretisch keiner an die Inhalte auf dem Gerät kommt (sichere Verschlüsselung ohne Hintertür), wenn man nicht die Cloud benutzt.
das ist ein Argument, allerdings weiß man, dass Devices auch bei Apple regelmäßig mehr Daten senden als notwendig.
Das haben uns div. Auswertungen u.a. von Patrick Wardle gezeigt. Wer garantiert mir, dass die CSS Daten nicht auch ohne iCloud gesendet werden?
Ich will diese Funktion schlicht nicht auf dem Gerät und zum Glück bin ich da nicht allein. ;)
 
Ich will diese Funktion schlicht nicht auf dem Gerät und zum Glück bin ich da nicht allein. ;)

Ich will diese Funktion auch nicht unbedingt, ich will aber auch nicht, dass Apple einen Zweitschlüssel für mein iPhone hat, den dann theoretisch jeder Dorfrichter auf einer Urlaubsreise anfordern kann.
Die Argumente gegen CSS sind ja schön und gut und zutreffend aber die Schlussfolgerung, dass man dann lieber Zweitschlüssel und Hintertüren einbauen soll, teile ich ganz und gar nicht. (Insofern halte ich das Paper der Forscher schon fast für ein Plädoyer gegen E2E und für Hintertüren, was ich nicht so toll finde, aber staatliche Überwachungsorganisationen dagegen schon.)
Man kennt das noch aus den 90ern, als dem Normalbürger nur faktisch nutzlose Verschlüsselungen erlaubt werden sollten. (PGP-Debatte, etc.)

Leider besteht bei der Debatte offensichtlich nur die Wahl zwischen Pest und Cholera, nicht das Naheliegende: wir wollen weder Hintertüren noch CSS.
 
Zuletzt bearbeitet:
Mich überzeugt das Paper nicht in Bezug auf Apples Technologie, zumal es sich oft mit anderen, deutlich invasiveren Formen des CSS beschäftigt. Am Ende sprechen sie von AI-Technologie, die Inhalte nach Willen der UK-Behörden scannen soll, was Apples CSAM-Implementierung nicht ist.

Diese AI-Technologie ist allerdings schon seit einigen iOS-Generationen bereits auf Apple Devices lokal tätig, um Bilder und neuerdings auch Texte zu erkennen. Damit sollte die Sorge eher darin bestehen, diese Technologie vor staatlichem Zugriff abzuschirmen, als sich am CSAM aufzuhängen, das das genau nicht kann.

(Ich hatte ganz am Anfang dieser Debatte schon geschrieben, dass das bessere Ziel der Überwacher die Bilderkennungs-AI und nicht die CSAM-Implementierung wäre. Und das Paper bestätigt das hiermit indirekt.)
 
Zurück
Oben Unten