Apple NeuralHash (Backdoor)

Mich überrascht das überhaupt nicht. Der AppStore ist eigentlich ein Online-Laden wie jeder andere, bei dem man ständig eingeloggt ist. Und auch wenn du im Web einen Online-Händler aufsuchst, wirst du gefragt, welche Cookies du noch bereit bist zu akzeptieren. Technisch notwendige sind m.E. nicht abwählbar, wo bei die Frage bleibt, wie weit diese technisch notwendigen Cookies in der Praxis gehen. Ich gehe davon aus, dass bei jedem Online-Händler alle Aktivitäten innerhalb des Stores aufgezeichnet werden, und wenn du angemeldet bist, auch mit deiner Person verknüpft werden. Kaufst du schließlich etwas, fließen sowieso noch eine Menge mehr Daten.
 
  • Gefällt mir
Reaktionen: mausfang
Zwar nicht NeuralHash aber...

"In einer Sammelklage gegen Apple wird der iPhone-Hersteller beschuldigt, Daten über seine Nutzer zu sammeln, auch wenn eine Datenschutzeinstellung gesetzt wurde, die dies eigentlich nicht vorsieht. ... Demnach sammelt der App Store umfassende Informationen über fast alles, was ein Nutzer in der App tut, und sendet die Informationen an Apple. Auch dann, wenn iPhone Analytics in den Einstellungen ausgeschaltet wurde." https://www.golem.de/news/tracking-...e-illegale-datensammelei-vor-2211-169764.html
tja, Apple halt.
Mit dem Finger auf andere zeigen wegen der ach so bösen Daten Sammelei, machen aber selbst Dinge, die genau so schlimm sind.
In diesem Fall sogar schlimmer, denn ich werde darüber weder informiert noch kann ich es abstellen. Die Schalter in iOS sind ja nutzlos.
 
  • Gefällt mir
Reaktionen: dg2rbf
IN AUGUST 2021, Apple announced a plan to scan photos that users stored in iCloud for child sexual abuse material (CSAM). The tool was meant to be privacy-preserving and allow the company to flag potentially problematic and abusive content without revealing anything else. But the initiative was controversial, and it soon drew widespread criticism from privacy and security researchers and digital rights groups who were concerned that the surveillance capability itself could be abused to undermine the privacy and security of iCloud users around the world. At the beginning of September 2021, Apple said it would pause the rollout of the feature to “collect input and make improvements before releasing these critically important child safety features.” In other words, a launch was still coming. Now the company says that in response to the feedback and guidance it received, the CSAM-detection tool for iCloud photos is dead.
--> https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/

Das Thema scheint damit erstmal vom Tisch.
:)
 
Zurück
Oben Unten