Vermutlich wird sich diese Art der Technik nicht aufhalten lassen, auch wenn ich da so meine Kritikpunkte habe:
- die "KI" (wir werden sehen wie intelligent sie wirklich ist), ist eben nicht nur hilfreich, sondern sammelt auch alle Daten in einem bisher unbekannten Umfang (UND ich habe keinerlei Einfluss darauf, blocken ist nicht, "Apps" wird es nicht mehr geben, da die "KI" die Daten der Verarbeitung automatisch zufĂŒhrt âŠ
- wir verblöden so langsam, da eigenstĂ€ndiges Denken immer mehr "outsourced" wird! (Der durchschnittliche IQ amerikanischer Studenten zu Beginn des Studiums, sinkt seit ca. 2 Jahrzehnten kontinuierlich! Diese Evaluierungstests finden immer noch in so groĂer Zahl statt, dass sie durchaus statistische Aussagekraft haben)
- Solch ein GerĂ€t wird auch unmittelbar mit nur EINEM Anbieter verknĂŒpft sein, dieser bestimmt, welche Informationen uns zuflieĂen, welche Filter verwendet werden und ob uns ĂŒberhaupt Ergebnisse jenseits des Mainstreams zuflieĂen! China macht das schon auch ohne das neue Gadget)
- KreativitĂ€t (z.B. die Suche nach Lösungen fĂŒr ein Problem) "stirbt aus", insbesondere wenn schon Kinder solch ein GerĂ€t nutzen - und dies wird so kommen, weil eine Steuerung möglich ist ohne Lesen oder Schreiben zu können, selbst Grundrechenarten werden dann viele nicht mehr bewĂ€ltigen ohne GerĂ€t.
- Werden wir stehen bleiben wie ein Auto ohne Benzin (oder mit leerem Akku), wenn "das Netz" ausfĂ€llt, oder wenn Hacker einen groĂ angelegten Angriff starten? (Und sage keiner: Das ist nicht möglich âŠ)
Ăhnlich des zunehmend gröĂeren Einsatzes an "KI", werden hier Techniken ohne eine evaluierende Risikobewertung implementiert (Die KI weiĂ schon, was sie tut
). NĂŒtzliche Techniken (wie simultanes Ăbersetzen etc.), ĂŒberdecken die oft negativen Aspekte und wie etwa kontrollieren wir etwa, wenn die KI solcher GerĂ€te unsere Intentionen in "ihrem" Sinne manipuliert? (Zumal sie das durchaus subtil tun kann!)