Künstliche Intelligenz: Forderung nach 6monatiger Entwicklungspause - offener Brief

Das ist ja auch logisch. Es werden dort aber natürlich eigene Entwicklungen vorangetrieben.
 
Wäre vielleicht auch erwähnenswert, dass Musk einer der Gründer von OpenAI ist und bis 2018 auch CEO davon war. Er hat den Posten dann aufgegeben, um einen Interessenskonflikt mit der KI-Entwicklung von Tesla zu vermeiden.
Just zu dieser Zeit wurde von Musk selbst auf eine etwaige Kontrollinstanz aufmerksam gemacht.

schon mal durchgelesen?
https://openai.com/policies/privacy-policy

und nun stellen wir uns das in Verbindung mimt Office365 vor und oder als Siri, Cortana oder Alexa oder gar als essentieller Bestandteil in Betriebssystemen?
Im SozialMedia Bereich wird, resp. ist es schon Fakt, dass es Ohne nicht mehr gehen wird und der Drop ist gelutscht.
Das NextCloud dies als ethische Ki einbindet klingt fast schon als kabarettistische Initiative
https://www.golem.de/news/kollaboration-nextcloud-integriert-open-source-ki-funktionen-2303-172806.html
 
ich mache das auch nicht an den Italienern fest sondern generell. Das Gesammelte in Verbindung mit der Auswertung sämtlicher anderen Daten inkl. der Metadaten, plus den Ergebnissen der Recherche, ergibt über einen gewissen Zeitraum die komplette Information über alles was der User auf seinen Geräten vollführt.
Durch die Verwendung und Überlagerung der Daten mehrerer Devices wird das Bild nur noch schärfer.
 
ich mache das auch nicht an den Italienern fest sondern generell. Das Gesammelte in Verbindung mit der Auswertung sämtlicher anderen Daten inkl. der Metadaten, plus den Ergebnissen der Recherche, ergibt über einen gewissen Zeitraum die komplette Information über alles was der User auf seinen Geräten vollführt.
Durch die Verwendung und Überlagerung der Daten mehrerer Devices wird das Bild nur noch schärfer.
Man muss aber immer noch unterscheiden, was möglich ist und was tatsächlich - vielleicht sogar ohne Wissen und Zustimmung der Nutzer - gemacht wird. So sieht das auch die DS-GVO und das halte ich auch für richtig.
 
Der Datenschutz, über den ihr gerade so schön diskutiert, ist ja nur ein kleiner Bruchteil des Ganzen.
In dem Brief geht es ja dann doch noch um einiges mehr.
 
Aber sicher, da hast Du vollkommen recht, nur wo gebt es dabei die Kontrolle?
Du weist aktuell noch nicht mal was MS über die Telemetriedatenschnittstelle über dich gesammelt hat.
Anfangs wurde MS sogar dabei ertappt, dass sie in den Enterprise Versionen von Windows und 365 Tools zur Userüberwachung integriert hatten um die Dienstnehmer zu Überwachen.
https://netzpolitik.org/2021/microsoft-365-so-ueberwachen-chefs-eure-produktivitaet-am-arbeitsplatz/

Wenn das alles miteinander Interagiert, stehen wir mit der Hose herunter nackt dar und die DSGVO in ehren sehen wir gerade im Bildungssektor genau null Auswirkungen.
 
Der Datenschutz, über den ihr gerade so schön diskutiert, ist ja nur ein kleiner Bruchteil des Ganzen.
In dem Brief geht es ja dann doch noch um einiges mehr.
In dem Brief geht es eigentlich gar nicht um den Datenschutz. Das ist ja eine andere Diskussion, die ich mit meinem Hinweis auf die aktuellen Ereignisse in Italien losgetreten habe.
 
Das habe ich schon bemerkt und genau deshalb auch erwähnt ;)
Ich hätte es wohl anders formulieren sollen.
 
Das Hauptproblem eines unkontrollierten oder unkontrollierbaren Programms (lassen wir den Begriff künstliche Intelligenz mal außen vor, die ist nämlich zwar künstlich, aber mitnichten intelligent) ist die Angst vor dem Kontrollverlust. Wenn man sieht, wie innerhalb kürzester Zeit die menschliche Kreativität dazu genutzt wird, mit z. B. ChatGPT allerlei Unsinn anzustellen, kann man / frau sich auch ohne große Intelligenz leicht ausrechnen, wozu diese Programme noch benutzt werden können. Der Papst in modischer Winterjacke mag noch ein Scherz sein, FakeVideos eine Donald T sind dann nur eine Frage der Zeit …

Wir sollten uns gut überlegen, wie man diese Software einsetzen kann, um nützliches zu tun, aber auch Schaden abzuwenden > d. h. im Fall der Fälle kontrollieren zu können, wer dafür verantwortlich gemacht werden kann. Noch ist diese Software nicht eigeninitiativ, aber auch dies ist nur eine (sicher relativ kurze) Frage der Zeit > und wir haben keinen Plan B!
 
  • Gefällt mir
Reaktionen: dg2rbf, ms303 und MacFedora
Wir sollten uns gut überlegen, wie man diese Software einsetzen kann, um nützliches zu tun, aber auch Schaden abzuwenden > d. h. im Fall der Fälle kontrollieren zu können, wer dafür verantwortlich gemacht werden kann. Noch ist diese Software nicht eigeninitiativ, aber auch dies ist nur eine (sicher relativ kurze) Frage der Zeit > und wir haben keinen Plan B!

Genau das ist es und was ich ja auch schon geschrieben habe.

Edit:
Wobei das mit der Lüge von ChatGPT 4 zu dem Captcha ja schon eigeninitiativ war.
 
Zuletzt bearbeitet:
Oder verbirgt sich hier eine Strategie, den ganzen AI-Kram überhaupt erst mal in "alle" Munde zu bringen?! Na, warten wir's ab.
 
Oder verbirgt sich hier eine Strategie, den ganzen AI-Kram überhaupt erst mal in "alle" Munde zu bringen?! Na, warten wir's ab.
Das braucht es nun wirklich nicht mehr. In den wenigen Monaten, die ChatGPT öffentlich verfügbar ist, ist dessen Nutzung hier in Deutschland quasi explodiert. Es gibt wohl kaum noch Schüler und Studenten, die das nicht benutzen oder zumindest ausprobiert haben. Ich habe mir sagen lassen, dass Übungen in Informatik und Mathematik völlig neu gedacht werden müssen, weil ChatGPT in Sekunden komplette Lösungen als Programmcode und mathematische Lösungswege ausspuckt.
 
Es sollen mittlerweile über 50.000 Unterschriften sein lt. der Seite bzw.des Briefes (steht ziemlich weit unten).
Man könne wohl nur nicht so schnell aktualisieren.
 
Irgendwie wird auf IT in DE noch immer geschaut als sei es Alchemie oder etwas okkultes.

Das war bei den völlig über hypeten Quantenrechnern so und das ist jetzt auch beim Thema KI so.

Die Dinger haben einen begrenzten Nutzen, eine Nische. Mehr nicht. Aber alles und jeder redet drüber als gäbs nichts Anderes.

Und natürlich wissen Trainer eines neuronalen Netzes nicht, was en Detail in den Schichten passiert. Sonst bräuchte es diese Netze ja gar nicht.

Problematisch ist nicht due Technik der neuronalen Netze. Problematisch ist der Imgang von Menschen damit in sozialen Netzen. Vielleicht sollten wir mal die Menschheit verbieten für 6 Monate? Würde nebenbei dem Klima auch gut tun.
 
Ich habe mir sagen lassen, dass Übungen in Informatik und Mathematik völlig neu gedacht werden müssen, weil ChatGPT in Sekunden komplette Lösungen als Programmcode und mathematische Lösungswege ausspuckt.
Genau, das Ding ist eine riesen Textanalyse Maschine.Es hat auch in über 1000 repositories für Javascript sofort Schadcode gefunden den Menschen über Jahre nicht gesehen haben. Grüsse an die node.js community und ihren sicheren Frontend Techniken!
 
Genau, das Ding ist eine riesen Textanalyse Maschine.Es hat auch in über 1000 repositories für Javascript sofort Schadcode gefunden den Menschen über Jahre nicht gesehen haben. Grüsse an die node.js community und ihren sicheren Frontend Techniken!
Also ich finde den Nutzen und die Nische jetzt nicht so klein, wenn man damit ein Großteil der gängigen Schul- und Studienaufgaben in Sekunden so lösen kann, dass sie richtig sind und das Ergebnis für Lehrer nicht mehr als solches erkennbar ist. Das betrifft ja fast alle Fächer, auch Aufsätze zu beliebigen Themen können damit problemlos erstellt werden.
 
Also ich finde den Nutzen und die Nische jetzt nicht so klein, wenn man damit ein Großteil der gängigen Schul- und Studienaufgaben in Sekunden so lösen kann, dass sie richtig sind und das Ergebnis für Lehrer nicht mehr als solches erkennbar ist. Das betrifft ja alle Fächer, auch Aufsätze zu beliebigen Themen können damit problemlos erstellt werden.
Das zeigt eher, dass man heutige Aufgaben zu oft mit cooy/paste lösen kann.

Es kursiertja auch die Aussage das ChatGPT den Zulassungstest für Juristen als einer der besten 10% bestanden hat. Das trifft aber nur auf 30% des Tests zu, in denen mal wieder auf Ankreuztests zurückbgegriffen wurde. Für den Rest müssen Gutachten geschrieben werden etc. und dafürist dann doch mehr nötig als KI kann.

Das künstliche Kernen setzt unserem natürlichen Lernen einen Spiegel vor. Das wir schlecht lehren, ist ja aber nicht neu!
 
Zurück
Oben Unten