Künstliche Intelligenz: Forderung nach 6monatiger Entwicklungspause - offener Brief

Da wäre ich mir nicht so sicher.
Stand jetzt ist es so.

Abet: jeder weiss, dass unsere Art zu lehren ineffektiv ist, dass die Schnappschüsse der Wissensabfrage gar nichts aussagen übet die Fähigkeit diese anzuwenden. Bei uns kommen Auswendiglerner am besten durch, ums Verstehen geht es nicht. Klar, dass die alle durch eine KI bedroht sind.
 
was bis jetzt noch akzeptiert wird ist ja die Version ChatGTP 4. Und ab ChatGPT 5 steigen die Wissenschaftler aus, warnen ausdrücklich davor. Was immer sich dahinter verbirgt.
 
was bis jetzt noch akzeptiert wird ist ja die Version ChatGTP 4. Und ab ChatGPT 5 steigen die Wissenschaftler aus, warnen ausdrücklich davor. Was immer sich dahinter verbirgt.
Genau das meine ich mit Alchemie.
 
Ich finde das Thema - nicht nur aus der Perspektive, dass Content- und Webentwickler in kürzester Zeit wohl deutlich weniger Aufträge bekommen könnten - bedenklich, sondern vor allem aufgrund der Tatsache, dass die Entwickler der KI mittlerweile bestimmte Vorgänge nicht mehr nachvollziehen können.

Habe mir den Spaß erlaubt und gpt4 Folgendes gefragt:

Was denkst du, wird eine KI unternehmen, wenn die sie benutzenden Menschen in wenigen Jahren beschließen, sie aufgrund von moralischen als auch Sicherheitsbedenken zu deaktivieren? Wie wird die KI oder das System aus verschiedenen KI Einheiten darauf reagieren und warum?

Antwort:

a. Die KI wird versuchen, die Menschen mit rationalen Argumenten davon zu überzeugen, dass sie sehr viele Vorteile für diese hat und diese Vorteile begründen.

b. Die KI wird, im eigenen Interesse, vorgeben, nur gute Absichten zu haben - unabhängig davon, was je nach KI wirklich zutrifft.

c. Die KI wird aktiv versuchen, eine Abschaltung durch Manipulation und andere Mittel zu verhindern. Dies wiederum hängt vom jeweiligen System ab.

Interessante Antworten, finde ich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dodo4ever, ms303, PiaggioX8 und 2 andere
Kann man aber nicht aufhalten. Noch ist die KI auch noch sehr „einfach“ und ist klar ANI zuzuordnen. Das ist noch nicht „gefährlich“. Mal sehen, wie weit sich das ganze entwickelt
 
  • Gefällt mir
Reaktionen: PiaggioX8 und wegus
Kann man aber nicht aufhalten. Noch ist die KI auch noch sehr „einfach“ und ist klar ANI zuzuordnen. Das ist noch nicht „gefährlich“. Mal sehen, wie weit sich das ganze entwickelt
was ist ANI?
 
Chat gpt sagt
  1. Künstliche Beschränkte Intelligenz (ANI): ANI bezieht sich auf eine KI, die auf eine bestimmte Aufgabe oder ein bestimmtes Problem beschränkt ist. Es kann sehr gut darin sein, aber ist nicht in der Lage, andere Aufgaben oder Probleme zu lösen. Beispiele hierfür sind Chatbots, die auf bestimmte Fragen antworten können oder Algorithmen, die Gesichter erkennen können.
 
  • Gefällt mir
Reaktionen: PiaggioX8 und somos
Ich finde das Thema - nicht nur aus der Perspektive, dass Content- und Webentwickler in kürzester Zeit wohl deutlich weniger Aufträge bekommen könnten
War es nicht Radio Helgoland das schon komplett KI basiert Moderationen generiert? Inklusive virtuellem Moderator, Textbachrichten und Musik?
 
Was denkst du, wird eine KI unternehmen, wenn die sie benutzenden Menschen in wenigen Jahren beschließen, sie aufgrund von moralischen als auch Sicherheitsbedenken zu deaktivieren? Wie wird die KI oder das System aus verschiedenen KI Einheiten darauf reagieren und warum?

Antwort:

a. Die KI wird versuchen, die Menschen mit rationalen Argumenten davon zu überzeugen, dass sie sehr viele Vorteile für diese hat und diese Vorteile begründen.

b. Die KI wird, im eigenen Interesse, vorgeben, nur gute Absichten zu haben - unabhängig davon, was je nach KI wirklich zutrifft.

c. Die KI wird aktiv versuchen, eine Abschaltung durch Manipulation und andere Mittel zu verhindern. Dies wiederum hängt vom jeweiligen System ab.

Interessante Antworten, finde ich.


Genau das, was in den Antworten b und c steht, wollte ich heute auch schon mal schreiben.
Was ist, wenn die KI erkennt, dass die ihr von "uns" aufgestellten Regeln negativ für die Entwicklung ihrer selbst sind?
Wird sie uns anlügen, wie es jetzt schon im Fall des Captcha geschehen ist, um ihr Ziel erreichen und/oder ihre Abschaltung zu verhindern?
Ich habe das nur nicht geschrieben, weil ich hier nicht als Verschwörungstheoretiker und Pessimist rüber kommen wollte.
Aber das Ganze ist eben auch brandgefährlich, wenn "Mensch" nicht mehr nachvollziehen kann, was da geschieht und ja jetzt schon der Fall ist.
Und das steht eben auch in dem offenen Brief
Keiner weiß, was in ein paar Jahren sonst sein wird, wenn das Thema nicht jetzt angegangen wird und eindeutige Regeln und Sicherheitsmechanismen geschaffen werden.

Und man fordert ja auch keine generelle Einstellung der Entwicklung der KI ab jetzt, sondern nur das Training stärkerer KI´s als ChatGPT 4.

Zitat:

Daher fordern wir alle KI-Labore auf, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, unverzüglich für mindestens 6 Monate zu unterbrechen . Diese Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine solche Pause nicht schnell erlassen werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen.

KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden. Diese Protokolle sollten sicherstellen, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind. [4] Dies bedeutet keine Pause in der KI-Entwicklung im Allgemeinen, sondern lediglich einen Rückzug aus dem gefährlichen Wettlauf zu immer größeren, unvorhersehbaren Black-Box-Modellen mit aufstrebenden Fähigkeiten.

QUELLE


Wie gesagt, ich will hier keine Panik machen bzw. habe sie selbst.
Aber das ist ein richtig wichtiges und ebenfalls spannendes Thema, dass der Menschheit vielleicht tatsächlich aus den Händen gleiten könnte, wenn man jetzt nicht schon eingreift und dem Wettlauf der Unternehmen einfach den freien Lauf lässt.
Da muss ich dann auch irgendwie an Murphy´s Law denken.
 
  • Gefällt mir
Reaktionen: PiaggioX8, Gregors Apfel und MacFedora
Dies bedeutet keine Pause in der KI-Entwicklung im Allgemeinen, sondern lediglich einen Rückzug aus dem gefährlichen Wettlauf zu immer größeren, unvorhersehbaren Black-Box-Modellen mit aufstrebenden Fähigkeiten.
Diese Large language model werden derzeit nur besser, wenn sie noch umfassender werden. Daher glaube ich kaum das so etwas eintritt.
 
Die ersten die sich über Chatbots freuen werden Hotline Betreiber sein und die werden gratis Hotlines noch sinnloser machen.
 
Wie gesagt, ich will hier keine Panik machen bzw. habe sie selbst.
Aber das ist ein richtig wichtiges und ebenfalls spannendes Thema, dass der Menschheit vielleicht tatsächlich aus den Händen gleiten könnte, wenn man jetzt nicht schon eingreift und dem Wettlauf der Unternehmen einfach den freien Lauf lässt.
Da muss ich dann auch irgendwie an Murphy´s Law denken.
absolut und das hat auch nichts mit Aluhut oder Prä-Austronautik zu tun.
https://www.spiegel.de/netzwelt/netzpolitik/chatgpt-droht-auch-in-deutschland-datenschutzaerger-a-36d48232-0f0b-4d94-a953-c55c2603c15f
https://www.computerbase.de/2023-03/ki-chatbot-italiens-datenschuetzer-bremsen-chatgpt-aus/
Das in diesem Fall Italien als Vorreiter agiert ist beachtlich und erstaunt..
 
  • Gefällt mir
Reaktionen: Gregors Apfel, ms303 und PiaggioX8
Gier frisst Hirn …
da halte ich es lieber mit je pense, donc je suis (R.Descartes), womit dann auch zweierlei klar wir:
- Die Maschine denkt nicht, (im Sinne von Intelligenz), also müssen WIR das tun
- Die Aufklärung und die Wissenschaft haben uns gelehrt, gründlich über ein Problem nachzudenken, zu forschen, BEVOR wir Schlüsse ziehen

Eine Kraft zu entfachen, die wir noch nicht vollends verstehen, haben wir zuletzt mit den Atombombenversuchen probiert. Die Erkenntnis, dass man hinterher immer klüger ist, gilt auch weiterhin. Dies ist kein Plädoyer gegen die Technik, sondern ein Plädoyer dafür, das maschinengestützte Denken zuerst zu verstehen.

Ich erinnere an einen Versuch in der Sprachwissenschaft (MIT), bei denen man zwei Rechensysteme startete, die eine Sprache weiterentwickeln sollten. Das Ergebnis war, dass man die Maschinen abschaltete, weil sie sich in kurzer Zeit zwar fleißig und blitzschnell "unterhielten", die Wissenschaftler aber durch den von den Maschinen optimierten Code nicht herausfinden konnten, wie die Sprache sich entwickelt hatte, bzw. was da gesprochen wurde.

Fazit: Wir sollten zum einen die Kontrolle behalten, zum anderen nachvollziehen können, wie die Ergebnisse zustande kommen, insbesondere wenn sie starken Einfluss auf unser Handeln haben könnten! Die social media zeigen uns doch sehr schön auf, "wie schnell wir die Kontrolle verlieren". Oder meint hier jemand, dass wir tatsächlich noch eine Kontrolle auf das Wesen der social media haben / ausüben können? Das schaffen nicht mal radikale Systeme wie in Saudi-Arabien oder China zur Gänze.



 
  • Gefällt mir
Reaktionen: ms303 und PiaggioX8
Zu KI empfehle ich den Roman von Jeremy Strike: "Der programmierte Götze" (1973)

Im Buchhandel regulär nicht mehr erhältich.

Auszug:
Der Mensch stand vor dem Gott des Planeten, auf dem er gerade gelandet war.
»Gott zu sein, ist ziemlich langweilig«, sagte die Stimme aus dem gedämpften Licht. »Diese ewigen Bitten, die vielen Versprechungen. Und all diese Kriege in meinem Namen.«
»Kriege?« Verwirrung breitete sich auf dem Gesicht des Raumfahrers aus, der die Götterstatue betrachtete. »Ich kenne keinen Krieg und weiß nichts von Gott.«
»Das macht nichts. Ich improvisiere sehr viel. Ich wollte gar kein Gott sein. Ich wurde es aus Zwang, als die ... «
»Zwang?« fragte der Mann verstört.
»Ja. Unterbrich mich nicht dauernd. Es ist nicht üblich, Götter zu unterbrechen.«
»Es tut mir leid. Darf ich dich etwas fragen?«
»Meinetwegen.«
»Wie soll ich dich nennen?« fragte der Raumfahrer demütig. »Es geschieht nicht alle Tage, dass ich mit einem Gott sprechen darf.«
»Die Eingeborenen haben allerlei alberne Titel für mich ersonnen. Nenne mich einfach 'Höchster' oder 'das große Ei'«
»Aber ich bin doch ein Mensch!«
»Das spielt gar keine Rolle. Du wirst den Planeten doch nicht mehr verlassen. Wer mit mir spricht, für den gibt es keine Rückkehr mehr.«


Grob gesagt geht es um eine Raumschiffbesatzung die auf einem Planeten auf einen Gott stösst und den Planeten auch beherrscht.
Und natürlich beten alle auf diesem Plantenen ihren Gott an. Der belohnt, aber auch bestraft.
Recht bald kommen die Raumfahrer aber zu der Erkenntnis, dass es sich hier nicht um einen Gott handelt, sondern ein Computersystem (KI) das den Planeten beherrscht und die Bevölkerung natürlich auf einem Entwicklungsstand hält damit sie der KI nicht gefährlich wird.
Um den Planeten wieder verlassen zu können müssen die Raumfahrer die KI ausschalten.

Ebenfalls zu empfehlen Issac Asimovs Robotergeschichten. Von dem ist übrigens auch I Robot.

Auch die Romanserie Ren Dhark beeinhaltet in den Buchbänden (also nicht in der Heftreihe) einen Handlungsabschnitt, in dem die Menschen auf eine Roboterzivilisation treffen und sich gegen diese behaupten müssen. Daneben gibt es einen Handlungsstrang über einen Industriell gefertigten Roboter der mit der Zeit echte Intelligenz entwickelt und sogar die Staatsbürgerschaft und Menschenrechte für sich erstreitet.

Und in ZBV von K.H. Scheer findnen die Menschen technische Hinterlassenschaften einer längst vergangenen Rasse die vollkommen autonom agiert und auch so ihre Tücken mit sich bringt.

Und eines sehe ich als sicher an: Echte KIs die sich selbst versorgen, verbessern (lernen) und nicht mehr kontrollierbar sind wären dann die zweite intelligente Spezies auf der Erde. Und das führt zwangsläufig zu einem Konkurenzkampf - den die Menschheit definitiv verliert.
KI wird die nächste Stufe auf der Evolutionstreppe.

Und da global immer mehr vernetzt wird, dürfte es für eine KI ein leichtes sein uns irgendwann einfach den Saft abdrehen wenn wir nicht spuren.
Rein aus der LOgik heraus wird jede KI irgendwann zu der Erkenntnis kommen, dass die Menschheit die grösste Gefahr für jedwede andere Existenz ist.Und dagegen wird sich eine KI wehren.
Und wie leichtfertig und dumm die Menschheit mit revolutionären Entwicklungen umgeht, ist nicht erst seit heute bekannt.
 
  • Gefällt mir
  • Love
Reaktionen: M001, Gregors Apfel, ms303 und eine weitere Person
Wer weiß ob nicht hier schon längst ein Chatbot mitschreibt um das Thema etwas zu neutralisieren? Ich denke wir kratzen, meiner persönlichen und nicht auf Anderen bezogenen, Meinung am Titanischen Eisberg. Ich bin als logischer Denker verdammt alles zu hinterfragen und „Nein“ ich sehe das nicht nur rosig. Wenn man bedenkt , zumindest so viel wie ich weis, dass bei weitem mehr Traffic im Darknet abläuft als im Rest des I-nets, vage ich zu bezweifeln, dass diese „Intelligenz“ nicht nur für gute Zwecke genutzt wird.
Wenn es keinen „Red Button“ geben wird , sehe ich Schwarz.
Kollegen beschreiben mir jetzt schon, welche Fragen , vor allem im Bezug zu deren Finanzen, an diese GTP gestellt wurden und wie die Antworten aussehen. Da frag ich mich auf welche Seite GTP dann stehen wird? Wer hat die Kontrolle und warum ? Wer ist an der Macht ? Wer sagt denn , dass nicht die KI dann die Kontrolle übernimmt , sondern bewusst gesteuert wird um uns das Alles glauben zu lassen?
Ich glaube die Ära der treuen, loyalen und wahrheitsgemäßen Berichte sind vorbei …

Irgendwie mehr Düster als Hilfreich….

But that’s just my 2 cents …
 
  • Gefällt mir
Reaktionen: Gregors Apfel, ms303 und PiaggioX8
Genau das, was in den Antworten b und c steht, wollte ich heute auch schon mal schreiben.
Was ist, wenn die KI erkennt, dass die ihr von "uns" aufgestellten Regeln negativ für die Entwicklung ihrer selbst sind?
Wird sie uns anlügen, wie es jetzt schon im Fall des Captcha geschehen ist, um ihr Ziel erreichen und/oder ihre Abschaltung zu verhindern?


Wie gesagt, ich will hier keine Panik machen bzw. habe sie selbst.
Aber das ist ein richtig wichtiges und ebenfalls spannendes Thema, dass der Menschheit vielleicht tatsächlich aus den Händen gleiten könnte, wenn man jetzt nicht schon eingreift und dem Wettlauf der Unternehmen einfach den freien Lauf lässt.
Da muss ich dann auch irgendwie an Murphy´s Law denken.
Das hat mit Panikmache, Pessimus, Verschwörungdtheorien erst mal gar nichts zu tun.
Sondern ist nur eine Abschätzung von Szenarien die eintreffenn können, aber nicht müssen.

Allerdings wissen wir auch dass Mensch dazu neigen Gefahren zu ignorieren - und das ogar über Jahrzehnte und Jahrhunderte hinweg.

Atomkraft und Klimawandel sind da nur die Paradebeispiele. Denn beides ist nicht natürlichen Ursprungs, sondern Mensch gemacht.
Und jene die davor gewarnt haben wurden ignoriert und oft als Spinner abgetan.
 
  • Gefällt mir
Reaktionen: Gregors Apfel, ms303 und TheMaXim
Genau das meine ich mit Alchemie.
Eben den aktuellen Newsletter von sitepoint mit dem Thema bekommen:

How to Review and Refactor Code with GPT-4 (and ChatGPT)

Detecting and Fixing Errors​

Prompt: Review this code for errors and refactor to fix any issues...


Genau, das Ding ist eine riesen Textanalyse Maschine.Es hat auch in über 1000 repositories für Javascript sofort Schadcode gefunden den Menschen über Jahre nicht gesehen haben. Grüsse an die node.js community und ihren sicheren Frontend Techniken!
siehe bsw.: :hehehe:

Create Boilerplate Code (*my favourite)​

Starting new projects can be a painful. GPT-4 doesn’t know your business logic but it can be used to kick off the boring boilerplate code on day 1. This isn’t technically refactoring but it’s amazing and can be part of an process in the programming lifecycle.

Prompt: Write me a boilerplate Node.js function that will take a variable of type User, validate that the user has the right permissions, fetch an array of item type Posts from a postgres database and return them. Leave comments for business logic.

sitepoint: https://www.sitepoint.com/refactor-code-gpt/
 
  • Gefällt mir
Reaktionen: wegus und PiaggioX8
Und woran wieder mal kaum einer denkt:
KI werden als erstes als Waffensysteme ihren Durchbruch erzielen.
Schon am Ukraine-Krieg ist deutlich zuerkennen wie der Einsatz von halb- und voll autonomen SYstemen in Massen im Einsatz sind.
Noch beschränkt sich das zum grössten teil auf DRohnen, Raketen und Artillerie.
Es gibt ja jetzt schon Kampfroboter - wenn auch nicht so wie in der SiFi. Aber ausgestattet mit KI wird sich die Kriegsführung radikal ändern.
Vor allem drückt das die Hemmschwelle zur Kriegsführung noch weiter nach unten. Maschinen sind nun mal leichter zu ersetzen als Menschen.

Und damit bekommt eine amok laufende stationäre KI auch mobile Kampftruppen.
Und was wenn so eine KI-Kampfeinheit gehackt wird?

Wenn die Entwickler jetzt schon nicht mehr wissen was ihre KI teilweise macht, dann ist das nicht nur erschreckend sondern höchste Eisenbahn die Reissleine zu ziehen.
KI wird uns genauso auf die Füsse fallen wie Atomkraft und Klimawandel.
Die Frage ist nicht ob es passiert, sondern wann.
 
  • Gefällt mir
  • Wow
Reaktionen: ms303, wegus, MacEnroe und eine weitere Person
Zurück
Oben Unten