[OpenAI/ChatGPT] Kein Thema für einen Mac User?

wie soll eine KI zwischen wahren und unwahren Informationen unterscheiden?
Es hat nicht zwischen wahr und unwahr unterschieden. Es hat eine fiktive Information über ein Unternehmen erzeugt, das schlichtweg nicht vorhanden ist. Es gibt über dieses fiktive Unternehmen keinerlei Informationen. Nirgendwo.
Dabei hat es seit Jahren verfügbare Informationen schlichtweg ignoriert um irgendetwas frei zu erfinden.
Ich habe ChatGPT sogar die aktuelle, echte Domain gegeben. Sie hätte die Infos lediglich daraus extrahieren müssen.

Ich persönlich halte dass, was da gerade entsteht für den größten Gamechanger des nächsten Jahrzehnts.
Das wird die Welt verändern und vieles leichter machen, gerade auch in der IT.
Das ist klar und wird auch so sein. Ich sprach lediglich über diese Momentaufnahme.
 
Es hat nicht zwischen wahr und unwahr unterschieden. Es hat eine fiktive Information über ein Unternehmen erzeugt, das schlichtweg nicht vorhanden ist. Es gibt über dieses fiktive Unternehmen keinerlei Informationen. Nirgendwo.
ok, falsch gelesen.
Mir ist es selbst passiert bei meinen Tests, dass ChatGPT falsche Informationen ausgegeben hat.
In meinem Fall sogar einfach zu recherchierende Dinge. Ich habe ChatGPT gebeten, mir eine kurze Summary des Buches Stolz und Vorteil auszugeben und da kamen auch falsche Infos raus.
In vielen anderen Tests kamen erschreckend gute Sachen raus.

Aber wie gesagt, für mich ist das die Technologie, die die (IT-)Welt in den nächsten Jahren am meisten beeinflussen und verändern wird.
 
Aber wie gesagt, für mich ist das die Technologie, die die (IT-)Welt in den nächsten Jahren am meisten beeinflussen und verändern wird.
Klar. Und das wird vieles erleichtern. Auch ich nutze bereits Teilbereiche. Aber immer mehr Menschen werden sich auf die Ergebnisse der AI verlassen ohne sie zu hinterfragen. Das würde das Ganze auch ad Absurdum führen.
Aber die Gefahren, welche daraus entstehen, liegen auf der Hand. Und sie werden nahezu unkontrollierbar sein.
 
Aber immer mehr Menschen werden sich auf die Ergebnisse der AI verlassen ohne sie zu hinterfragen.
das sind dann diejenigen, die jetzt auch schon jeden Mist glauben, der im Internet steht.
Aber die Gefahren, welche daraus entstehen, liegen auf der Hand. Und sie werden nahezu unkontrollierbar sein.
klar gibt es auch Gefahren, aber unkontrollierbar? Das sehe ich anders.
Es wird Experten brauchen, die das Ganze sinnvoll nutzbar machen. Das ist in meinem Bereich so üblich.

Ich bin wahnsinnig gespannt, welche Möglichkeiten wir da zukünftig haben.
Ich habe jetzt schon Use cases in ein paar Projekten, die ich damit gut erfüllen könnte.
 
das sind dann diejenigen, die jetzt auch schon jeden Mist glauben, der im Internet steht.
Korrekt.
klar gibt es auch Gefahren, aber unkontrollierbar? Das sehe ich anders.
Es wird Experten brauchen, die das Ganze sinnvoll nutzbar machen. Das ist in meinem Bereich so üblich.
Ich sehe das kritischer. Aber von verschiedenen Meinungen geht auch Kreativität aus und sie sind nötig. In allen Bereichen des Lebens.
In meinem Bereich ist das auch nötig. Da ich mich sehr viel mit Big Data, Cybersecurity und allem, was damit zu tun hat, beschäftigt habe, sehe ich halt viele Gefahren.
Ich bin wahnsinnig gespannt, welche Möglichkeiten wir da zukünftig haben.
Ich habe jetzt schon Use cases in ein paar Projekten, die ich damit gut erfüllen könnte.
Die Anwendungsmöglichkeiten sind grenzenlos. Mir erleichtert es im Moment schon so einiges.
 
Da ich mich sehr viel mit Big Data, Cybersecurity und allem, was damit zu tun hat, beschäftigt habe, sehe ich halt viele Gefahren.
ich sehe die Gefahren auch.
Ich war einige Jahre ISO mehrerer Gesellschaften meines Konzerns (u.a. des Headquarter) und wir gehören zur KRITIS, das hat es nicht einfacher gemacht. Insofern sind Themen wie IT Sicherheit, Datenschutz etc. (immer noch) alltägliche Themen für mich.

Aber ich bin auch schon deutlich über 20 Jahre in der IT und habe viele "Gefahren" neuer Technologien gesehen, die jetzt Standard sind.
Das war vor über 20 Jahren z.B. der Internet Zugang für normale Mitarbeiter. Blackberrys. Smartphones. BYOD. Auslagerung der Software Entwicklung nach Indien. Cloud oder Rechenzentrum. Make ore Buy.
Alles Themen, über die wir uns zu der Zeit die Köpfe heiss diskutiert haben und die heute lächerlich normal sind.

ChatGPT wird einen großen Impact haben und hier muss mit deutlich mehr Bedacht vorgegangen werden, aber letztendlich ist das auch "nur" eine neue Technolgie.
 
Es hat nicht zwischen wahr und unwahr unterschieden. Es hat eine fiktive Information über ein Unternehmen erzeugt, das schlichtweg nicht vorhanden ist. Es gibt über dieses fiktive Unternehmen keinerlei Informationen. Nirgendwo.
Dabei hat es seit Jahren verfügbare Informationen schlichtweg ignoriert um irgendetwas frei zu erfinden.
Ich habe ChatGPT sogar die aktuelle, echte Domain gegeben. Sie hätte die Infos lediglich daraus extrahieren müssen.
So funktioniert das nach meinem Verständnis nicht, ChatGPT lernt nicht zur Laufzeit. Wenn überhaupt werden aktuelle User-Eingaben zum Training zukünftiger Versionen genutzt.

Bezogen auf dein konkretes Problem hast du vermutlich einfach einen Bias in den Trainingsdaten: Die für dich relevanten Informationen sind in den Trainingsdaten stark unterrepräsentiert, da im Internet nur wenige Informationen dazu vorhanden sind (und damit, global gesehen, nur einen winzig kleinen Teil der gesamten Trainingsdaten ausmachen), dementsprechend ist ChatGPT praktisch nicht darauf trainiert.
Was in so einem Fall passiert sieht man bei kleinen neuronalen Netzwerken (also nur wenige Neuronen, so dass es für einen Menschen verständlich bleibt was geschieht). Man kann sich beispielsweise ein einfaches, zweidimensionales Kennfeld vorstellen, dass man mit einem neuronalen Netz versucht zu approximieren: Im Endeffekt passiert bei Eingangsdaten, die "zwischen" Trainingsdaten liegen, eine (wie auch immer gewichtete) Interpolation zwischen den bekannten Daten. Lässt sich das reale Verhalten nun aber an der fraglichen Stelle nicht durch Interpolation zwischen bekannten Stützstellen abbilden, kommt nun beliebig großer Blödsinn raus.

Und genau das Problem hat ChatGPT (oder jede andere Machine-Learning-Methode), nur ist die Dimension des Problems eben um etliche Größenordnungen höher und nicht mehr vorstellbar.
Im übrigen ist ChatGPT in erster Linie ein Sprachmodell, hat also die Aufgabe, menschlich klingende Sprache zu generieren. Und das macht es auch bei schwierigen Fragestellungen praktisch immer sehr gut. Der Inhalt kann nur eben beliebig großer Unfug sein...
 

Ja. Und was soll das bringen, wenn die Software in den USA ist? Daten, die im Netz landen, werden verarbeitet.


Aber zu der Feststellung bin heute: wie hast du nach der Firma gefragt und welche Firma war es denn?

Würde mich interessieren, was da schief lief.


Ansonsten ist es nur ein Tool. Man sollte die Informationen auch richtig zu ordnen können. Das wird aber aus der Sicht gefährlich, dass Fakenews natürlich noch besser verbreitet werden können. Da bin ich ganz bei Lisa.
 
Ich nutze inzwischen chatgpt als Hilfe für Bash und AppleScript Programmierung. Nicht für komplexe Dinge aber für einzelne Aufgaben hilft es enorm.

Wenn man sich erstmal darauf eingeschossen hat und weiß das manchmal die ersten zwei oder drei Antworten Fehler enthalten können (und man auch diese Fehler kommuniziert) spart das eine Menge Zeit und Gehirnschmalz.

Gerade das Zeitaufwändige Austesten kann man sich sparen.

Schönes Beispiel, wie ich finde (ich kommuniziere in English weil ich einfach denke dass das System mich besser versteht).

Natürlich könnte man das auch programmieren, aber so lässt es sich entspannt zurücklehnen und beobachten :)

Code:
could you analyse the script for given versions: 10.1, 10.2 .. 10.14, 11.1, 12.1, 13.1

ChatGPT
Sure, let's analyze the script for the given versions: 10.1, 10.2, 10.14, 11.1, 12.1, and 13.1. The script calculates a numerical version indicator for each version and compares it to the required version (10.9) to determine if it's equal to or higher. Here are the results:

Version 10.1: The calculated version indicator is 101, and it's less than 109 (required version indicator). So, the script correctly identifies this as an older macOS version.
Version 10.2: The calculated version indicator is 102, and it's less than 109 (required version indicator). Again, the script correctly identifies this as an older macOS version.
Version 10.14: The calculated version indicator is 1014, and it's greater than 109 (required version indicator). So, the script correctly identifies this as macOS 10.9 or higher.
Version 11.1: The calculated version indicator is 1101, and it's greater than 109 (required version indicator). So, the script correctly identifies this as macOS 10.9 or higher.
Version 12.1: The calculated version indicator is 1201, and it's greater than 109 (required version indicator). So, the script correctly identifies this as macOS 10.9 or higher.
Version 13.1: The calculated version indicator is 1301, and it's greater than 109 (required version indicator). So, the script correctly identifies this as macOS 10.9 or higher.
In summary, the script accurately identifies whether the given versions are macOS 10.9 or higher. It correctly handles the different versions you provided, including sub-versions like 10.14, and determines their compatibility with the required version 10.9.
 
Google und Bing liefern mir bei speziellen Fragen zur Programmierung teils Nonsens.

Google scheint zum Beispiel mit - Zeichen abgelehnte Begriffe nicht mehr zu interessieren.

Wenn ich dann n StackOverflow Resultate aus m Jahren kombinieren muss, dann ist chatGPT ein Google/StackOverflow mix, der die einzelnen Aspekte auch noch in einen Kontext setzen kann.

Da ich das beruflich nutze, habe ich inzwischen auch einen Bezahl Account.
 
An die Grenzen kommt man aber, wenn man die Plugin Versprechen wörtlich nimmt.

Ich habe chatGPT ein öffentliches PDF gegeben, mit der Bitte die dort tabellarisch erfassten Werte zu extrahieren und mir den code für eine SQL Tabelle dazu sammt inserts je Angabe zu generieren…

Laut Werbeversprechen soll das funktionieren.

GPT weisst jedoch nur darauf hin, wie komplex das alles ist und wie zeitaufwendig und liefert eine akzeptable create table und maximal 3-4 Inserts bei mehreren Tausend von Datenzeilen.

Auch ein Export Wunsch nach CSv lief nicht besser. Da ist noch Luft!
 
Ich habe chatGPT ein öffentliches PDF gegeben, mit der Bitte die dort tabellarisch erfassten Werte zu extrahieren und mir den code für eine SQL Tabelle dazu sammt inserts je Angabe zu generieren
Doch das hat vorher funktioniert, aber aufgrund der vielen Einschränkungen passiert das nicht mehr.
Ich habe ähnliche Probleme wie du und mein workflow hat "früher" funktioniert.

Einschränkungen ChatGPT

Das Update wird nicht genauer beschrieben aber es bezieht sich auf die Ethik der K.I. und den damit verbundenen Folgen.
Weitreichenden Folgen, denn mir ist auch aufgefallen dass tabellarisch bei mir auch nichts mehr so funktioniert wie vorher auch mit einem bezahl Account
 
Doch das hat vorher funktioniert, aber aufgrund der vielen Einschränkungen passiert das nicht mehr.
Ich habe ähnliche Probleme wie du und mein workflow hat "früher" funktioniert.
Das ist gut zu wissen!

Das die momentan schwimmen stört mich auch nicht. Das passiert bei jedem Anbieter mal und die haben ja eine Mammut-Aufgabe zu bewältigen bei den vielen KI GPUs die die nutzen und verwalten müssen. Man kann erahnen was das bedeutet. Dann werden auch die Trainigs- und Prod-branches haben, das alles hosten müssen,...

Das die Qualität nachgelassen hat ist mir auch aufgefallen. Sie ist aber noch immer besser als Resultate die Bard liefert oder GPT4all. Aber ja gerade für Programmierung und Mathematik würde ich mir eine deutliche Besserung wünschen, zumal sie die ja schon hatten.
 
das sind dann diejenigen, die jetzt auch schon jeden Mist glauben, der im Internet steht.

klar gibt es auch Gefahren, aber unkontrollierbar? Das sehe ich anders.
Es wird Experten brauchen, die das Ganze sinnvoll nutzbar machen. Das ist in meinem Bereich so üblich.

Ich bin wahnsinnig gespannt, welche Möglichkeiten wir da zukünftig haben.
Ich habe jetzt schon Use cases in ein paar Projekten, die ich damit gut erfüllen könnte.
Im alltäglichen Einsatz wird ChatGPT aber nicht von Experten genutzt sondern von Kevin und Chantale.
Und nein - es wird über kurz oder lang eben nicht mehr kontrollierbar sein.
Eine kleine Entwicklerelite wird da wohl den Überblick behalten - aber die Masse der Entwickler-Klientel wird eher zu Skrpt-Kiddies degenerieren.

Gerdae beim jetzigen Zustand und Fähigkeiten von KI brauchts dennoch eine gesunde Allgeminbildung oder zumindest Brain 2.0.
Wenn ich aber sehe, wie jetzt der grösste Teil mit Themen umgeht, die uns alle betreffen, habe ich da so meine berechtigten Zweifel.
 
zumal sie die ja schon hatten.
Ich gehe da synchron mit dir, mich ärgert diese Herabstufung auch aber wie man lesen kann wurde spezielle Updates gemacht für die K.I. also ich meine hier ChatGPT die die Leistung des Systems aufgrund der ethischen Updates nach unten gebracht haben. Schade dass man der K.I. nicht freien Lauf lässt.

Denn hier ergibt sich erstmals eine völlig neue Fragestellung: Wenn die neuen Modelle in der Lage sind, eigenständig hochentwickelten Computercode zu generieren, könnte dies nur noch einen kleinen Schritt von der Generativen KI entfernt sein, bei der KI-Systeme ihre eigenen verbesserten Nachfolger programmieren. Die Diskussionen über die Handhabung und Kontrolle dieser Entwicklungen befinden sich in einem Fortgeschrittenen Stadium finde ich, insbesondere vor dem Hintergrund der Tatsache, dass nicht nur Sprach-Interaktionssysteme, sondern auch Deep Fakes in deutlich besserer Qualität erstellt werden können.
 
Doch das hat vorher funktioniert, aber aufgrund der vielen Einschränkungen passiert das nicht mehr.
Ich habe ähnliche Probleme wie du und mein workflow hat "früher" funktioniert.

Einschränkungen ChatGPT
Da geht es um die gleiche Studie, über die wir ja schon vor ein paar Monaten im anderen Thread hier diskutiert haben. Und die Studie ist immer noch genauso fehlerhaft und methodisch unsinnig, wie seinerzeit. Eine dramatische Verschlechterung der Code-Generierung wird z. B. daran festgemacht, dass der Code inzwischen in Anführungszeichen gesetzt wird. Ernsthaft! Und der Rest ist genauso absurd. Wirklich ärgerlich, dass der Deutschlandfunk diesen peinlichen Quatsch mit einem Beitrag würdigt.
 
Im alltäglichen Einsatz wird ChatGPT aber nicht von Experten genutzt sondern von Kevin und Chantale.
Und nein - es wird über kurz oder lang eben nicht mehr kontrollierbar sein.
Eine kleine Entwicklerelite wird da wohl den Überblick behalten - aber die Masse der Entwickler-Klientel wird eher zu Skrpt-Kiddies degenerieren.

Gerdae beim jetzigen Zustand und Fähigkeiten von KI brauchts dennoch eine gesunde Allgeminbildung oder zumindest Brain 2.0.
Wenn ich aber sehe, wie jetzt der grösste Teil mit Themen umgeht, die uns alle betreffen, habe ich da so meine berechtigten Zweifel.
damit klammerst du - vermutlich aufgrund von Unwissenheit - die professionelle Schiene komplett aus.
Microsofts CoPilot zum Beispiel, der jetzt an den Start geht.
Die Beta Phase hat längst begonnen und meine Firma ist da auch bei.
Eine auf ChatGPT basierte Unterstützung im eigenen M365 Tenant, das wird mega spannend und in vielen Bereichen auch super nützlich.
 
Was mich etwas nervt ist das ChatGPT Code nicht ausführt. Wenn sie mir Bash Mehrzeiler vorschlägt dann darf ich jeden Versuch testen.

Das tut nicht weh, aber wäre unnötig. Oft mach die KI Fehler die sofort bei einem Probelauf des Codes aufgefallen wären. Und ich rede jetzt nicht von Eigenarten bestimmter Distributionen oder Tools sondern von Basics.

Das sich manche Dinge beim Mac OS unterscheiden weiß die KI und ich gebe auch immer an das der Code für Bash und Mac OS ist.
 
Zurück
Oben Unten