Im echten Leben ist das doch genau so. Person A fragt Person B nach irgendwas und ist mit dessen Antwort weitestgehend zufrieden. Dann stellt Person C Person im wesentlichen die gleiche Frage und ist mit der Antwort komplett unzufrieden. Warum? Weil B möglicherweise gar nicht wissen kann, mit welchem Hintergrundwissen jemand eine Frage stellt und was für eine Antwort nun genau erwartet wird.
Zweimal die gleiche Frage von unterschiedlichen Personen an die gleiche Person. Wenn A der Themenbereich der Frage völlig Fremd ist, erwartet A auch höchstwahrscheinlich eine andere Antwort als C, die sich womöglich schon tiefer in der Materie befindet. Ohne diese Randbedingung kann B die Frage kaum befriedigend beantworten.
So ist das auch mit den LLMs du musst zunächst mal die Randbedingungen bekanntmachen und deine Erwartungshaltung. Deshalb fangen die Promts ja idR ja in der Art an: "Du bist ein Experte für die Programmiersprache Rust. Gib bitte immer zwei Beispiele an. Erkläre nur das nötigste. …".
Ohne diesen Kontext kann das LLM nicht "wissen" (ist etwas zu hochtrabend für eine elaborierte Textvervollständigung), was du nun genau erwartest.
Ich halte das mit den KIs auch für etwas überhitzt. Für manches sind sie aber auf jeden Fall nett. Wenn man z.B. mit etwas anfangen möchte, aber das "weiße Blatt Papier" dich aber noch überwältigt und du keinen Anfang findest. DANN ist es sehr fein., die Fragestellung mal in ein LLM zu werfen. Mit ein paar Nachfragen/Hinweisen dengelt man den Text in der LLM noch etwas zurecht und man hat schonmal einen Anfang. Ich finde, es ist so wie in Studienzeiten, wenn man bei anderen Arbeiten Korrekturgelesen hatte. Man selbst hätte diesen Text nicht so bald auf die Beine gestellt. Aber im Korrekturmodus kann man plötzlich noch einiges am Text bewirken. Genau diesen Effekt nutze ich dann, wenn ich einen Keim in die LLM werfe.
Beim Coden ist das auch ganz nett, sich einfach mal ein paar Beispiele zu etwas generieren zu lassen. Da kann auch mal die eine oder andere Inspiration holen. Aber besonders beim Programmieren, sollte man den Code aus dem LLM genau ansehen. Es befreit einen am Ende nicht von der domänenspezifischen Kompetenz. Ich mag z.B. Python überhaupt nicht (ich hasse Sprachen, die mit Einrückungen strukturieren) und nutze es daher nur wenn nötig. Hier finde ich dann sowas wie Copilot in der Tat hilfreich, wenn man mal etwas scripten muß. Ich hab zwar nicht viel Ahnung von Python (kenne also auch die Funktionen und Libs nicht), aber ich kann zumindest relativ gut erkennen, wie gut der Code ist, oder kann im Zweifel bzgl. einiger Fragestellungen nochmal spezifisch in der Doku nachsehen oder die LLM daraufhin befragen.
Oder als elaborierter Textbausteingenerator sind LLMs auch klasse. Denn mal ehrlich: sehr viel an schriftlicher Kommunikation haben doch sowieso eher einen Textbausteingeneratorcharakter, auch wenn jemand sie persönlich geschrieben hat. Ich behaupte mal, daß NIEMAND jammern wird, diese bausteine von einer LLM generieren zu lassen. Das ist auf jeden Fall besser als die unzähligen Mails/Briefe, die aus echten, statischen Textbausteinen bestehen.
Aber wichtig ist und bleibt: genauso wie bei Antworten von Menschen, kann man sich auf die Antworten einer LLM nur bedingt verlassen. Je spiezifischer, desto mehr spezifisches Wissen sollte man selber mitbringen, um die Antworten zu bewerten.