KI und die Frage des 'richtig seins' - arbeiten mit KI

Ich verstehe die Intention dieses Threads immer noch nicht wirklich und halte auch die Fragestellung an die KI im ersten Beitrag für fragwürdig.
Wenn man Menschen so fragt, dürfte die Antwort kaum besser ausfallen. Warum erwartet man dann von einer KI mehr?
Wie man diese Frage richtig stellt und dann auch eine brauchbare Antwort bekommt, wurde ja hier schon dargestellt.
Ergo: Je präziser die Frage an die KI, desto brauchbarer die Antwort. Man sollte sich schon etwas Mühe dabei geben.
 
Das ist mir schon öfter aufgefallen, openai mit chatgpt und Antrophic mit Claude machen da einen besseren Job. Google hat da Einiges aufzuholen. Sie sind zum Erfolg verdammt, denn mit den LLMs geht das klassische Suchmaschinengeschäft zu Ende. Bisher sieht Google dabei nicht gut aus.
Daher läuft Googles KI ja auch bereits bei der normalen Websuche mit und generiert zum Such-Prompt eines jeden Ergebnisse.
Und die sind schon relativ gut bis sehr gut.

edit: Google Serps mit KI-Antwort enthalten zusätzlich diese Information
und untendrunter steht dies „KI-Antworten können Fehler enthalten.“
Beispiel-Prompt hier: wie setze ich ankerpunkte mit aria-tags in einer html datei?

Informationen zur Quelle​

Diese Übersicht wurde mithilfe von KI erstellt. Dabei wurden auch Informationen aus dem Web und der Knowledge Graph von Google verwendet, eine Sammlung von Informationen zu Personen, Orten und Dingen. Generative KI befindet sich noch in der Entwicklung. Die Qualität der Informationen kann variieren. Du kannst die Informationen unter den bereitgestellten Links selbst überprüfen. Weitere Informationen zur Funktionsweise von KI-Übersichten und wie Google Daten zur Entwicklung von KI in der Suche verwendet.

Früher™ musste man bsw. nach einem Stück Code oder einem Snippet davon googeln, wenn man es nicht kannte
oder den Einsatzzweck nicht erkennen konnte usw.
Doch der Datenbestand musste ja auch erst vorhanden sein; irgend jemand musste quasi vorher gleiches
oder artverwandte Thematik erfahren und es „im Netz verfügbar reingeschrieben“ haben.
Danach wurde und konnte (manchmal mühselig) „gesucht“ werden.
Die Ergebnisse mussten selbst verstanden und zzgl. ala dem „Aschenputtel-Prinzip“ selektiert werden.

Damals™ hätte LLM nichts bringen können, weil es keinen dafür tauglichen Datenbestand gab.
Bzw. keinen, der dafür aufbereitet, noch so erfassbar war/ist, wie heute.

Gezielt eingesetzt sollte die Anwendung davon sehr sinnvoll und auch sehr tauglich werden bzw. jetzt schon sein.
Die länderpolitischen Begebenheiten, gerade mit den „ein-Parteien-Staaten“ vs. „demokratischen“ setzt dort aber
wohl auch eine Hürde von gegenseitiges „Abgreifen“ bis vs „schützen vor selbiges“.
Wobei zweiteres anzunehmenderweise aktuell soweit schlechter funktioniert als ersteres.

Die Information über die militärische Nutzung von KI-Algorhytmen für das Ausschalten von Zielpersonenen
inkl. die dabei berechneten Kollateralschäden zum bestehenden Aufenthaltungsort der Zielperson,
mit gleichzeitig angegebenen Zahlen einer zu akzeptierenden Anzahl unbeteiligter Personen zur Wichtigkeit der Zielperson – abseits des Schlachtfelds, weil effektiver und einfacher – lässt einem den Atem stocken.
Aktuell wird sowas ja eingesetzt.
 
Die richtige Frage wäre "ist das schon Intelligenz?"
Ich fürchte, du hast das Bonmot nicht verstanden …

Der Hintergedanke war, dass "Intelligenz" nach technischer Definition durchaus vorstellbar ist, aber das Bewusstsein ist mehr, es paart (hoffentlich) Intelligenz mit "dem Rest" des Menschen, aka Emotionen, Absichten und anderen physiologischen Reaktionen.

Sorry, wenn ich das nicht klarer formuliert habe! Eine KI hätte das nämlich NICHT verstanden … ;)
 
hier mal was die in google 'verbrochen' hat(te)
die suche war eigentlich: Loona Latino Lover Cover
und ja ich sehe was da da steht: ''können fehler enthalten''
dazu ein mehrfaches :hehehe: von mir
Also zuerst mal: Mit Apple Intelligence hat das direkt nichts zu tun. Du beschreibst eine neue Funktion der Google-Suche, die deren eigenes großes Sprachmodell Gemini nutzt, um zu den Sucheingaben eine Antwort zu generieren. Sprachmodelle erstellen Text auf Basis einer Wissensbasis, die vorher trainiert wurde. Dazu gehören größere Textkorpora und Webcrawls. Zusätzlich können Ergebnisseiten von einer Websuche ausgewertet werden und daraus die Antworten gezogen werden. Falsche Antworten können entweder schon in den Trainingsdaten stehen oder falsch aus den Webseiten interpretiert worden sein. Die eigentliche Textgenerierung basiert auf gewichteten statistischen Verfahren. Dabei wird als "korrekt" generiert, was die beste Bewertung in der Zeichen/Wort-Zusammensetzung hat. Das kann inhaltlich kompletter Unsinn sein.

Trotzdem sind die Ergebnisse oft erstaunlich gut. Um mal bei Apple Intelligence zu bleiben, die damit automatisch generierte Zusammenfassung Deines Beitrags lautet: "Der Nutzer testete die Suchfunktion und fand falsche Informationen zu Loona. Er befürchtet Klagen und kritisiert die KI-Technologie." Trifft es doch soweit, obwohl die wichtige Info fehlt, dass Du über die Google-KI-Übersicht sprichst.
 
Zurück
Oben Unten