ChatGPT Anfänger Fragen

Ich nutze die original ChatGpt app und würde gerne die Audioausgabe auf meinem Airplay Lautsprecher haben.
Leider bekomme ich das nicht hin - die App weigert sich und wenn ich sie über Siri ansteuere funktioniert es irgendwie auch nicht.
Ganz abgesehen davon, dass die Ansteuerung über Siri eh nur selten klatt.
Hat jemand eine Idee?
 
Warum suchst Du das? Registriere Dich bei OpenAI. Mit ChatGPT kannst Du Dir dann eine Sprache aussuchen, der kann eh mehr als Du vermute ich mal :hehehe: - jedenfalls kann er auch mehr als ich. Ich verwende meist englisch, aber natürlich kannst Du auch einfach deutsche Eingaben machen.
Nutze ich und ist eine wirklich gute Ergänzung.
 
  • Gefällt mir
Reaktionen: dodo4ever
ist eine wirklich gute Ergänzung.
Stimmt auffallend.

Copilot mit GPT-4.png
 
  • Haha
  • Gefällt mir
Reaktionen: BEASTIEPENDENT und dodo4ever
Hat wirklich keiner eine Idee, wie ich ChatGPT dazu bewegen kann, die Audioausgabe auf einen externen Lautsprecher zu bekommen?
 
Hat wirklich keiner eine Idee, wie ich ChatGPT dazu bewegen kann, die Audioausgabe auf einen externen Lautsprecher zu bekommen?
Die App gibt offensichtlich nicht über das System aus, also kann man die Ausgabe auch nicht über das System auf einen AirPlay-Lautsprecher umleiten. Somit gibt es keine Lösung dafür.
 
Hat wirklich keiner eine Idee, wie ich ChatGPT dazu bewegen kann, die Audioausgabe auf einen externen Lautsprecher zu bekommen?

...frag ihn/sie oder es doch einfach mal. Es sollte doch irgendwie nützlich sein, dass eine KI das einzige Tool ist, das über sich selbst und seine Funktionen Auskunft geben kann. :)
 
...frag ihn/sie oder es doch einfach mal. Es sollte doch irgendwie nützlich sein, dass eine KI das einzige Tool ist, das über sich selbst und seine Funktionen Auskunft geben kann. :)
Das ist irgendwie eine weit verbreitete Fehlannahme. Die Trainingsdaten sind doch immer aus der Zeit, bevor es die App gab. Warum sollte das Modell also irgendwas über die Funktionalitäten der App wissen?
 
  • Gefällt mir
Reaktionen: wegus und lisanet
Das ist irgendwie eine weit verbreitete Fehlannahme. Die Trainingsdaten sind doch immer aus der Zeit, bevor es die App gab. Warum sollte das Modell also irgendwas über die Funktionalitäten der App wissen?

Yep.

Der Begriff "Wissen" ist im Zusammenhang mit LLM eh nicht ganz passend. Da "G" in ChatGPT steht halt für "generative" und nicht für "göttliche Weisheit" ;)
 
Und nicht zu vergessen... die Microsoft Copilot IOS App... und auf dem Mac Edge da ist das auch integriert....
 
Das ist irgendwie eine weit verbreitete Fehlannahme. Die Trainingsdaten sind doch immer aus der Zeit, bevor es die App gab. Warum sollte das Modell also irgendwas über die Funktionalitäten der App wissen?

... da hast du natürlich recht. Es würde im Umkehrschluss aber auch bedeuten, dass ChatGPT rein gar nichts über sich selbst "weiß". Also noch nicht einmal dass es existiert. Und trotzdem kann es uns Anleitungen geben, wie wir am besten mit ihm arbeiten sollten. Irgendwie paradox, oder?
 
Und nicht zu vergessen... die Microsoft Copilot IOS App... und auf dem Mac Edge da ist das auch integriert....
Wobei Copilot zwar auf GPT von OpenAI basiert, aber doch nicht identisch zu ChatGPT ist. Allerdings kann man als Nutzer des kostenlosen Copilot (es gibt ja auch eine Abo-Version) in Nicht-Stoßzeiten auf GPT-4 zugreifen. Das geht mit der kostenlosen Version von ChatGPT nicht.
 
... da hast du natürlich recht. Es würde im Umkehrschluss aber auch bedeuten, dass ChatGPT rein gar nichts über sich selbst "weiß". Also noch nicht einmal dass es existiert. Und trotzdem kann es uns Anleitungen geben, wie wir am besten mit ihm arbeiten sollten. Irgendwie paradox, oder?
Nicht wirklich. Zum Zeitpunkt des Trainings gab es ja schon die vorherigen Versionen des Modells. Außerdem fand sich in den Common-Crawl-Daten, mit denen trainiert wurde, natürlich alles, was halt so im Web von und über OpenAI publiziert wurde. Es wurde aber nicht nachtrainiert mit einem Handbuch zur Bedienung der Web-App oder iOS-App. Allerdings hat OpenAI zumindest die Information mitgegeben, welche Version bzw. Modell es ist. Bei der Nutzung über die API ist das nicht so eindeutig. Da sagt GPT-4 auch gern mal, dass es auf GPT-3 basiert.
 
... auf jeden Fall ein sehr spannendes Thema. Man kommt ja - wenn man da weiterdenkt - schnell an den Punkt, wo man auf die Idee kommen könnte, der KI eine Art "Persönlichkeit" und Wissen über sich selbst mitzugeben. Von da bis zu dem Punkt, wo der erste "Bewusstsein!" ruft, ist ja nicht weit.

Wie so oft bei dem Thema gleitet man dann aber schnell in philosophische Betrachtungen ab, die einfach nicht zu beantworten sind.
 
  • Gefällt mir
Reaktionen: Ralle2007
... auf jeden Fall ein sehr spannendes Thema. Man kommt ja - wenn man da weiterdenkt - schnell an den Punkt, wo man auf die Idee kommen könnte, der KI eine Art "Persönlichkeit" und Wissen über sich selbst mitzugeben. Von da bis zu dem Punkt, wo der erste "Bewusstsein!" ruft, ist ja nicht weit.

Wie so oft bei dem Thema gleitet man dann aber schnell in philosophische Betrachtungen ab, die einfach nicht zu beantworten sind.
Dafür müsste das System aber lernen können, also alles Wissen aus den Chats speichern und verarbeiten. Das ist bisher ja nicht so. Nichts von den Chats bleibt im Speicher, neues Wissen kann nur von OpenAI beigebracht werden. Allerdings hat OpenAI ja kürzlich eine neue Memory-Funktion vorgestellt, die demnächst kommen soll. Dabei werden - wenn gewünscht - pro User-Account ausgewählte Informationen aus den Chats gespeichert und stehen als Wissen bei zukünftigen Chats des gleichen Accounts zur Verfügung.
 
Wenn ich Siri mit ChatGPT benutze bekomme ich die Antworten immer mehrmals - wie oft weiß ich nicht, dass ich immer abbreche.
Hat jemand eine Idee, wie ich dieses Verhalten beenden kann?
 
Wenn ich Siri mit ChatGPT benutze bekomme ich die Antworten immer mehrmals - wie oft weiß ich nicht, dass ich immer abbreche.
Hat jemand eine Idee, wie ich dieses Verhalten beenden kann?
Wie benutzt Du denn Siri mit ChatGPT?
 
Zurück
Oben Unten