[OpenAI/ChatGPT] Kein Thema für einen Mac User?

btw. „making Siri great again“ – again? :hehehe:

Aber dieses Content-bezogene ist schon abgefahren:

 
Na Jungs? Wer spendiert mir einen Drink? Und wieder ein Stück besser geworden, meine Arbeit mit der KI ( Draw Things) auf dem Mac.

r1 2.png

:)
 
  • Gefällt mir
Reaktionen: RealRusty, BEASTIEPENDENT und Petoschka
Ein Glas Mineralwasser darfst Du gerne haben, will Dir ja nicht die Figur ruinieren. 😁

Meine KI Krakeleien nehmen sich da noch etwas bescheidener aus:

IMG_5974.jpeg

IMG_5982.jpeg

IMG_5981.jpeg
 
  • Gefällt mir
  • Haha
Reaktionen: RealRusty, BEASTIEPENDENT und Dorena Verne
Mich würde da eher der Prompt interessieren. Sofern ihr mögt.
 
Falls Du damit meinst, was eingegeben wurde, damit die Bilder zusammengepanscht werden, so war dies bei mir (ich nutzte Copilot) für z.B. das zweite Bild: Weiblicher Terminator, am Strand, auf Liegestuhl, Cocktail in der Hand, Kreidezeichnung, digitale Kunst. Bei den anderen habe ich "Kohlezeichnung" angegeben und die Parameter entsprechend angepasst.
 
  • Gefällt mir
Reaktionen: Bozol, kenduo, BEASTIEPENDENT und eine weitere Person
Okay. Mit Copilot funktioniert das in der Tat ganz gut. Aber einige Tools sind da komplizierter :)
 
btw. „making Siri great again“ – again? :hehehe:
ich glaube, Siri kann auch keine KI helfen.
Heute kann Siri nicht mal die Frage beantworten, wie spät es ist. Auf meinen HomePods will Siri, dass ich das auf dem iPhone im Internet suche.
Meine Güte ist Siri schlecht. :hehehe:
 
  • Gefällt mir
  • Haha
Reaktionen: BEASTIEPENDENT und wegus
ich glaube, Siri kann auch keine KI helfen.
Heute kann Siri nicht mal die Frage beantworten, wie spät es ist. Auf meinen HomePods will Siri, dass ich das auf dem iPhone im Internet suche.
Meine Güte ist Siri schlecht. :hehehe:
Das ist dann aber höchstens ein Stabilitätsproblem des Dienstes. Bei mir antwortet Siri auf allen HomePods immer zuverlässig, wenn ich nach der Uhrzeit frage ("Wie spät ist es?").
 
Wow :teeth:
 
  • Gefällt mir
Reaktionen: hopeless, wegus, Petoschka und eine weitere Person
Das ist dann aber höchstens ein Stabilitätsproblem des Dienstes.
Um es mal mit Loriot zu sagen: „Ach was!“
Das ist doch logisch, nur hat Siri halt verhältnismäßig oft ihre Tage.
Und dummerweise funktioniert Siri auf den Geräten wie den HomePods, auf denen man sie am Häufigsten braucht nun mal am Schlechtesten.
 
Um es mal mit Loriot zu sagen: „Ach was!“
Das ist doch logisch, nur hat Siri halt verhältnismäßig oft ihre Tage.
Und dummerweise funktioniert Siri auf den Geräten wie den HomePods, auf denen man sie am Häufigsten braucht nun mal am Schlechtesten.
Könnte vielleicht damit zusammenhängen, dass die HomePods die einzigen aktuellen Geräte sind, bei denen Siri noch ein reiner Online-Dienst ist. Ansonsten läuft es ja nun lokal und ist somit nicht davon anhängig, ob der Online-Dienst verfügbar ist oder nicht.
 
Wobei so ein Service lokal ja eher "mäh" ist ... Die Uhrzeit ablesen und Kalendereinträge falsch mit "Ereignis" erstellen kann ich zur Not ja selbst auch noch :crack:
 
Wobei so ein Service lokal ja eher "mäh" ist ... Die Uhrzeit ablesen und Kalendereinträge falsch mit "Ereignis" erstellen kann ich zur Not ja selbst auch noch :crack:
Lokale Ausführung ist besonders bei HomeKit-Anfragen schon recht sinnvoll. Aber auch bei den üblichen Timern in der (Tee-)Küche.
 
Auch cool, oder hat das hier schon jemand gepostet?

Oje, da wird "ChatGPT" einfach als Synonym für Chat mit einem großen Sprachmodell genommen. Nein, was da gezeigt wird, hat nichts mit ChatGPT von OpenAI zu tun. Da wird einfach eine Llama2-Instanz aufgesetzt, also das freie Sprachmodell von Meta. Das ist nicht mal ansatzweise vergleichbar mit ChatGPT und für Deutsch komplett unbrauchbar.
 
  • Gefällt mir
Reaktionen: wegus und Petoschka
Ich habe das installiert und nein, das Programm beherrscht die deutsche Spreche, zudem lassen sich Module nachinstallieren. Und es läuft dadurch auch unabhängig vom Internet.
Du scheinst es ja schon ausgiebig getestet zu haben geWAPpnet? Ich bereue schon wieder überhaupt gepostet zu haben, da sich ja gleich Besserwisser und vermeintliche Experten negativ äußern.

 
Ich habe das installiert und nein, das Programm beherrscht die deutsche Spreche, zudem lassen sich Module nachinstallieren. Und es läuft dadurch auch unabhängig vom Internet.
Du scheinst es ja schon ausgiebig getestet zu haben geWAPpnet?
Ja, Llama2 und Llama3 habe ich tatsächlich getestet. Dafür braucht man übrigens keinen Server aufzusetzen, das kann man sogar schon lokal auf dem iPhone mit diversen Apps installieren (z. B. Private LLM). Und ich bleibe dabei, dass es für Deutsch unbrauchbar ist. Vor allem - und das war ja eigentlich mein Punkt - ist das nicht ChatGPT! Das Video heißt "MacMini zu ChatGPT Server" was aber schlicht Unsinn ist. ChatGPT ist der Name einer Anwendung von OpenAI.
 
Lokal, bzw. sogar im Netzwerk,..aber egal, dieses autistische Aufgerege wegen eines falschen Namens muss ich nicht haben, egal. Immer diese Erbsenzählerei, manoman. Hab noch einen schönen Tag.:girlkiss:
 
Zurück
Oben Unten