App "Microsoft Copilot" (LLM GPT 4) auf macOS (Apple Silicon) nutzen

T

thulium

Aktives Mitglied
Thread Starter
Dabei seit
12.11.2011
Beiträge
3.657
Reaktionspunkte
397
Moin.

Für iOS ist die App "Microsoft Copilot" verfügbar. Darüber kann man kostenlos LLM GPT4 verwenden.

Laut einem Artikel vom Januar 2024 von Heise soll die App auch im Appstore (Bereich iPhone und iPad) für macOS bereitstehen.
Das ist jedoch nicht (mehr?) der Fall.

Gibt es trotzdem einen Weg sie auf macOS zu nutzen?

Im Browser kann man Copilot nicht nutzen, sondern ansonsten nur in den typischen Apps von MS wie Word, Outlook etc.

Falls ihr alternative Wege kennt, wie man GPT4 kostenlos auf macOS nutzen kann: ich freue mich über Hinweise.
 
Über die Installation des Browsers EDGE, welcher auch in einer Mac-Version existiert.
 
Woher hast du denn diese Info?
Aus Copilot ; )

Antwort: "Es scheint, dass es derzeit keine Möglichkeit gibt, Microsoft Copilot als eigenständige Anwendung außerhalb der Integration in Microsoft 365-Apps wie Word oder Outlook zu verwenden."

Ich hatte zusätzlich noch diese Seite
Code:
https://copilot.cloud.microsoft/en-US/prompts
aufgesucht und dort keine Option zur Eingabe von Prompts gefunden. Daher ging ich davon aus, dass MS Copilot nur integriert in Word, Outlook etc. anbietet.

Mal abgesehen davon, dass es nicht stimmt: https://copilot.microsoft.com/
OK, Danke. Dann werde ich das verwenden.

Nochmal zurück zur ersten Frage:
Als Standalone iOS-App kann man Copilot nicht mehr auf macOS nutzen, richtig?

Welche kostenlosen LLM-GPTs nutzt ihr so? Welche Plugins?
 
  • Haha
Reaktionen: BalthasarBux
Da siehst du direkt wie beschränkt das alles ist...
KI liegt oft daneben.

Im grunde kann man sie nutzen um etwas hübsch zu verpacken. Muss aber im nachgang alle fakten gegenchecken.


p.s.:
Die eigenständige App ist noch da, aber Microsoft hat mittlerweile unterbunden, dass sie auf macOS installiert werden kann.
Wenn man das nicht aktiv unterbindet kann man normale iPad Apps auch auf Apple Silicon Geräten installieren.
 
  • Gefällt mir
Reaktionen: BalthasarBux, BEASTIEPENDENT und thulium
  • Gefällt mir
Reaktionen: BEASTIEPENDENT
Offtopic, aber ich wollte der KI gerade nochmal eine chance geben...
Wir suche eine neue Waschmaschine. Die alte macht extrem beunruhigende Geräusche.

"Erstelle mir eine liste aller Waschmaschinen mit Home Connect"

Dann fängt das geschwafel an was home connect genau ist und am schluss kommen exakt die angebote als wenn man "home connect" bei Google (vermutlich hier eher bei Bing) eingibt...

Irgendeine Ersparnis oder dass es einfacher wird sehe ich nicht.
Eine liste ist weit und breit nicht zu sehen.
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT
"Erstelle mir eine liste aller Waschmaschinen mit Home Connect"

Dann fängt das geschwafel an was home connect genau ist und am schluss kommen exakt die angebote als wenn man "home connect" bei Google (vermutlich hier eher bei Bing) eingibt...
Habe mich auch mal dran versucht.

Mein Prompt:
Erzeuge eine nummerierte Liste aller Waschmaschinenmodelle mit dem Merkmal "Home Connect". Nenne keine Händler. Nenne nur die Modellbezeichnungen. Nenne nur Modelle, die aktuell noch lieferbar sind. Führe in der Antwort nur etwas auf, was Du sicher weißt.

Copilot:
Hier sind einige Waschmaschinenmodelle mit Home Connect-Funktion, die aktuell noch lieferbar sind:
  1. Bosch Serie 6 WAN282V8: Eine smarte Waschmaschine mit Home Connect, die effizient wäscht und Energie spart1.
  2. Siemens iQ700 WM14W5FCB: Eine weitere Waschmaschine mit Home Connect, die sich durch ihre intelligente Dosierung von Waschmittel auszeichnet1.
  3. Gaggenau WM 260 100: Diese smarte Waschmaschine bietet eine Vielzahl von Funktionen und ist mit Home Connect kompatibel1.

    Bitte beachte, dass dies eine Auswahl ist und es noch weitere Modelle mit Home Connect gibt. Es ist immer ratsam, die Verfügbarkeit bei den Händlern zu überprüfen.
 
  • Gefällt mir
Reaktionen: tocotronaut
Das sind die drei Geräte die aktuell und die teuersten sind.
Ich brauche einfach einen Überblick über alle geräte der letzten jahre.
Die alte Waschmaschine gibt den geist auf und ich würde gerne eine (gebrauchte) nehmen die nach Sonneneinstrahlung loslegt.

Du musst das aber nicht für mich suchen...
Lassen wir das.

Es läuft darauf hinaus, dass man sich als nutzer aktuell doch enorm verbiegen muss um KI sinnvoll zu nutzen.

Beim (nebenbei grandiosen) Star Trek - Strange New Worlds kommunizieren sie auch weniger mit dem Computer als in alten Serien. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BEASTIEPENDENT
Deinen Wunsch nach so einer Liste kann ich gut nachvollziehen. Schöne Idee mit dem Trigger "Sonnenstrahlung".

Zum Umgang mit GenAI:

Ja, das ist reichlich mühsam und liefert oft wenig nützliche Ergebnisse.
Ich bin aktuell dabei zu lernen/auszuprobieren, wie man möglichst gute Prompts schreibt.
Auch stehe ich noch an Anfang, tiefer zu verstehen, bei welcher Art von Aufgabenstellungen man die Technik aktuell sinnvoll nutzen kann und wo nicht.

Mit Plugins werde ich mich auch noch beschäftigen.
 
Deinen Wunsch nach so einer Liste kann ich gut nachvollziehen. Schöne Idee mit dem Trigger "Sonnenstrahlung".

Zum Umgang mit GenAI:

Ja, das ist reichlich mühsam und liefert oft wenig nützliche Ergebnisse.
Ich bin aktuell dabei zu lernen/auszuprobieren, wie man möglichst gute Prompts schreibt.
Auch stehe ich noch an Anfang, tiefer zu verstehen, bei welcher Art von Aufgabenstellungen man die Technik aktuell sinnvoll nutzen kann und wo nicht.

Mit Plugins werde ich mich auch noch beschäftigen.
Ist der Grundgedanke bei KIs nicht, dass man sich eben nicht anlernen muss prompts zu formulieren?
Wenn ich mir erst Gedanken machen muss wie ich was für die KI formulieren, kann ich es doch gleich selbst schreiben…
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT
Ist der Grundgedanke bei KIs nicht, dass man sich eben nicht anlernen muss prompts zu formulieren?
Wär mir neu ... Es ist bei ChatGPT seit jeher so, bei allen Bots, bei Google Suchen und selbst bei Menschen: Je besser/genauer die Frage, desto besser ist natürlich auch das Ergebnis. Hellseher sind die LLMs alle nicht.

So dämlich es klingt: Googlen will gelernt sein. Und nicht anders verhält es sich bei Prompts für "KIs" ...
 
  • Gefällt mir
Reaktionen: thulium und maba_de
Aber geht bei dem ganzen Modellen nicht darum, dass man „normal“ mit Ihnen kommunizieren kann.
Eben, dass man „googlen lernen“ nicht mehr muss?
 
Aber geht bei dem ganzen Modellen nicht darum, dass man „normal“ mit Ihnen kommunizieren kann.
letztendlich ist das irgendwann das Ziel.
Aber wie man beispielsweise in Forum wie diesem hier sieht verstehen sich selbst Menschen oft nicht.
Ironie, Sarkasmus etc. werden nicht erkannt, lustig gemeinte Aussagen werden krumm genommen.
Wie soll ein LLM das direkt perfekt erfüllen, wenn selbst wir Menschen das nicht hinbekommen ohne nonverbale Kommunikation?
 
  • Gefällt mir
Reaktionen: NeoMac666
Auch die Kommunikation mit Menschen ist eine Kunst. Da kann man sein ganzes Leben lang dazulernen.

Bei den Systemen, die uns aktuell zur Verfügung stehen, handelt es sich ja um sehr niedrige Evolutionsstufen.

Menschen, die mit Empathie begabt sind, die ihr Gegenüber mit all seinen Gesten und seiner Mimik betrachten können, die die Gesamtsituation sozial und kulturell reflektieren haben ungleich mehr Möglichkeiten /sinnvoll/ zu kommunizieren als die GenAIs, die mit stumpfen Wahrscheinlichkeiten hantieren.

Daher lohnt es, sie mit ausführlichen Prompts zu füttern. Dann halluzinieren weniger.
 
Ich kann über meine Hochschule ChatGPT4 nutzen und beim zusammenfassen von bestimmten Texten oder bei der Hilfe nach einer Strukturierung von Texten ist das durchaus brauchbar.
 
Da bin ich voll bei euch, aber den Hype um KI halte ich für übertrieben.

Wir handeln uns eine ganz menge Probleme damit ein.
 
  • Gefällt mir
Reaktionen: BalthasarBux
Im echten Leben ist das doch genau so. Person A fragt Person B nach irgendwas und ist mit dessen Antwort weitestgehend zufrieden. Dann stellt Person C Person im wesentlichen die gleiche Frage und ist mit der Antwort komplett unzufrieden. Warum? Weil B möglicherweise gar nicht wissen kann, mit welchem Hintergrundwissen jemand eine Frage stellt und was für eine Antwort nun genau erwartet wird.

Zweimal die gleiche Frage von unterschiedlichen Personen an die gleiche Person. Wenn A der Themenbereich der Frage völlig Fremd ist, erwartet A auch höchstwahrscheinlich eine andere Antwort als C, die sich womöglich schon tiefer in der Materie befindet. Ohne diese Randbedingung kann B die Frage kaum befriedigend beantworten.

So ist das auch mit den LLMs du musst zunächst mal die Randbedingungen bekanntmachen und deine Erwartungshaltung. Deshalb fangen die Promts ja idR ja in der Art an: "Du bist ein Experte für die Programmiersprache Rust. Gib bitte immer zwei Beispiele an. Erkläre nur das nötigste. …".

Ohne diesen Kontext kann das LLM nicht "wissen" (ist etwas zu hochtrabend für eine elaborierte Textvervollständigung), was du nun genau erwartest.

Ich halte das mit den KIs auch für etwas überhitzt. Für manches sind sie aber auf jeden Fall nett. Wenn man z.B. mit etwas anfangen möchte, aber das "weiße Blatt Papier" dich aber noch überwältigt und du keinen Anfang findest. DANN ist es sehr fein., die Fragestellung mal in ein LLM zu werfen. Mit ein paar Nachfragen/Hinweisen dengelt man den Text in der LLM noch etwas zurecht und man hat schonmal einen Anfang. Ich finde, es ist so wie in Studienzeiten, wenn man bei anderen Arbeiten Korrekturgelesen hatte. Man selbst hätte diesen Text nicht so bald auf die Beine gestellt. Aber im Korrekturmodus kann man plötzlich noch einiges am Text bewirken. Genau diesen Effekt nutze ich dann, wenn ich einen Keim in die LLM werfe.

Beim Coden ist das auch ganz nett, sich einfach mal ein paar Beispiele zu etwas generieren zu lassen. Da kann auch mal die eine oder andere Inspiration holen. Aber besonders beim Programmieren, sollte man den Code aus dem LLM genau ansehen. Es befreit einen am Ende nicht von der domänenspezifischen Kompetenz. Ich mag z.B. Python überhaupt nicht (ich hasse Sprachen, die mit Einrückungen strukturieren) und nutze es daher nur wenn nötig. Hier finde ich dann sowas wie Copilot in der Tat hilfreich, wenn man mal etwas scripten muß. Ich hab zwar nicht viel Ahnung von Python (kenne also auch die Funktionen und Libs nicht), aber ich kann zumindest relativ gut erkennen, wie gut der Code ist, oder kann im Zweifel bzgl. einiger Fragestellungen nochmal spezifisch in der Doku nachsehen oder die LLM daraufhin befragen.

Oder als elaborierter Textbausteingenerator sind LLMs auch klasse. Denn mal ehrlich: sehr viel an schriftlicher Kommunikation haben doch sowieso eher einen Textbausteingeneratorcharakter, auch wenn jemand sie persönlich geschrieben hat. Ich behaupte mal, daß NIEMAND jammern wird, diese bausteine von einer LLM generieren zu lassen. Das ist auf jeden Fall besser als die unzähligen Mails/Briefe, die aus echten, statischen Textbausteinen bestehen.

Aber wichtig ist und bleibt: genauso wie bei Antworten von Menschen, kann man sich auf die Antworten einer LLM nur bedingt verlassen. Je spiezifischer, desto mehr spezifisches Wissen sollte man selber mitbringen, um die Antworten zu bewerten.
 
  • Gefällt mir
Reaktionen: tocotronaut und thulium
Zurück
Oben Unten