KI und Freelancing - Nutzt ihr KI-Angebote? Wenn ja.. Wie kommen sie bei euch zum Einsatz?

2. Ich verwende MidJourney um fehlende Illustrationen im Stil eines leider nicht mehr verfügbaren Illustrators zu erstellen, mit dem ich viele Jahre lang zusammengearbeitet habe. Ich "füttere" das Ding einfach mit der großen Menge an Material, die in dem Fall mir selbst "gehört" (weil ich sie seinerzeit mit allen Rechten erworben habe). Damit das funktioniert, ist viel Kleinarbeit und Anpassung erforderlich. Letztlich bekomme ich auf diese Weise aber Illustrationen, die zu 95% zu dem Material passen, das ich bereits habe.
DAS finde ich jetzt mal einen passenden und interessanten Aspekt, betreffs Urheberrecht bzw. „Erstellungsvermerk“ der Bilder.
Ich werde zukünftig auch passendes „visuelles Füllmaterial“ generieren lassen - gerade bei content-thematisch unterstützendem Bildmaterial.
Wenn man da seine Prompts hat, bedarf es kein Briefing mehr und das Material kommt „prompt“.
 
Neues Projekt - neuer Anwendungsbereich: Für einen Kunden muss/darf ich ein paar kleinere HTML5-Spiele mit Construct 3 erstellen.

Da ich mit dem Tool vorher noch nicht gearbeitet habe, läuft ChatGPT quasi parallel und beantwortet mit einer Engelsgeduld alle meine Fragen, für die ich mich sonst durch das - nur so semi-hilfreiche - Manual arbeiten müsste.

Die "KI" erzeugt sogar Code-Beispiele, die mit ein bisschen Anpassung dann auch tatsächlich korrekt funktionieren. Alles in allem erleichtert das so meine Arbeit ungemein.

Und abgesehen davon: Die "KI" ist auch in der Lage und bereit, auf manchmal etwas abwegige Ideen hilfreich zu reagieren. Also Dinge, die nie in einem Handbuch stehen - die man aber trotzdem mit dem Tool realisieren kann.

Und wie gesagt: Das Ganze mit einer Geduld, die weder ein Gesprächspartner, noch irgendwer in einem Forum aufbringen würde. Die Angst vor "dummen" Fragen kann man dabei auf jeden Fall vergessen. Am Anfang ist sie trotzdem noch ein wenig vorhanden, nach einiger Zeit fällt das aber weg, weil man solche Hemmungen im "Gespräch" mit der KI schnell verliert.
 
Ich möchte die Diskussion nochmal aufgreifen: Zugegeben, ich bin "late to the party" aber ich hatte ChatGPT jetzt mal mit ein paar Begriffen gefüttert zum Thema "Bildbearbeitung, Fotografie, Kleingewerbe etc." und war beeindruckt, wie schnell daraus ein kleines Konzept mit Gliederung entstanden ist.

Danach kamen Fragen wie "Soll ich Dir einen Businessplan dazu schreiben?" - Ja gerne.. "Und soll ich Dir jetzt noch ein Pitchdeck für Investoren bauen?"

Das ist schon beeindruckend, was man in so kurzer Zeit alles bekommen kann ohne sich durch Suchmaschinenergebnisse zu wühlen, Cookiebanner wegzudrücken etc. oder eventuell noch seine Emailadresse zu hinterlassen damit man ein bestimmtes PDF bekommt was einen interessiert und was man gerne haben möchte.

Rein auf ChatGPT würde ich mich aber nicht verlassen wollen. Ein Businessplan geht sicherlich nie auf Euro und Cent exakt auf und mich interessiert eher der Prozess, dass man manche Punkte nochmals mental mit Recherchen auf die Probe stellt. Das ist für mich der eigentliche Sinn dahinter einem Businessplan.

Gut, die meisten Startups machen sowas auch garnicht mehr sondern nutzen wohl mehr "Business Model Canvas". Aber auch dort fehlen einige Aspekte, die ich schon als zentral für ein Unternehmen ansehen würde. Liquiditätsplanung beispielsweise.
 
@Mankind75
Dann nimm' dir bsw. mal einen aktuellen M4-Mac und installiere dir z.B. Ollama mit gpt-oss und staune nochmals.
:thumbsup:
 
Dann nimm' dir bsw. mal einen aktuellen M4-Mac und installiere dir z.B. Ollama mit gpt-oss und staune nochmals.
Kann man damit ggf. auch das Tokenlimit oder die Datengrenze irgendwie aufheben, ohne, dass man ein monatliches Abonnement wie bei ChatGPT abschließen muss? Komme da relativ schnell an diese Grenze.
 
Da ich mit dem Tool vorher noch nicht gearbeitet habe, läuft ChatGPT quasi parallel und beantwortet mit einer Engelsgeduld alle meine Fragen, für die ich mich sonst durch das - nur so semi-hilfreiche - Manual arbeiten müsste.
Probier für sowas mal IDEs wie Cursor oder Kiro!
 
Ja, das ChatGPT 5, kann mitunter nerven, kaum habe ich den ersten Absatz losgeschickt, mit dem, was mir vorschwebt, schreibt er schon Codes und ich muss ihn jedes Mal bremsen*lach. Da ich meistens mehrere Projekte zeitgleich am Laufen habe, ist der Plus Tarif ganz praktisch. Für das, was sich so mache, sind die lokalen Modelle leider nicht so prall. Habe aber natürlich auch LM-Studio auf meinem Mini und hin und wieder das eine oder andere Modell lokal zu testen.
 
Für das, was sich so mache, sind die lokalen Modelle leider nicht so prall
Deepseek 3.1 soll ebenbürtig sein…falls Du 700GB RAM hast….will sagen man ahnt gar nicht, welche Rechnergewalt man da los tritt und wieviel Energie das kostet! Kleine Modelle ab 16-30GB sind schon recht leistungsfähig. Aber das worauf die claudes und gpts laufen haben wir einfach nicht zu Hause! Auch wenn ein M Mac da schon signifikant Leistung bringt.
 
Kann man damit ggf. auch das Tokenlimit oder die Datengrenze irgendwie aufheben, ohne, dass man ein monatliches Abonnement wie bei ChatGPT abschließen muss? Komme da relativ schnell an diese Grenze.
Ollama.app mit den Modellen läuft komplett lokal mit der Option, dass du den Modellen individuell Online-Zugang geben kannst oder nicht.
Du kannst die Modelle ins Home-Verzeichnis legen lassen, aber auch auf Extern auslagern.

Zuletzt hatte ich mal gpt-oss (20b) ausprobiert und mir ein Wordpress Plugin als function erstellt.
Die aktuelle Wordpress Version kannte es noch nicht, was aber für den Einsatzzweck unerheblich ist.
Hat sehr gut funktioniert; Erstellungswege sowie die umgeschriebene function später.

@wegus
Hatte zuletzt gelesen, dass Apple vermutlich Anthropic anvisiert hätte, um „Claude“ in den (auch bald neuen) Devices nutzen zu wollen.
Soll zu 2027 eine „Home-Cam“, eine Art „Apple-Alexa“ und noch irgendwas kommen – also die Heim-Automation-Sparte bedienen.
Wohl aufgrund der App von Anthropic: https://apps.apple.com/de/app/claude-by-anthropic/id6473753684
 
Ich erstelle meine Videoscripte für meinen YouTube Kanal seit gut 2 Jahre mit KI Unterstützung.
Dazu muss ich sagen dass inzwischen alle KIs ausser OPUS zur Textbearbeitung ungeeignet geworden sind.
Perplexity nutze ich zur verifikation von Fakten, dadurch erspart man sich enorm viel Zeit, aber auch die Ergebnisse lasse ich immer gegenchecken - dazu eignen sich Grok und Gemini ganz gut. ChatGPT 5 ist leider so schlecht geworden dass man es vergessen kann.

Wchtig ist aber auch, für die Arbeit mit umfangreichen Daten muss man ein Upgrade kaufen. Die normalen Versionen der KI sind nett, aber dauerhaft in der kostenlosen Version für "professionelleres" Arbeit völlig unzureichend.
Auch mit OPUS stosse ich an Grenzen - denn ein sehr wichtiges Feature - ERINNERUNGEN - hat keine der KI die es derzeit gibt.
OPUS errinnert sich an alles was im aktuellen Chatfenster passiert, aber das geht nicht Chatfenster übergreifend.
Ist das Chatfenster "voll" dann sind diese Daten verloren. Und das Chatfenster schafft etwa 200K an Text... Das ist nicht gerade berauschend viel.
Wer we ich nicht über API und Terminal arbeitet muss sich dann andere Wege suchen. Es geht aber ist etwas umständlicher.

Mein Wunsch wäre OPUS 4 oder 4.1 lokal installieren zu können, aber dafür hat mein iMac M1 mit 16GB zu wenig Ressourcen....
 
OPUS errinnert sich an alles was im aktuellen Chatfenster passiert, aber das geht nicht Chatfenster übergreifend.
Dies ist imo eine generelle „Herausforderung“ bei lokalen Modellen; zumal bei jedem Update/Upgrade des Modells deren „Erinnerung halt auch neu ist".
ChatGPT 5 ist leider so schlecht geworden dass man es vergessen kann.
Die normalen Versionen der KI sind nett, aber dauerhaft in der kostenlosen Version für "professionelleres" Arbeit völlig unzureichend.
Es kommt auf „die Art der Arbeit“ an, würde ich da sagen.
 
Dazu muss ich sagen dass inzwischen alle KIs ausser OPUS zur Textbearbeitung ungeeignet geworden sind.
Das ist eine ziemlich pauschale Allgemeinaussage – und kann ich auch nicht ansatzweise bestätigen.
 
Ich verwende KI zum generieren von Projektberichten und -reports. Vor allem bei der Generierung von langen Schwafeltexten zeichnen sich LLMs aus. Natürlich bearbeite ich das Ganze nach, aber ein Teil der unangenehmen Arbeit nimmt mir die KI ab.
Die eigentliche Frage ist ja, warum man lange Schwafeltexte nicht abschafft, anstatt sie zu perfektionieren.
Das ding ist ja, dass der nächste das ganze ganze nicht liest, sondern Einscannt und von der KI zusammenfassen lässt.

Bei beiden Vorgängen können sich Fehler einschleifen.

Da gewinnt doch niemand... Man muss oft einfach die Prozesse von vorne bis ende überdenken.
 
also ein KI generierter Bericht, wird dann von der KI nochmal zusammengefasst
klasse :faint:
Das finde ich als Entwicklung sogar eher gut, führt es uns doch eine Fehlentwicklung vor. Wieviele Mails und Berichte sind aufgeblasen und gaukeln eine Wichtigkeit und Wichtigkeit vor und wieviel Inhalt ist wirklich darin? Das zieht sich ja bis Social Media durch. Wenn das alles keiner mehr liest, muß es irgendwann auch nicht mehr geschrieben werden. Ist wie mit der Werbung die durch Blocker kassiert wird.
 
Das finde ich als Entwicklung sogar eher gut, führt es uns doch eine Fehlentwicklung vor. Wieviele Mails und Berichte sind aufgeblasen und gaukeln eine Wichtigkeit und Wichtigkeit vor und wieviel Inhalt ist wirklich darin? Das zieht sich ja bis Social Media durch. Wenn das alles keiner mehr liest, muß es irgendwann auch nicht mehr geschrieben werden. Ist wie mit der Werbung die durch Blocker kassiert wird.
Social Media steht ja momentan wirklich vor dem Problem, dass man glaubt, man könne menschliche Leser dauerhaft mit KI-Content abholen - aber am Ende wird man KI-Content für KI-Bots produzieren (wie es bei Facebook schon teilweise der Fall ist).
 
Zurück
Oben Unten