10 Tage mit Apple Intelligence: Killerkaninchens Erfahrungsbericht

"Ich war neulich bei einem IQ-Test!"
"Und, wie war er?"
"Zum Glück negativ!"


Liebe Mac-Freunde,

nun gut, ihr habt recht – vielleicht sind es nicht genau 10 Tage, die AI nun draußen ist. Aber die niedrigste zweistellige Zahl sieht einfach so cool aus. Gelle?
Am Anfang ein Hinweis: mir ist bewusst, dass noch nicht alle Features im Großraum teutonischer linguistischer Befassung freigeschaltet sind. Das verbesserte Siri, zum Beispiel.
Dennoch. Ich bin unbefangen da rangegangen, und habe einfach alles ausprobiert, die Werbeversprechen aus Cupertino unter das Vergrößerungsglas nehmend. Wenn solche weiterhinnigen Einschränkungen Apple maximal eine Fußnote wert sind, werde ich auch diese Disclaimer aliquot gering wertschätzen. Sorry, so brutal bin ich.

Die Geräte, auf denen ich Apple Intelligence getestet habe: Mac Studio M2 Max, MacBook Air M2, iPad Pro M1 11", iPhone 16.

Die gute Nachricht am Anfang: das Update aufs jeweils neueste OS lief auf allen genannten Geräten unanständig anstandslos durch. Auch, wenn ich beim macOS gelegentlich das Gefühl hatte, eine ganz neue Hauptversion zu installieren, gemessen an der Dauer.

Jetzt aber in medias res.

Siri​


Versuch #1.
"Siri, zeige mir alle E-Mails, in denen ich mich bei jemandem entschuldigt habe."

Siris Antwort: Ich habe keine E-Mail mit dem Titel "ich mich bei jemandem entschuldigt habe." gefunden.

Nun gut. Vermutlich kann Siri einfach noch nicht den Inhalt einer E-Mail syntaktisch analysieren. Versuchen wir es also mit etwas mathematisch Eindeutigerem.

Versuch #2.
"Siri, was hat Doris geschrieben, wann das Frühlingsfest stattfindet?"

Siris Antwort: "Du hast keine neuen Nachrichten in 'Nachrichten'."

Puh. Naja, man kann nicht sagen, Siri sei unkreativ bei Ausreden.

Versuch #3.
"Siri, zeig mir alle E-Mails von Doris."

Siris Antwort: sie zeigte mir eine Liste mit Kurzvorschau aller E-Mails von Doris. Na also!
Aber brauche ich dafür wirklich eine Siri?

Prädikat: Eine Intelligenz auf dem Stand von Sherlock 2 von 2000.

Image Playground​


Nette Neuigkeit. Aber ob sie auch funktioniert?

Versuch #1.
"Zeichne ein Bild von mir im rosa Tütü."

Reaktion: "Sprache nicht unterstützt."

Tja, vielleicht hat er das Tütü nicht verstanden.

Versuch #2.
"Zeichne ein Bild von mir im rosa Ballkleid."

Reaktion: Ich kriege ein Bild von einem rosa Ballkleid auf einer kopflosen Schaufensterpuppe ohne Arme.
Tja, ich hoffe schon, lieber einen Tag lang in einem rosa Ballkleid herumlaufen zu müssen, als Extremitäten und Regionen nördlich des Thorax einzubüßen.
Vielleicht versteht Image Playground einfach nicht, wer "ich/mir" ist. Was peinlich wäre, weil Siri konnte das schon auf meinem iPhone 5s.
Also probiere ich einfach mal aus, im Interface von Image Playground mein Konterfei anzuklicken und das Ganze mit einem Prompt zu ergänzen.

Versuch #3.
Ich klicke also mein Foto an und schreibe dazu, "zeichne mich in einem rosa Ballkleid."

Ergebnis:

JPEG-Bild 2.jpeg

Äh … okay. Eine ganz neue Innovation von einem Ballkleid, und eine Missachtung der Gravitation. Inklusive Geschwür am Oberarm. Dass meine Brille nicht einmal annähernd so aussieht, ist da nur noch Makulatur.

Wenn ich aus der Personenliste meine Lady auswähle, kann ich auch von dieser solch ein Bildchen erstellen lassen. Sieht sogar ganz gut aus. Bloß hat das Killerkaninchen offensichtlich Probleme, sich argumentativ gegen diese KI durchzusetzen. Sämtliche weibliche Personen (wobei AI auch hier für Überraschungen gut ist) werden mit Ohrringen generiert. Also, füge ich halt den Prompt hinzu. "Ohne Ohrringe bitte."
Resultat: Ein Avatar mit Ohrringen.
Prompt: "Ohne Ohrschmuck, habe ich gesagt!"
Resultat: Die Ohrringe bleiben.
Prompt: "KEINE OHRRINGE, verdammt nochmal!"

Ebensowenig kann ich wirklich eine Farbe erzeugen, die ich will, und auch nicht Größe oder Format von Kopfbedeckungen beeinflussen.

Prädikat: Image Playground ist dumm wie Stroh.

Zusammenfassungen​


Werden wir nun etwas intelligenter? Schaumer mal.
Zunächst kurz erklärt: Wenn eine E-Mail oder iMessage reinkommt, sieht man im Banner oben rechts nun eine stichwortartige Zusammenfassung des Inhaltes. Eurydike hat sich über Geschenk gefreut; Telefonat morgen möglich? So zum Beispiel könnte solch Zusammenfassung aussehen. Ebenso erscheint auf Wunsch diese Zusammenfassung in der Vorschau von E-Mails, anstatt dass, wie bislang, einfach die ersten Worte oder Zeilen der E-Mail dort erschienen.
Funktioniert auf Deutsch und Englisch gleichermaßen.
Und hier hat mich Apple Intelligence das erste Mal wirklich überrascht.
Was ist passiert? Ich besitze ein elektronisches Gerät, das in den US of A produziert wurde. Ich schickte eine E-Mail dorthin, wegen Support für einen Verdachtsfall auf Hardware-Fehler. Als Antwort erhielt ich eine kurze E-Mail, in der nach bestimmten Symptomen gefragt wurde, hauptsächlich der Farbe einer Status-LED.
Wie lautet nun die Zusammenfassung dieser E-Mail? Da steht, "Displaying flickering light, seeking hardware replacement."
Während mich der erste Halbsatz verwunderte, weil er sich eigentlich auf meine vorherige gesendete E-Mail bezog (in der ich vom flickering light berichtete), war der zweite Halbsatz ganz besonders überraschend; denn diese Info zog sich AI aus einem Satz einer Auto-Reply des Supports, wo es hieß:
Please wait for our response, and we typically will replace it.
Nach den bisherigen Enttäuschungen ein erfrischend intelligentes Verhalten!

Prädikat: Bislang das nützlichste Feature von Apple Intelligence.

Schreibhilfen​


Zunächst zu den Schreibvorschlägen. Wenn ich eine iMessage erhalte, leuchten in der Textzeile nun zwei Antwort-Vorschläge auf, die schön in Regenbogenbunt schillern, damit man auch sieht und erkennt, dass da Intelligenz dahinterstecken soll. Tatsächlich nimmt mir dieses Feature kein My an Arbeit ab, denn die Vorschläge haben mir bislang durchs Beet weg in keinerlei Weise gefallen.
Was nun mit den anderen Hilfen beim Umschreiben von Texten? In E-Mails, zum Beispiel?
Zunächst: das Korrekturlesen funktioniert hervorragend, in Deutsch und Englisch gleichermaßen.
Und das Umschreiben? Wenn ich einfach nur auf "Umschreiben" klicke, stellt sich mir die Frage: in welchem Sinne oder Zusammenhang umschreiben?
Apple Intelligence weiß es wohl selber nicht. Denn inhaltlich sehe ich danach keinen merkbaren Unterschied.
Ansonsten gibt es drei eindeutige Beschriftungen bezüglich Umschreiberei: Freundlich, sachlich oder kompakt.
Während kompakt gut formuliert, liest sich "sachlich" doch schon sehr nach KI-Sprech. Und mit "freundlich" habe ich ein ganz besonderes Problem.
Wenn man nicht befähigt ist, eine E-Mail freundlich zu verfassen, hat man ganz andere Probleme, die auch von einer Maschine nicht gelöst werden können.
Oder, anders gesagt, wenn man eine Maschine braucht, weil sonst die E-Mail unzumutbar wird, sollte man prinzipiell Abstand von jedweder Tastatur nehmen.
Besonders störend: es scheint auch der künstlichen Intelligenz überlassen zu sein, wohin der Text resettet wird, wenn man auf "Zurücksetzen" klickt. Der Hintergrund mag nachvollziehbar sein: wendet man mehrere Schreibhilfen hintereinander an, könnte eine Stille Post dabei herauskommen. In der Praxis jedoch führt es schnell zu Verwirrungen. Der bearbeitete Text erscheint – mit ostentativem Regenbogen-Blingbling – direkt in der gleichen Maske wie der ursprüngliche Text und ein Vergleich zur vorherigen Version ist nur mit dem eigenen Gehirn möglich, dessen Arbeit einem Apple ja eigentlich umdelegieren wollte.

Prädikat: Überaus und hochgradig naja.

Fazit​


Ich freue mich über diese Neuerung auf Apple-Geräten, denn tatsächlich hat sie einige interessante und bemerkenswerte Funktionen. Die riesigen Erwartungen, die gesetzt wurden, erfüllt Apple Intelligence aber nicht annähernd. Wenn es früher ein neues Mac OS X gab, wurde allzu oft die Worthülse "eine Evolution, aber keine Revolution" strapaziert. Hier hätte Apple nun die Gelegenheit zu einer wirklichen Revolution gehabt. Leider hat man das nur sehr halbgar ausgereizt. Apple Intelligence scheint – insbesondere, was Genmojis betrifft – schlecht in die Betriebssysteme integriert zu sein. Es macht das Look & Feel der Benutzeroberflächen ein weiteres Mal inkonsistent und heterogen, anstelle Dinge zu vereinfachen und zu zentralisieren. Bleibt zu hoffen, dass Apple die Gelegenheit der nächsten Monate und Jahre benutzt, die Kinderkrankheiten von Apple Intelligence zu kurieren. Bis dahin bleibt Apple Intelligence für mich ein nice to have, von dessen Benutzbarkeit ich aber keinen Hardware-Neukauf abhängig machen würde.
 
Ich finde die KI-Zusammenfassungen mittlerweile mehrheitlich brauchbar - ich würde sagen zu 80% liegt die KI richtig. Das ist jetzt nicht herausragend, aber durchaus hilfreich.
Tatsächlich? Eine Fehlerquote von geschätzen 20 % ist hilfreich? Für mich wäre die Tatsache, dass es eine Fehlerquote über 0 gibt, Grund, dass es keine Hilfe ist. Ich muss doch jedes Mal überprüfen, ob die hilfreiche Zusammenfassung überhaupt stimmt. Statt dass mir die Zusammenfassung Arbeit abnimmt, habe ich zusätzliche Arbeit, nämlich die Frage, ob die Zusammenfassung korrekt ist.
Ich frage mich immer mehr, warum "wir" mit KIs so entspannt umgehen. Jedes andere Werkzeug wäre inakzeptabel und würde sich nicht durchsetzen, wenn es so häufig falsch läge.
 
Für mich wäre die Tatsache, dass es eine Fehlerquote über 0 gibt, Grund, dass es keine Hilfe ist.

Das ist aber sehr extrem formuliert.

Arbeitest du selbst immer 100% fehlerfri und dir ist in 0% aller Dinde die du machst ein Fehler passiert?

Hast du Mitarbeiter (wenn du Chef bist) oder Kollegen, die dir zuarbeiten, die immer 100% fehlerfreie Arbeit abliefern?

Fehler sind immer was nicht so tolles und oft auch richtig schlimm. Aber eine Fehlerqote von 0% dauerhaft zu erwarten, egal ob Mensch, KI oder Technik ist nicht realistisch.

Ein Tick mehr Fehlertoleranz bringt einen meist weiter.
 
Ich muss die Original-Nachrichten sowieso irgendwann lesen. Die Zusammenfassung dient für den schnellen Blick auf dem Sperrbildschirm und zu einer Ersteinschätzung. Dabei spielt, neben dem Inhalt der Zusammenfassung, auch der Absender eine Rolle. Grundsätzlich macht AI die Zusammenfassung ordentlich. Wenn mir meine Projektmanagementsoftware Statusänderungen nebst langer Kommentare von Teammitgliedern schickt, fasst die KI die wichtigsten Infos recht zuverlässig zusammen und ich kann entscheiden, ob ich jetzt drauftippe um die 3-5 Mitteilungen zu sehen, oder es lasse.

Gerade habe ich 5 KI-Zusammenfassungen aus verschiedenen Bereichen auf dem Sperrbildschirm (Apple Home, Werbung, Projektmanagement-Tool, Banking-App, ...) und alle Zusammenfassungen sind sowohl korrekt als auch hilfreich.
 
Ich bin immer noch der gleichen Meinung wie zum ursprünglichen Beitrag:
Apple Intelligence ist ein Sammelbegriff für eine Reihe von Funktionalitäten in den Apple-Systemen auf Basis vom Apple-Foundation-Modell bzw. der Einbindung von ChatGPT. Alle diese pauschal zu verurteilen aufgrund der Unzufriedenheit mit einzelnen davon, halte ich für falsch. Image Playground ist derzeit völlig unzureichend, aber die Schreibtools sind absolut brauchbar. Die Einbindung von ChatGPT in Siri und Visual Intelligence ist für mich auch sehr hilfreich.
 
Verstehe das Problem nicht so ganz.
Wenn ich mir auf dem üblichen Weg eine Information aus dem Netz hole, das verifiziere ich diese Information doch auch noch mal, wenn es für mich wichtig ist. Warum sollte das bei KI anders sein?
 
Ich denke, der Hase liegt da im Pfeffer, dass Apple Intelligence bei den Zusammenfassungen eine trügerische Sicherheit bietet.
Ohne diese Funktion sieht man nur den Absender und die ersten Worte / Zeilen einer E-Mail.
Bis dato war man darauf angewiesen, die E-Mail anzuklicken und so mit einem schnellen Augenscan abzuklären, wie wichtig die Nachricht ist.
Natürlich ist klar, dass AI keine 100-prozentige Fehlerfreiheit bietet. Aber man muss bedenken, welche Funktion sie ausübt: nämlich die Funktion, schnell und einfach einen Überblick zu verschaffen, ob diese E-Mail wichtig oder relevant für ein Thema ist.
Wenn wir zur Kenntnis nehmen, dies erst dreimal gegenchecken zu müssen, weil AI ja irren kann, dann haben wir netto mitnichten Zeit gespart! Nur dass sich AI diese Zeitersparnis eben auf die Fahnen schreibt.
 
Ich denke, der Hase liegt da im Pfeffer, dass Apple Intelligence bei den Zusammenfassungen eine trügerische Sicherheit bietet.
Ohne diese Funktion sieht man nur den Absender und die ersten Worte / Zeilen einer E-Mail.
Bis dato war man darauf angewiesen, die E-Mail anzuklicken und so mit einem schnellen Augenscan abzuklären, wie wichtig die Nachricht ist.
Natürlich ist klar, dass AI keine 100-prozentige Fehlerfreiheit bietet. Aber man muss bedenken, welche Funktion sie ausübt: nämlich die Funktion, schnell und einfach einen Überblick zu verschaffen, ob diese E-Mail wichtig oder relevant für ein Thema ist.
Wenn wir zur Kenntnis nehmen, dies erst dreimal gegenchecken zu müssen, weil AI ja irren kann, dann haben wir netto mitnichten Zeit gespart! Nur dass sich AI diese Zeitersparnis eben auf die Fahnen schreibt.
Das ist alles irgendwie richtig was du schreibst, aber nur irgendwie

Eine "trügerische Sicherheit" kommt nur dann vor, wenn der User das so zulässt. Es gibt nicht nur naive und dumme User, die glauben, ein LLM sei das Wahrheitszentrum des Universums oder eine allwissende Datenbank.

Letzendlich ist es wie mit vielen Texten die existieren. Oder mit Suchmaschinenergebnissen, oder mit Pressespiegeln, oder... Medienkompetenz ist gefragt.

Und wie bei allen Zusammenfassungen von Texten, gehen immer Details verloren, werden Schwerpunkte anders gewichtet dargestellt. Will man 100% originale unverfälschte Infos, bleibt halt nur das Original. Das ist selbst bei Vollltext-Übersetzungen schon so.

Auch redet niemand von dreimal gegenchecken. Denn nicht alles muss man mit Zahlen und Zeiten bewerten, es gibt auch sowas wie Convinience.
 
Zuletzt bearbeitet:
Ich bin gestern im Netz über einen Beitrag auf Youtube gestolpert, über den ich schmunzeln musste (weil er den von mir in #76 gepostetem Gedanken wiederholt): Der Titel "KI zerstört Deine Intelligenz" ( - falls der link hängt) klingt reißerisch, der Inhalt ist aber recht pragmatisch:

- Um KI zu nutzen, sollte man das Problem WIRKLICH verstehen / kennen.
- KI vermittelt keine Erfahrung und die ist bei komplexeren Fragen unerlässlich.
- ständige Nutzung von KI, ohne die Antwort inhaltlich zu verstehen, macht den Nutzer letztlich überflüssig - die Aufgabe könnte auch ein simples frontend erledigen.
- unnützer KI-Einsatz "macht dumm", weil Fähigkeiten verloren gehen können. (Für die, die es konnten: wann habt ihr das letzte Mal komplexere Aufgaben im Kopf gerechnet, oder länger mit der Hand geschrieben? Und was ist mit denen, die nicht mal einfache Aufgaben ohne Hilfe erledigen können …)

Habe kürzlich einen längeren Text von einer Person erhalten, der zum einen und völlig überraschend fehlerfrei war, zum anderen Worte verwendete, die die Person mit Sicherheit nicht einmal kennt … Deepl lässt grüßen …
 
Habe kürzlich einen längeren Text von einer Person erhalten, der zum einen und völlig überraschend fehlerfrei war, zum anderen Worte verwendete, die die Person mit Sicherheit nicht einmal kennt … Deepl lässt grüßen …

Die Tragödie ist, dass KI heutzutage rotzfrech für alles Mögliche benutzt wird und in der Tat das Gehirn dazu allzu oft aufs Abstellgleis gestellt wird.
Im Moment ist es noch so, dass sich KI-Texte sehr schnell selbst als solche enttarnen.

Beispiel: Textkritiken. Ich kenne Schriftsteller, die inzwischen (zurecht) bitterböse sauer sind, wenn ihre Textkonzepte (IT-ler würden von "Betas" sprechen), die eigentlich vertraulich behandelt werden sollen, von "Kritikern" augenscheinlich analysiert und kritisiert werden sollen, in Wirklichkeit aber in ChatGPT hochgeladen werden. Das ist erstens urheberrechtlich hochgradig bedenklich, andererseits hochgradig überflüssig, denn ich brauche keine "Manpower", um mir einen KI-Text vorsetzen zu lassen.

Wie enttarnen sich solche KI-Texte?
Erstens, eine perfekte Rechtschreibung. Damit meine ich nicht nur ein korrektes das/dass, sondern auch korrekte Formatierungen wie einen Dreipunkt (…) statt dreier Einzelpunkte (...), kein Verwechseln von Binde- und Gedankenstrich oder die schmale Leerstelle vor dem Prozent-Symbol.

Zweitens, die Ausdrucksweise. "(Texttitel eingeben) ist ein (Adjektiv) literarischer Text von (Name), der sich (Adverb) mit dem Konzept von (Nomen) und dem Zusammenhang zu (anderes Nomen) auseinandersetzt."
Das Gleiche bei den KI-generierten Zusammenfassungen von Kundenmeinungen auf Amazon. "Die Leser finden das Buch (mehrere Adjektive). Sie loben den Schreibstil, den subtilen Humor und die interessante Biographie. Die Thematik von (Nomen) wird als interessant beschrieben."

Wisst ihr was besonders dreist ist? Ich habe schon Buchrezensionen auf Amazon gelesen, in denen die rezensierende Person sich nicht einmal die Mühe gemacht hat, auch nur die Formatierungsplatzhalter (### oder ***) von ChatGPT vor dem Copy-Paste zu entfernen. Rotzfrech sowas. Interessanterweise tauchte der Name der "Rezensentin" dann auch in der Danksagung des Buches auf.

Nein, KI ist nicht nur eine dritte industrielle Revolution nach Nummer eins (Dampfmaschine, Maschinismus) und Nummer zwei (Elektronik und Internet). Diese "Revolutionen" haben unser aller Leben bzw. das unserer Ahnen verändert. Das Problem mit der dritten industriellen Revolution wird sein, dass sie nicht unser Leben verändert, sondern uns selbst. Das beobachte ich mit großem Unbehagen.
 
Habe kürzlich einen längeren Text von einer Person erhalten, der zum einen und völlig überraschend fehlerfrei war, zum anderen Worte verwendete, die die Person mit Sicherheit nicht einmal kennt … Deepl lässt grüßen …
War das eine Übersetzung? Lehnst Du jegliche automatische Korrektur ab? Rechtschreibkorrektur in Word - alles Teufelszeug?
 
Das ist aber sehr extrem formuliert.
Arbeitest du selbst immer 100% fehlerfri und dir ist in 0% aller Dinde die du machst ein Fehler passiert?
Hast du Mitarbeiter (wenn du Chef bist) oder Kollegen, die dir zuarbeiten, die immer 100% fehlerfreie Arbeit abliefern?
Allein meine Beiträge hier sind noch ein guter Beweis dafür, wie fehlerfrei es bei mir zugeht (nicht so sehr ;) ).
Andere Menschen und mich selbst glaube ich zu kennen. Daher kann ich die Qualität der Arbeit gut einschärtzen und weiß, bei wem ich besser nochmal drüberlese und wem ich blind vertraue. Hier geht es aber nicht um Menschen, sondern um Apple Intelligence
Wenn ich ein Werkzeug beurteile, dann soll es mir Arbeit abnehmen oder etwas besser machen als ich es machen könnte.
Am Beispiel "Zusammenfassung" wird doch aber deutlich, dass es mir keine Arbeit abnimmt, sondern nur einen Zwischenschritt einbaut. Damit eine Zusammenfassung funktioniert, muss sie fehlerfrei sein. Wenn, wie weiter oben beschrieben wurde, potentiell das Gegenteil behauptet wird, dann ist die Zusammenfassung zu unzuverlässig, obwohl sie Zuverlässigkeit vorgaukelt. Somit kann ich sie nicht einschätzen und müsste sie immer kontrollieren. Damit macht sie sich selbst überflüssig.
Und ich persönlich habe noch keinen Menschen in meinem Arbeitsumfeld erlebt, der oder die manchmal zufällig das Gegenteil versteht.
 
Ich bin gestern im Netz über einen Beitrag auf Youtube gestolpert, über den ich schmunzeln musste (weil er den von mir in #76 gepostetem Gedanken wiederholt): Der Titel "KI zerstört Deine Intelligenz" ( - falls der link hängt) klingt reißerisch, der Inhalt ist aber recht pragmatisch:


Das alles ist doch nichts neues und auch nichts besonders nur weil es über KIK geht. Der Artikel des Videos steht auch auf heise.

- Um KI zu nutzen, sollte man das Problem WIRKLICH verstehen / kennen.

Das ist nur dann relevant, wenn man das im Video / Artikel beachtet: man setzt KI ein um Arbeiten seines Berufes zu erledigen. In allen anderen Bereichen muss man das Problem / Thema nicht WIRKLICH verstehen.

- KI vermittelt keine Erfahrung und die ist bei komplexeren Fragen unerlässlich.

Aber auch nur eben im dargestellten Kontext des eigenen Berufes.

- ständige Nutzung von KI, ohne die Antwort inhaltlich zu verstehen, macht den Nutzer letztlich überflüssig - die Aufgabe könnte auch ein simples frontend erledigen.

Ja, klar. Das ist aber nichts ungewöhnliches. Wenn man seine Arbeit lediglich durch Andere, seien es Menschen oder ein KI, erledigen lässt, dann läuft man in die Gefhr, dass die eigene Arbeit eben überflüssig wird, da sie andere , Menschen oder KI machen. Das ist aber in allen beruflichen Kotexten der Fall.

Nutz man hingegen, die dadurch gewonnen Zeit um sich weiter zu bilden, sei es im eigenen Wissens/Berufsfeld oder in einem anderen, macht man sich nicht überflüssig, ehr im Gegenteil.


- unnützer KI-Einsatz "macht dumm", weil Fähigkeiten verloren gehen können. (Für die, die es konnten: wann habt ihr das letzte Mal komplexere Aufgaben im Kopf gerechnet, oder länger mit der Hand geschrieben? Und was ist mit denen, die nicht mal einfache Aufgaben ohne Hilfe erledigen können …)

Diesem Argument kann ich überhaupt nicht zustimmen. Denn es ist IMO nicht wichtig, das man in Bereichen in denen man Hilfe sucht und nimmt, hier in Form einer KI, die Fähigkeit auch selbst besitzt, das "Problem" zu lösen. (den beruflichen Kontext habe ich oben erwähnt. Da kommt der Faktor Weiterbildung dazu)

Ich weiß zwar so irgendwie, wie die Elektroinstallation in meinem Haus funktioniert, aber wenn da was nicht geht, hole ich mir Hilfe durch einen Fachmann, einen Elektriker. Auf den muss ich mich verlassen, da ich selbst die Fähigkeiten nicht habe Elektroinstallationen durchzuführen.

Da ist IMO kein systematischer Unterschied, wenn man sich die Hilfe durch eine "Fachmaschine", eine KI, holt.

Habe kürzlich einen längeren Text von einer Person erhalten, der zum einen und völlig überraschend fehlerfrei war, zum anderen Worte verwendete, die die Person mit Sicherheit nicht einmal kennt … Deepl lässt grüßen …

Das ist doch genau das Paradebeispiel, warum KI auch sehr hiffreich und gut sein kann. So kann man sich mit Menschen verständigen, die eine andere Sprache haben. Ich bin zwar einigermaßen gewandt in Englisch, aber auch ich nutze mittlerweile lieber KI, um meine README-Datei auf den github repositories zu erstellen oder meine Blog-Artikel in englisch zu verfassen. Interessanterweise verbessert das für mich mein Englisch, da ich da dann Worte, Redewendungen, Grammatik sehe, die ich so selbst nicht verwende oder auch gar nicht kenne. Und da das in einem Bereich passiert, der mich interessiert, fällt es mir auch leicht, das aufzunehmen und meine Fähigkeiten damit zu verbessern. Wie oben gesagt: ich nutze da quasi die Zeitersparnis beim Erstellen. mit einer kleinen Weiterbildung. Dieser alte Spruch vom lebenslangen Lernen eben.

Und ja, wie in vielen Bereichen des Lebens, muss man Vertrauen habe. Vertrauen, dass der Elektriker alles richtig macht, Vertrauen dass DeepL Sinn-korrekt übersetzt.
 
Wisst ihr was besonders dreist ist? Ich habe schon Buchrezensionen auf Amazon gelesen, in denen die rezensierende Person sich nicht einmal die Mühe gemacht hat, auch nur die Formatierungsplatzhalter (### oder ***) von ChatGPT vor dem Copy-Paste zu entfernen. Rotzfrech sowas. Interessanterweise tauchte der Name der "Rezensentin" dann auch in der Danksagung des Buches auf.

Nein, KI ist nicht nur eine dritte industrielle Revolution nach Nummer eins (Dampfmaschine, Maschinismus) und Nummer zwei (Elektronik und Internet). Diese "Revolutionen" haben unser aller Leben bzw. das unserer Ahnen verändert. Das Problem mit der dritten industriellen Revolution wird sein, dass sie nicht unser Leben verändert, sondern uns selbst. Das beobachte ich mit großem Unbehagen.

Der Masse des KI-Schritts, der sich ins Internet ergießt, werden wir aber leider nur mit KI Herr werden. Social Media wird von KI-Inhalten geflutet, gleichzeitig haben die Firmen eigentlich kein Interesse, dass dort nur noch KI-Schrott existiert und die menschlichen User verdrängt. Ich bin gespannt, wie Meta, X und Co. damit umgehen werden. An Facebook sieht man, dass das ein systematisches Risiko ist.

Noch lassen sich KI-Texte recht einfach erkennen, da sie bestimmten Mustern folgen. Insbesondere wenn der Anwender keine Erfahrung im Prompten hat.
 
Die Tragödie ist, dass KI heutzutage rotzfrech für alles Mögliche benutzt wird und in der Tat das Gehirn dazu allzu oft aufs Abstellgleis gestellt wird.
Im Moment ist es noch so, dass sich KI-Texte sehr schnell selbst als solche enttarnen.

Da du so kritisch gegenüber KI-Texten bist, kannst du vielleicht mal, wenn du Lust hast, meine folgenden Texte bewerten? Ich meine das ersnt, da du ja sher gerne und sehr differenziert mit Sprache umgehst.

In meinem Blog lasse ich die KI meine deutschen "Human-Intelligence-Texte" ins englische übersetzen. Sind diese englischen KI-Texte dann irgendwie künstlich für dich? Sprachlich unpassend? Hier ein Bsp -> https://lisanet.de/en/compiling-nano-yorself-on-macos/

Auf meinen github-repos lasse ich die KI aus dem source code (der von mit mit Hilfe eienr KI erstellt wurde) und einer kurzen Beschreibung von mir anhand eines Beispiels, das README auf englisch erstellen.

Outet sich dieses README sofort als KI-generiert? Ist die Sprache da irgendwie künstlich trocken oder sonst wie "ungut"?

Hier ein Bsp -> https://github.com/lisanet/update-mergerfs-repo
 
Noch lassen sich KI-Texte recht einfach erkennen, da sie bestimmten Mustern folgen. Insbesondere wenn der Anwender keine Erfahrung im Prompten hat.

Auch dich lade ich gerne ein, meine oben erwähnten KI-Texte zu bewerten. Das würde mir helfen, in Zukunft besser zu werden.
 
Nutz man hingegen, die dadurch gewonnen Zeit um sich weiter zu bilden, sei es im eigenen Wissens/Berufsfeld oder in einem anderen, macht man sich nicht überflüssig, ehr im Gegenteil.
Und genau das mache ich. Ich schaue auch, wie die KI, Skripte und Tools meine Arbeit beschleunigen, die Mehrarbeit zahlt ohnehin keiner und so kann ich die Daten noch schneller an den Kunden ausliefern. Obendrein kann ich meine Skills weiter vertiefen, die Zeit hätte ich vor 2-3 Jahren gar nicht gehabt. Bei mehr Aufträgen hab ich aktuell mehr Freizeit als früher.
 

... ist doch ok, dass meine Posting soviele Fehler enthalten. Dadurch sind sie eindeutig als Human-Intelligence erkennbar und die vielen KI-Gegner regen sich nicht darüber auf ;)

Okay, wer halt auch auf 100% Korrektheit Wert legt, wird damit nicht glücklich ;)
 
In meinem Blog lasse ich die KI meine deutschen "Human-Intelligence-Texte" ins englische übersetzen. Sind diese englischen KI-Texte dann irgendwie künstlich für dich? Sprachlich unpassend? Hier ein Bsp -> https://lisanet.de/en/compiling-nano-yorself-on-macos/
Die Texte klingen meiner Meinung nach nicht künstlich oder stark nach KI, weil sie aus dem Deutschen übersetzt wurden und deswegen auch Elemente enthalten, die eine KI auf Englisch so nicht schreiben würde, weil sie an die deutsche "Denkweise" und deutsche Formulierungen erinnern.
 
Da du so kritisch gegenüber KI-Texten bist

Bin ich nicht. Ich wäge nur ab, wo KI-Texte hingehören und wo nicht.

Man kann meinetwegen einen literarischen Text per KI erstellen lassen, aber das gehört dann doch bitte dringend deklariert!

Alles andere wäre zumindest Schaumschlägerei, eher aber Unehrlichkeit und eine Ehrlosigkeit denen gegenüber, die noch selbst ihr Hirn benutzen, um schriftstellerische Arbeit zu leisten.

Die Rote Linie ist für mich überschritten, wenn KI-Texte als selbstverfasste Texte deklariert werden.
Natürlich kann man jetzt mit der Dichotomie argumentieren, dass man ja nicht zu 0% oder zu 100% KI umsetzen muss und das ist in der Tat ein relevantes Argument, nur das würde hier vermutlich zu weit führen.

Zur Recherche benutze ich gern ChatGPT, mit der empfohlenen Portion Vorsicht, aber niemals würde ich den Schreibprozess der KI überlassen. Auch nicht teilweise. Recherche --> Informationsverarbeitung im Gehirn --> selbst formulieren. Das ist für mich der Way to go.

Noch einmal, man kann es auch anders sehen, aber dann muss man das offenlegen.
KI-Texte als eigene zu verkaufen ist hochgradig unehrenhaft.
 
Zurück
Oben Unten