MacLife: Ist der Mac nur noch ein Stiefkind Apples?

Kleiner Hinweis, es hat vielmehr mit nicht vorhandenen API's auf beiden Seiten der Nahrungskette als mit der Funktionsweise eines Sprachassistenzsystems zu tuen..
Das ist Schicht und einfach falsch. Les Dich bitte mal in macOS ein. (ganz nach der Art "such doch selbst", die ja im Forum gern gesehen wird)
 
Schade das du auf die restlichen Fragen nicht geantwortet hast.
Aber sei's drum. Schauen wir uns dein Beispiel einfach nochmal an.

"Hey Siri, suche auf google bitte mal nach Bildern von Laubbäumen, sortiere diese nach dem Alphabet und mach für jeden Baum eine Keynote Folie mit einem Bild und einer Bildunterschrift"

Was muss ein "KI"-System hier also leisten?

1) Google Suche mit dem jeweiligen Suchbegriff durchführen.
Sicherlich kein Problem.

2) Erkennen was herunterzuladen ist.
Hier haben wir auch schon den Anfang des Problems, anhand welches Musters sollen die jeweiligen reinen "Laubbaumbilder" von denen ohne semantischen/inhaltlichen Wert unterschieden werden? Gibt es hier eine offene API, die die "KI" nutzen kann? Woher weiß die KI, ob es ein Ahornbaum oder doch eher eine Weide ist? Wag das experiment vielleicht mal selber: https://www.google.de/search?q=laubbaum&source=lnms&tbm=isch

3) Die jeweiligen Meta-Informationen zu der jeweiligen Baumart beziehen.
Nächstes Problem. Woher kommen diese Meta-Informationen? Gibt es hier eine API, die die "KI" nutzen kann? Die jeweiligen Bilder, die du über die Google-Suche bekommst sind jeweils auf verschiedenen Webseiten eingebunden. Dementsprechend unterscheiden sich die vergebenen Tags drastisch. Manche Seiten betiteln das Bild gar nur mit Laubbaum. Wie ordne ich Laubbaum 1 denn alphabetisch zu Laubbaum 2 ein?

Sicherlich erkennst du es selbst, dein Beispiel ist ziemlich kurz gegriffen und rührt einfach daher, dass DU nicht so tief in der Materie steckst wie du es gerne von dir gibst. Alle Sprachassistenzsysteme die es heute gibt, oder solche die in naher Zukunft existieren können sich NUR im Rahmen der bei der Programmierung festgelegten "Regeln" bzw. vordefinierten Aktionen bewegen. Diesen Spielraum kann man sicherlich mit genügend Aufwand auf weitere Systeme/Aktionen ausweiten, eine künstliche Intelligenz wie du sie forderst ist aber schlicht nicht möglich. Bevor du wieder mit machine learning anfängst, wiederhole ich die Frage nochmal, kennst du die Grenzen? :)
 
Abgesehen davon ist Keynote das völlig falsche Programm ;) Mit InDesign könnte man das soweit scripten, dass es selbstständig Seiten mit Bild und Bildunterschrift und Metadaten erzeugt und ausgibt. Aber komplett automatisiert geht das noch nicht. Du benötigst einen bestimmten Ordner, lässt in Media Pro oder über das Terminal ein Script laufen, dass dir die Dateinamen rauszieht und als xml, txt etc. ausgibt und im selben Ordner ablegt, dann importiert InDesign es, skaliert korrekt, setzt den Dateinamen drunter und rattert die Bilder durch.
Die Bilderkennung seitens google funktioniert, wie du schon sagtest, wenn alles richtig getagt ist. Dann würde die Sortierung auch klappen, ansonsten nicht.
 
Zurück
Oben Unten