Diktierfunktion leider nach update unzureichend

Amiks

Amiks

Aktives Mitglied
Thread Starter
Dabei seit
06.01.2013
Beiträge
256
Reaktionspunkte
8
Liebe Community,

habe das Gefühl, dass die Diktierfunktion auf meinem iPhone X nach den letzten updates immer schlechter geworden ist. Besonders wenn ich die Sprachen umstelle kommt dann leider ein unzusammenhängender Kauderwelsch, den man nicht einmal als "denglisch" bezeichnen kann heraus.
Das Ergebnis meines englisch-gesprochenen Textes ergibt doch keinen sinnvollen zusammenhängenden Text. Und es heißt doch bei Apple "Möglicherweise missverstandene Wörter werden blau unterstrichen, damit Sie leichter prüfen können, ob diese korrekt transkribiert wurden". Also nicht einmal das passiert bei mir - jetzt nehme ich an, dass es am System liegen könnte.

img_4382-png.284409


Habe deshalb einen Screenshot von meinem letzten Diktat angehängt. Jetzt meine Frage - hat hier schon jemand ähnliche Erfahrungen gemacht? Gibt es eine Lösung - update der Diktierfunktion oder ähnliches (begebe mich jetzt in Gefahr, dass ich ein blöde Frage gestellt habe - ich weiß). Da ich viel mit dieser Funktion arbeiten muss und es früher (nach welchem update es das erste mal aufgetreten ist weiß ich leider nicht mehr) problemlos funktioniert hat wäre ich über konstruktive Lösungsvorschläge sehr dankbar.

Amiks
 

Anhänge

  • IMG_4382.PNG
    IMG_4382.PNG
    21,3 KB · Aufrufe: 95
Warum 2 Threads dazu?
 
  • Gefällt mir
Reaktionen: dg2rbf
Warum 2 Threads dazu?
Weil er das Thema im falschen Forum eröffnet hatte, darauf mehrfach hingewiesen wurde und es ja nicht selbst verschieben kann. Was wäre denn Dein Vorschlag, wie er richtig damit umgehen sollte? Im macOS-Forum hat seine iOS-Frage jedenfalls definitiv nix zu suchen.

Zum Thema: Ich kann das Problem nicht nachvollziehen. Wobei ja seit iOS 13 die Sprachen automatisch erkennt werden und dafür kein unterschiedlichen Tastaturen vorhanden sein müssen. Es reicht die deutsche Tastatur und man kann trotzdem Englisch eintippen (inkl. korrekter Wortvorschläge) und diktieren. Man kann also problemlos "Wie geht es Dir? How are you?" in einem Durchgang diktieren ohne dazwischen die Tastatur umzuschalten.
 
Wie schon im anderen Thread gesagt: du musst nicht die Tastatur umschalten, wie aus deinem Screenshot ersichtlich, sondern das Mikrofonsymbol gedrückt halten und dann, wenn das Menü erscheint, hoch wischen und English markieren.
 
Wie schon im anderen Thread gesagt: du musst nicht die Tastatur umschalten, wie aus deinem Screenshot ersichtlich, sondern das Mikrofonsymbol gedrückt halten und dann, wenn das Menü erscheint, hoch wischen und English markieren.
Und auch das ist nicht nötig, wie gesagt.
 
Das war früher so (den genauen Zeitpunkt kenne ich nicht.)

Jetzt musst du das Mikrofonsymbol nutzen. Getestet auf iPhone 11, iOS 13.3.1
 
  • Gefällt mir
Reaktionen: dg2rbf
Das war früher so (den genauen Zeitpunkt kenne ich nicht.)

Jetzt musst du das Mikrofonsymbol nutzen. Getestet auf iPhone 11, iOS 13.3.1
Für was muss Du das Mikrofonsymbol nutzen? Also ich drücke zum Start natürlich das Mikrofonsymbol, aber dann diktiere ich "Wie geht es Dir? How are you?" in einem Durchgang und das wird korrekt so eingegeben.
 
Für was muss Du das Mikrofonsymbol nutzen? Also ich drücke zum Start natürlich das Mikrofonsymbol, aber dann diktiere ich "Wie geht es Dir? How are you?" in einem Durchgang und das wird korrekt so eingegeben.
... um die Diktiersprache zu wählen. (Mikrofonsymbol halten, dann auswählen)
 
Aber warum sollte man das? Sie wird ja automatisch richtig erkannt.
Okay, wir drehen uns im Kreis. Bei mir, iPhone 11, iOS 13.3.1 wird es nicht automatisch erkannt. Ebenso nicht beim Threadersteller. Lösung für uns beide ist der Weg übers Mikrofonsymbol.

Es wäre nun interessant, welches Gerät und welche iOS Version du hast und wo die Unterschiede in den diversen Einstellungen liegen. Vielleicht kann man daraus dann auch eine Lösung entwickeln, dass es bei allen Usern automatisch erkannt wird. Oder aber man sieht wann der eine und wann der andere Weg beschritten werden muss.

Also, welches Gerät, welches iOS, welche Einstellungen?

hier: IPhone 11, iOS 13.3.1,
Sprachen und Tastaturen jeweils Deutsch und Englisch,
Diktiersprachen Deutsch und Englisch beide aktiviert,
Bedienungshilfen-Sprachsteuerung aus
 
Nimm mal die Mailadresse aus dem Screenshot.
 
Okay, wir drehen uns im Kreis. Bei mir, iPhone 11, iOS 13.3.1 wird es nicht automatisch erkannt. Ebenso nicht beim Threadersteller. Lösung für uns beide ist der Weg übers Mikrofonsymbol.

Es wäre nun interessant, welches Gerät und welche iOS Version du hast und wo die Unterschiede in den diversen Einstellungen liegen. Vielleicht kann man daraus dann auch eine Lösung entwickeln, dass es bei allen Usern automatisch erkannt wird. Oder aber man sieht wann der eine und wann der andere Weg beschritten werden muss.

Also, welches Gerät, welches iOS, welche Einstellungen?

hier: IPhone 11, iOS 13.3.1,
Sprachen und Tastaturen jeweils Deutsch und Englisch,
Diktiersprachen Deutsch und Englisch beide aktiviert,
Bedienungshilfen-Sprachsteuerung aus
Bei mir: iPhone XS, iOS 13.3.1, Sprachen und Tastaturen nur Deutsch (und Emoji).

Noch mal die Nachfrage: Das Beispiel "Wie geht es Dir? How are you?" bei (ausschließlich!) deutscher Tastatur funktioniert bei Dir nicht und wird nicht richtig erkannt?
 
Einfachste Worte und Sätze werden ab und an automatisch erkannt. Trefferquote aber faktisch null. Etwas komplexere Sätze wie in meinem Screenshot klappen nie automatisch. Teste du diese Sätze mal bei dir.

Einzige Möglichkeit bei mir: Tastatur und Sprachen in Deutsch und Englisch und übers Mikrofonsymbol mit Auswahl von English.
 
Hier noch der Screenshot

E435CE73-35DD-49B7-A597-C64154430ADA.jpeg
 
Einfachste Worte und Sätze werden ab und an automatisch erkannt. Trefferquote aber faktisch null. Etwas komplexere Sätze wie in meinem Screenshot klappen nie automatisch. Teste du diese Sätze mal bei dir.
Diese Sätze oben kann ich ja nur raten. Aber ja, wenn ich komplexere englische Sätze ausprobiere, dann kommt es sehr auf die Aussprache an. "think" wird nur dann erkannt, wenn ich es falsch/deutsch ausspreche als "sink". Auch der Kontext ist relevant. Wenn einige Wörter korrekt englisch erkannt wurden, dann werden die nachfolgenden erst mal als Englisch interpretiert und umgekehrt.
 
Dann klappen die Sätze aus meinem Screenshot also nicht so recht mit automatischer Erkennung?

Mit dem Weg über das Mikrosymbol und 2 Sprachen /Tastaturen ist die Erkennung faktisch 100%. Egal wie komplex der Satz ist. Vielleicht wird mal „he is“ anstelle „here is“ verstanden, aber bei der Aussprache ist viel Toleranz. Und „think“ kann ganz regulär mit th ausgesprochen werden, ganz ohne Notwendigkeit zu eingedeutschter Aussprache.

Ich für meinen Teil bleibe bei 2 Sprachen / Tastaturen und der Auswahl übers Mikrosymbol, da es einfach besser erkennt.
 
Zurück
Oben Unten