Lossless auf Anlage via AirPlay

Grund dafür dürfte sein, dass auch bei gutem Wlan Datenblöcke verloren gehen oder erst mit leichter Verzögerung ankommen. Um die Musik trotzdem sauber abzuspielen, müsste der Empfänger die fehlenden Datenblöcke nachfordern und die Musik ein paar Sekunden zeitverzögert abspielen. Das tut er aber nicht, und aus gutem Grunde, weil nämlich dann die direkte Interaktion verloren ginge. Stell dir vor, du streamst ein Spiel vom iPhone auf den Fernseher und würdest dort Bild und Ton erst mit zwei Sekunden Verzögerung haben. Unbrauchbar wäre das. Bei der Musik (nicht im Spiel, da stört das nicht, sondern an der Hifi-Anlage) hört man diese Datenverluste und -verzögerungen leider raus.

Äh ja, Nein vielleicht…
Ich bin ehrlich gesagt nicht sicher ob du 100% verstanden hast, worum es in Deiner Antwort geht.

Also:
1. Paketverluste treten im WLAN tatsächlich auf, je nach Empfangsqualität mal mehr oder weniger.

Um dem zu begegnen gibt es zwei Möglichkeiten:
1. Auf Applikationsebene:
Viele Programme cachen tatsächlich die Wiedergabe, damit bei Verlust Zeit bleibt fehlende Pakete nachzufordern.
Bei der Wiedergabe von Bild und Ton auf unterschiedlichen Geräten können die Abspielprogramme (Quicktime konnte das z.B. auch) die Latenz - also den Zeitverlust -zwischen Bild und Ton bestimmen, damit Bild und Ton synchron laufen, selbst wenn der Ton z.B. auf Airplay Lautsprechern angespielt wird. Die 1-2 Sekunden fürs Caching spielen hier keine Rolle.

2. Netzwerkebene:
Vereinfacht gesprochen gibt es zwei Protokolle für den Versand von Paketen über das Netzwerk:
TCP und UDP
Bei TCP wird der Empfang jedes Datenpaketes bestätigt. Der Sender weiß also wann Pakete verloren gegangen sind und kann diese neu übertragen. Somit kann Paketverlust vorgebeugt werden.
Der Empfänger kann auf seiner Seite die Pakete wieder in die richtige Reihenfolge bringen .
Bei UDP werden einfach alle Pakete nacheinander rausgehauen.
Es können zwar auch verlorene Pakete neu angefordert werden, aber darum muss sich die Anwendung selbst kümmern.
(Also bist du wieder bei Punkt 1.)
UDP kann auf der anderen Seite dafür schneller Datenpakete senden als TCP.

So wie ich das auf den ersten Blick geselesen habe verwendet AirPlay das RTSP Protokoll was sowohl TCP als auch UDP verwenden kann.
Siehe hier

Man kann also zusammenfassen, dass das Problem der Paketverluste zwar real existiert, in der Praxis aber durchaus beherrscht werden kann.

Die Lösung dafür besteht nicht in einem alternativen Streaming-Protokoll (wäre machbar, ist aber nicht gemacht worden). Stattdessen werden die Musikdaten nicht über dass Smartphone geleitet, sondern der Streaming-Empfänger holt sie sich direkt von der Quelle (macht z. B. Google Chromecast; AirPlay mat meines Wissens dasselbe Prinzip). Das kann aber lange nicht jeder Empfänger und auch nicht jede App auf dem Smartphone

Ich fürchte du verwechselt hier Äpfel mit Birnen.
Grundsätzlich hat das nichts mit dem Streaming-Protokoll oder der Frage ob es da was besseres geben könnte zu tun.
Wie du schreibst gibt es Streamingboxen die das iPhone quasi nur als Fernbedienung benutzen - wie z.B. der Chromecast Stick oder Netzwerkfähige Reciever etc.

Aber: Wenn z.B. der Chromecast selbst per WLAN im Netzwerk hängt, hast du dieselben Probleme mit WLAN Paketverlusten als wenn du direkt vom IPhone streamst.
Das ist also - nach deiner Logik - keine Lösung des Problems sondern nur eine Verlagerung des Problems vom Smartphone auf dein Streaminggerät.
 
Ebenso wichtig ist das Ausgabegerät. Wenn Apple schreibt, der Unterschied zwischen AAC und CD-Qualität sei praktisch nicht wahrnehmbar, dann gilt das sicher, wenn man die Musik mit dem iPhone hört. Wenn man hingegen seinen Mac an einen hochwertigen DA-Wandler anschließt, dieser an einen guten Verstärker mit guten Boxen, dann hört man den Unterschied sehr wohl. Ob der Yamaha-Streamer gut genug ist, dass man den Unterschied hört, weiß ich nicht. Ich kenne weder den noch den Rest der Anlage.

Siehe mein Beitrag #6
Ich glaube in einem gut aufgesetzen Blindtest wirst du sicher nicht in der Lage sein, das eine vom anderen zu Unterscheiden - selbst am Mac und selbst mit einem hochwertigen DA Wandler.
- Wobei: Man könnte denselben DA-Wandler auch ans iPhone anschließen, da müsste man im Test ja dieselben Ergebnisse erzielen wie beim Mac…

Zum Vorhaben des Fragestellers: Die Frage ist schon einmal, wie die Daten übertragen werden. Wenn die Musikdaten vom iPhone geladen werden und von diesem per Wlan oder Bluetooth zum Yamaha Streamer geschickt werden, dann sollte er diese Lösung vergessen. Der Qualitätsverlust ist heftig und eindeutig raushörbar, die Qualität deutlich weniger als CD-Qualität. (OK, ich habe kein iPhone, aber ich habe das mit dem Android-Gegenstück Chromecast ausprobiert. Der Unterschied war deutlich.)

Bitte hier auch aufpassen, dass man nicht Äpfel und Birnen vergleicht!
Bluetooth hat längst nicht die Bandbreite von WLAN, weshalb die Audio-Codecs alle mehr oder weniger Stark komprimieren und es deshalb durchaus zu Qualitätseinbußen kommen kann.
Bei WLAN hast du aber jederzeit die nötige Bandbreite im Audio als AAC oder Lossless ohne Qualitätsverlust (gemessen an der Originaldatei) zu übertragen.

Ich bin kein Android-Benutzer, aber ich wage mal zu behaupten, das dein Android Telefon möglicherweise nur via Bluetooth an den Chromecast gestreamt hat - und deshalb es durchaus sein kann, dass hier die Qualität leidet.
AirPlay vom iPhone, iPad oder Mac verwendet aber immer WLAN und kann hier AAC oder Lossless ohne zusätzliche Komprimierung übertragen.

Anders sieht das aus, wenn sich der Streamer die Daten selbst vom Anbieter lädt und das iPhone nur als Fernsteuerung benutzt wird. Dann hängt die Qualität nur vom Streamer und den weiteren Komponenten ab. Wobei mir in dem Falle nicht klar ist, warum es dann eine Begrenzung auf 16Bit geben soll.

…Und natürlich wie der Streamer die Daten empfängt (WLAN, Bluetooth, LAN, handgelutschter Silberdraht, Feuerkabel…)…

Es sei hier noch angemerkt, das zumindest die meisten Reciever und auch viele Streaming Boxen dieselbe Netzwerk-Bausteine und auch oft die selben DA-Wandler benutzen.
(Weshalb die also eigenlich alle gleich klingen)…
 
Ich glaube in einem gut aufgesetzen Blindtest wirst du sicher nicht in der Lage sein, das eine vom anderen zu Unterscheiden
Wir habens gemacht! Verstärker von Naim, Streamer von Cambridge Audio und Streaming von Spotify oder Qobuz.

Rein rechnerisch sollte man keinen Unterschied hören. Er ist aber da! Hört es dich an als sei ein Vorhang zwischen Musik und Hörer entfernt worden und es gäbe mehr Klarheit und Präzision im Klang, dann war es Qobuz. Hatte man das Gegenteilige Gefühl, so wurde von Qobuz zu Spotify umgeschaltet.
Geht auch mit Spotify und CD und den Test kann jeder machen. Meine Ohren sind auch schon Mitte 50 und hören es trotzdem.
Auch andere haben das bei uns im Vergleich gehört und bestätigt.
 
  • Gefällt mir
  • Haha
Reaktionen: WirbelFCM und Yiruma
Rein rechnerisch sollte man keinen Unterschied hören. Er ist aber da!
Dann kannst du ja wohl erklären, warum das mit der Nyquist-Frequenz nicht stimmt

https://de.m.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem

und du ein identisches Signal nach AD Wandlung von 16/44,1 und 24/192 angeblich unterschiedlich hören kannst.

Könnte es sich nicht auch um einen Placebo- Effekt handeln? Weil wenn ein identisches Signal dein Ohr erreicht, was soll dann den anderen Eindruck auslösen? Es ist keine andere Information vorhanden.
 
War das ein Doppel Blindtest?
Wo Proband und Tester beide nicht wussten was jetzt vorliegt?

Rundungs- und Quantisierungsfehler können natürlich bei unterschiedlichen Wandlern auftreten.
Das berühmte Vinyl klingt besser ;)
 
Wir habens gemacht! Verstärker von Naim, Streamer von Cambridge Audio und Streaming von Spotify oder Qobuz.

Rein rechnerisch sollte man keinen Unterschied hören. Er ist aber da! Hört es dich an als sei ein Vorhang zwischen Musik und Hörer entfernt worden und es gäbe mehr Klarheit und Präzision im Klang, dann war es Qobuz. Hatte man das Gegenteilige Gefühl, so wurde von Qobuz zu Spotify umgeschaltet.
Geht auch mit Spotify und CD und den Test kann jeder machen. Meine Ohren sind auch schon Mitte 50 und hören es trotzdem.
Auch andere haben das bei uns im Vergleich gehört und bestätigt.
Ich bin ehrlich gesagt auch froh, dass wir das Kapitel verlustbehafteter Audiocodecs unter Einsatz von psychoakustischen Tricks bei den Streamingdiensten so langsam hinter uns lassen. Wenn man Apple bzw. Steve Jobs damals glaubte, entsprach ja schon der im iTunes Store ursprünglich verwendete AAC-Codec mit 128kbps "CD-Qualität", was rückblickend dann doch leicht übertrieben war.
 
und du ein identisches Signal nach AD Wandlung von 16/44,1 und 24/192 angeblich unterschiedlich hören kannst
Ich habe Spotify vs CD Qualität bei Qobuz verglichen. AAC ist vermutlich auch besser als die MP3 von Spotify.
Die Signale waren also unterschiedlich. Den Bereich den Du ansprivhst kann man tatsächlich nicht hören. Das ist Audioreserve fürcTonstudiios. So wie RAW Bilder von Kameras mehr Daten haben als das Auge sehen kann; ist halt Bearbeitungsreserve.
 
War das ein Doppel Blindtest?
Wo Proband und Tester beide nicht wussten was jetzt vorliegt?

Rundungs- und Quantisierungsfehler können natürlich bei unterschiedlichen Wandlern auftreten.
Das berühmte Vinyl klingt besser ;)
Nee natürlich nicht. Der der an der Anlage umschaltete wusste was er tat. Das war zu Hause im Wohnzimmer und kein empirischer Versuch. Es war aber verblüffend deutlich.

Das Vinyl Ding ist klar Psycho Akustik. Der Klang von Vinylplatten ist wärmer und uns subjektiv angenehmer. Platten können niemals die Dynamik von Alben wie Brothers in Arms wiedergeben. Trotzdem habe ich noch alte und auch neue Platten!
 
Rundungs- und Quantisierungsfehler können natürlich bei unterschiedlichen Wandlern auftreten.
ein analoges Signal nach der Wandlung kann doch keine Rundungs- oder Quantisierungsfehler aufweisen.

Und auch wenn 16/44,1 oder 24/192 unterschiedliche digitale Genauigkeiten haben, und damit unterschiedliche Quantisierungen vorhanden sind, nach Wandlung zu analog ist das eben nicht mehr relevant. Genau das sagt ja das Nyquist-Theorem aus.
 
Was übrigens auch sein kann:

Die Streaming-Dienste mischen wohl teils selbst nochmal ab. So klingt TIDAL einfach etwas anders als Qobuz. Rein subjektiv mag ich Qobuz klanglich am liebsten. Die Signale sind also eben nicht völlig gleich.

Das ist wie bei den Verstärkertests. Rein meßtechnisch finden sich da auch kaum Unterschiede zwischen einem Gerät für 1000, 2000 oder 3000Euro. Trotzdem klingen die teils unterschiedlich. Wenn man die Geräte jedoch nicht als neutrale Wiedergabemedien betrachtet, sondern als Instrumente sieht die eine eigene Klangfarbe produzieren, dann wird deutlich warum man einen Unterschied hören kann. Der hat dann aber eben nichts mit dem Preis zu tun oder einer meßbaren Klangqualität sondern mit subjektivem Geschmack.
 
Bei roon geht das.
So wie RAW Bilder von Kameras mehr Daten haben als das Auge sehen kann; ist halt Bearbeitungsreserve.

Ist so nicht ganz richtig. Der Dynamikumfang einer Kamera liegt unter dem des menschlichen Auges. Jede Kamera nimmt quasi in RAW auf, aber ein iPhone hat zu den aktuellen Vollformatkameras zwar RAW als Option, aber der Dynamikumfang ist dagegen fast lächerlich. Im Profibereich sind wir bei 14-16bit, gehen wir auf ISO Werte >200, war es das beim iPhone z.B.
 
echt? Ich dachte mit 14bit ist die Kamera überlgen!?
Das Auge hat ~20 Blendenstufen. Aber die Bit sagen ja nur aus, dass es 2^14 Abstufungen pro Kanal abspeichern kann. Wenn der Sensor das nicht hergibt, war es das. Und die Dynamik nimmt bei steigenden ISO Zahlen in der Regel ab.
 
  • Gefällt mir
Reaktionen: Carmageddon und wegus
Das Auge hat ~20 Blendenstufen. Aber die Bit sagen ja nur aus, dass es 2^14 Abstufungen pro Kanal abspeichern kann. Wenn der Sensor das nicht hergibt, war es das. Und die Dynamik nimmt bei steigenden ISO Zahlen in der Regel ab.
Ah ok, verstehe!
 
Das dachte ich auch. Die Übertragungsleistung von WLan reicht locker aus für die Anforderungen, die auch hochauflösende Musikdateien stellen. Ich bin aber eines Besseren belehrt worden.

Grund dafür dürfte sein, dass auch bei gutem Wlan Datenblöcke verloren gehen oder erst mit leichter Verzögerung ankommen. Um die Musik trotzdem sauber abzuspielen, müsste der Empfänger die fehlenden Datenblöcke nachfordern und die Musik ein paar Sekunden zeitverzögert abspielen. Das tut er aber nicht, und aus gutem Grunde, weil nämlich dann die direkte Interaktion verloren ginge. Stell dir vor, du streamst ein Spiel vom iPhone auf den Fernseher und würdest dort Bild und Ton erst mit zwei Sekunden Verzögerung haben. Unbrauchbar wäre das. Bei der Musik (nicht im Spiel, da stört das nicht, sondern an der Hifi-Anlage) hört man diese Datenverluste und -verzögerungen leider raus.

Die Lösung dafür besteht nicht in einem alternativen Streaming-Protokoll (wäre machbar, ist aber nicht gemacht worden). Stattdessen werden die Musikdaten nicht über dass Smartphone geleitet, sondern der Streaming-Empfänger holt sie sich direkt von der Quelle (macht z. B. Google Chromecast; AirPlay mat meines Wissens dasselbe Prinzip). Das kann aber lange nicht jeder Empfänger und auch nicht jede App auf dem Smartphone.


Das habe ich beim Schreiben meines Beitrages auch gedacht. :Pfeif:

Dei Musik wird doch gepuffert, da bleibt genug Zeit zum Nachfordern. PLEX puffert doch auch, bei roon geht es auch im WLAN.
 
Das Auge hat ~20 Blendenstufen. Aber die Bit sagen ja nur aus, dass es 2^14 Abstufungen pro Kanal abspeichern kann. Wenn der Sensor das nicht hergibt, war es das. Und die Dynamik nimmt bei steigenden ISO Zahlen in der Regel ab.
Spielt keine Rolle, da der landläufigen Meinung nach ein iMac für die Bildbearbeitung ausreicht. Und der kann das lange nicht anzeigen.
 
  • Haha
Reaktionen: wegus und Veritas
Zurück
Oben Unten