Lossless auf Anlage via AirPlay

Was hat das mit dem Rechner zu tun? GPU -> Monitor.
Natürlich Nichts. Ok, ich habe das smiley vergessen. Aber der Post auf den ich mich bezog, hat explizit von einem iMac gesprochen und ich habe halt einfach Windows als Kontra-Punkt genommen. Ich hätte, da hast du recht, natürlich auch fragen sollen...

... gibt's ne Kombination von GPU und Monitor auf Macs oder Windows-Rechnern, die 14 bit je Farbkananl anzeigen kann?
 
Ich hoffe ich hab nicht übersehen, dass hierauf schon eingegangen worden war. War mir grad aufgefallen:

Das grundlegende Problem ist eher, welche Musik Audio Produktionen kommen in 24bit mit 48khz?
Die meisten sind halt 16bit/44,1khz.
Wenn du die dann auf 24bit/48khz umrechnen lässt, verbessert das nicht den Klang.
Nur um das nochmal zu erwähnen – ist Dir vielleicht auch bereits bewusst: Bei Verwendung der "Lossless"-Einstellung (vs. Hi-Res vs. HQ/AAC) in Apple Music beträgt die Samplingrate der Songs aus dem Apple-Music-Katalog höchstens 48kHz. Songs die lediglich in 44.1kHz vorliegen werden nicht resampled (bzw. nur wenn im Audio-Midi Setup eine andere Samplingrate eingestellt ist)
Nicht unbedingt, von der Umrechnung kann der Klang verändert werden, das muss nicht besser sein als verlustbehaftete Kompression.
Ich finde grad die Quelle nicht, aber ich meine gelesen zu haben, dass der Resampler von MacOS Messergebnissen zufolge bereits objektiv so gut ist, dass es extrem unwahrscheinlich ist, da subjektiv einen Unterschied beim Downsampling einer höheren Rate auf 44.1kHz feststellen zu können. Der objektiv messbare Unterschied bei verlustbehafteter Kompression am Beispiel von AAC 256kbps vs. PCM sollte da weit größer sein (wenn auch vielleicht trotzdem nicht immer subjektiv wahrnehmbar)
 
Der objektiv messbare Unterschied bei verlustbehafteter Kompression am Beispiel von AAC 256kbps vs. PCM sollte da weit größer sein (wenn auch vielleicht trotzdem nicht immer subjektiv wahrnehmbar)
hhhmm, sollte man das nicht mit Audacity selbst mal testen / messen können? Ich meine sowas wie eine CD hochwertig rippen, das in AAC256 kodieren und wieder decodieren und dann aus beiden Dateien in Audacity das Differenzsignal bilden. Ginge sowas? Hier sind doch Audio-Profis unterwegs. Oder leige ich mit dem Gedanken neben der Spur?
 
Natürlich Nichts. Ok, ich habe das smiley vergessen. Aber der Post auf den ich mich bezog, hat explizit von einem iMac gesprochen und ich habe halt einfach Windows als Kontra-Punkt genommen. Ich hätte, da hast du recht, natürlich auch fragen sollen...

... gibt's ne Kombination von GPU und Monitor auf Macs oder Windows-Rechnern, die 14 bit je Farbkananl anzeigen kann?

Die Monitore im Profibereich sind bei 10bit pro Kanal, rechnen aber intern um. Es kommt ja noch viel mehr dazu (Weißpunkt, DeltaE, Aufwärmzeit, Farbstabilität, Blickwinkel, Reflexionen, Homogenität, interne LUT usw.). Die 14bit spiegeln sich ja auch in der Dynamik wider, 14bit am iPhone sind keine 14bit an der R5, A1 und Co. Ob der EIZO jetzt am Mac oder Windows Computer hängt, ist egal. Wobei der Mac erst seit El Capitan 10bit ausgeben kann.
 
Ja, ist mir bekannt.

Ich wollte, wie gesagt, eine ironische Antwort auf den Post geben, da 14bit je Kanal nicht durchgehend zur Zeit ausgegeben werden, weder auf iMacs, anderen Macs oder Windowsrechnern. Diese Ironie hat halt nicht funktioniert.
 
hhhmm, sollte man das nicht mit Audacity selbst mal testen / messen können? Ich meine sowas wie eine CD hochwertig rippen, das in AAC256 kodieren und wieder decodieren und dann aus beiden Dateien in Audacity das Differenzsignal bilden. Ginge sowas? Hier sind doch Audio-Profis unterwegs. Oder leige ich mit dem Gedanken neben der Spur?
Bin zwar kein Audio-Profi aber, ja, sollte denk ich recht einfach gehen, bzw. solche Experimente findet man auch im Netz. Einige gehen dann soweit und nehmen die in der Regel deutlich hörbaren Störgeräusche die sich aus der bloßen Differenz nach der verlustbehafteten Kompression ergeben (fälschlicherweise) als Beleg für einen hörbaren Unterschied zwischen der komprimierten und der Originalversion. So einfach kann man es sich natürlich nicht machen.
 
  • Gefällt mir
Reaktionen: dg2rbf
Wobei ich grad merke, dass ich bei der hohen Qualität des Resamplers auch eher an den Upsampling-Fall gedacht habe. Beim Downsampling liegt es ja zumindest mal in der Natur der Sache dass gewisse Frequenzbereiche verloren gehen, sich das messbare Ergebnis also stark vom Original unterscheiden kann (ob die abgeschnittenen Frequenzen dann für das menschliche Gehör relevant sind, geschweige denn einen positiven Einfluss haben, sei mal dahingestellt)
 
  • Gefällt mir
Reaktionen: dg2rbf
... gibt's ne Kombination von GPU und Monitor auf Macs oder Windows-Rechnern, die 14 bit je Farbkananl anzeigen kann?
Schrob ich auch nirgends.
Aber ein Eizo CG mit 10 Bit Panel und 16 Bit 3D Lookup Table kann da schon deutlich mehr.
Ganz abgesehen vom Farbraum des iMac, der durch eine Profilierung erheblich schrumpft.

Kann man denk ich ganz gut auf das Thema Sound übertragen, bei dem der Beissreflex einiger Audiophile bzgl. Unhörbarkeit bestimmter Auflösungen ausgelöst wird und meist nicht einmal adäquates Equipment dafür vorhanden ist.
 
  • Gefällt mir
Reaktionen: dg2rbf
Ja, ist mir bekannt.

Ich wollte, wie gesagt, eine ironische Antwort auf den Post geben, da 14bit je Kanal nicht durchgehend zur Zeit ausgegeben werden, weder auf iMacs, anderen Macs oder Windowsrechnern. Diese Ironie hat halt nicht funktioniert.
Du hast eher ironisch auf einen ironischen Post antworten wollen ;)
 
Dei Musik wird doch gepuffert, da bleibt genug Zeit zum Nachfordern. PLEX puffert doch auch, bei roon geht es auch im WLAN.
Die Musik wird gepuffert auf dem Weg vom Medienserver (z. B. Spotify im Internet oder Plex auf dem NAS) zum Medienabspieler. Sie wird aber nicht gepuffert auf dem Weg vom Medienabspieler zum Ausgabegerät. Wenn du z. B. auf deinem Mac Lieder hörst, die von Plex bereitgestellt werden, dann puffert dein Musikplayer auf dem Mac die Daten zwischen. Er gibt die Daten aber ohne nennenswerte weitere Pufferung an die Lautsprecher weiter (was nicht stört, da über Kabel).

Wenn du hingegen auf dem Smartphone den Medienabspieler hast und per Bildschirmübertragung an den Mac (mit AirServer) streamst, dann puffert dein Smartphone zwar die Daten vom Plex-Server, aber vom Smartphone zu Mac und Bildschirm/Lautsprecher gibt es keine nennenswerte weitere Pufferung, obwohl hier auch WLan dazwischen ist, damit das Bild möglichst keinen Zeitversatz hat.

Wenn du dein Smartphone nur als Fernbedienung nutzt, bist du wieder beim beim ersten Fall (Medienabspieler auf Mac oder Chromecast oder Hifi-Gerät), womit alles in Butter ist.
Ich fürchte du verwechselt hier Äpfel mit Birnen.
Grundsätzlich hat das nichts mit dem Streaming-Protokoll oder der Frage ob es da was besseres geben könnte zu tun.
Wie du schreibst gibt es Streamingboxen die das iPhone quasi nur als Fernbedienung benutzen -
Ich verwechsle da nichts, aber da werden in der Tat (von Google, Apple, Sony, Metz, etc.) zwei verschiedene Techniken unter demselben Begriff "Streamen" zusammengefasst. Wenn ich z. B. an meinem Fernseher die Funktion "Youtube vom Smartphone auf den Fernseher streamen" aufrufe, dann streamt das Smartphone gar nichts, sondern teilt dem Fernseher nur die YT-Adresse mit und der lädt sich den Film direkt ohne Umweg über das Smartphone. Trotzdem nennt der Hersteller dies "Streamen".

Man muss ziemlich aufpassen, welche Technik man erwischt und wovon man spricht.

Ich bin kein Android-Benutzer, aber ich wage mal zu behaupten, das dein Android Telefon möglicherweise nur via Bluetooth an den Chromecast gestreamt hat
Bluetooth war beim Empfänger ausgeschaltet.
Wobei: Man könnte denselben DA-Wandler auch ans iPhone anschließen, da müsste man im Test ja dieselben Ergebnisse erzielen wie beim Mac…
Nach den letzten Tagen weiß ich gar nicht mehr, was man da erwarten kann. Ich habe festgestellt, dass auf der identischen Hardware Mac OS/X besser klingt als Linux. (MB mit OS/X und alternativ mit Linux gebootet. Der Klang hing nur vom BS ab, nicht von der Abspielsoftware.)
Dann kannst du ja wohl erklären, warum das mit der Nyquist-Frequenz nicht stimmt
Das Nyquist-Shannon-Theorem ist ein mathematisches Theorem, welches von unendlich definierten periodischen Funktionen und mathematisch exakten Messwerten und exakter Rückumwandlung ausgeht.
In der Praxis haben wir beides nicht.
 
  • Gefällt mir
Reaktionen: wegus
Das Nyquist-Shannon-Theorem ist ein mathematisches Theorem, welches von unendlich definierten periodischen Funktionen und mathematisch exakten Messwerten und exakter Rückumwandlung ausgeht.
In der Praxis haben wir beides nicht.
Praktischerweise können auch nicht-periodische Funktionen durch eine Überlagerung periodischer Funktionen dargestellt werden. Da reale Systeme (von Instrumenten über Lautsprecher bis zu unseren Ohren) immer bandbegrenzt sind, resultiert daraus keine praktisch relevante Einschränkung des Nyquist-Theorems. Bei den Auflösungen heutiger (guter) AD- und DA-Wandler kann man diese ebenfalls aus der Gleichung nehmen. Am Ende das Tages ist die einzig relevante Frage daher, ob die Grenzfrequenz der beteiligten Anti-Aliasing- und Rekonstruktionsfilter über oder unter der wahrnehmbaren Höchstfrequenz des Hörers liegt, natürlich unter Berücksichtigung der jeweiligen Audio-Ausstattung. Darunter ist das Nyquist-Theorem auch in der Praxis korrekt.
 
Wärme hier nochmal auf: Bin den Weg vom highres zu cd-Qualität zurück gegangen, weil ich keinen Unterschied hörte. Nachdem ich aber die Lautsprecher gewechselt habe, musste ich feststellen, dass auch der Verstärker eine signifikante Rolle spielt und so wurde auch der (schon nicht schlechte 3 Jahre alte Verstärker) ausgetauscht. Nun höre ich bevorzugt auch wieder highres (Qobuz). Das macht sicherlich den geringsten Unterschied aus, aber auf dem Weg zu immer natürlicher / entspannter klingender Musik scheint mir das eine weitere Nuance in einer Reihe von Nuancen zu sein, die es ausmachen. Jemand schrub „Schleier wegziehen“: Ja vielleicht. Vielleicht auch „seidiger“. Der Versuch Höreindrücke in Worte zu fassen endet zwangsläufig immer in Quasipoesie. Diesbezüglich bin ich viel gnädiger geworden mit der Testindustrie. Denn die Unterschiede, die blumig umschrieben werden, existieren. Auch wenn am Ende keine völlig neue Welt steht, sondern nur eine allzu bekannte, nämlich dass es völlig natürlich klingt.
 
  • Gefällt mir
Reaktionen: Johanna K
Es steckt unglaublich viel Wissen, Erfahrung, aber auch Einbildung, Überzeugung und Voodoo in diesem Thema. Es gibt Millionen von Stellschrauben, die man als "einfacher" Anwender nur zu einem Bruchteil überhaupt erfassen oder beeinflussen kann. Wichtig ist, dass man sich mit dem Ergebnis persönlich wohl fühlt und sich nicht von dem aus meiner Sicht häufig zu findendem "Geschwätz" irritieren lässt. Ich bin auf soetwas leider selbst oft reingefallen. Zu oft werden Produkte und Lösungen in einer viel zu überschwänglichen Art und Weise in den Himmel gelobt - obwohl der Effekt in den meisten Fällen nur marginal ist. Zudem spielen die Grundvoraussetzungen eine wesentliche Rolle, daher...

...back top topic:
  • Bzgl. der Lautsprecher und dem Verstärker spielen sicherlich Faktoren wie Impedanz (LS und Verstärker) und Wirkungsgrad eine nicht unwesentliche Rolle. Das kann durchaus das Hörerlebnis deutlich verbessern/verschlechtern. Dabei muss es nicht zwangsläufig einen signifikanten Unterschied zwischen den Formaten des Quellmaterials geben.
  • Falls man den Unterschied beim Format sieht: Es ist auch stark abhängig, wie "gut" die Aufnahme im Studio bzw. die Produktion erfolgte. "Hi-Res" heißt hier nämlich per se nicht "besser", sondern stellt eine Chance dar, potentiell mehr Information aus der Musik zu bekommen.
  • Und - weil das Thema hier zwischenzeitlich aufkam - noch kurz bezüglich der Bit-Rate und Sample-Rate: Die Abtastrate (sample rate) ist im Wesentlichen wichtiger als die Bittiefe (bit depth), sofern diese nicht wesentlich unter 16 bit (CD-Standard) liegt. So "schwach" die CD-Werte auch scheinen mögen: 16bit/44kHz sind schon verdammt gut und deckt den Großteil des Hörbaren ab (btw: das menschliche Gehör kann einen Dynamikumfang von 24bit nicht mehr erfassen). Bspw. streamt Spotify Premium in 320 kBit/s OGG Vorbis, was ziemlich nah an einer CD ist. Vermutlich ist der Mehrwert von "lossless" (in Bezug auf CD) bei Spotify daher auch nicht so gegeben. Anders dagegen bei Apple, wo wir von 256kBit AAC sprechen. Hier wird der Unterschied zu einer CD potentiell (!!!) eher hörbar sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laserdirk und thon
Zurück
Oben Unten