V
Veritas
Aktives Mitglied
- Dabei seit
- 26.11.2007
- Beiträge
- 25.111
- Reaktionspunkte
- 9.466
... gibt's nen Windows-Rechner, der 14 bit je Farbkanal anzeigen kann?
Was hat das mit dem Rechner zu tun? GPU -> Monitor.
Folgen Sie dem Video unten, um zu sehen, wie Sie unsere Website als Icon auf Ihrem Homescreen erstellen.
Anmerkung: This feature may not be available in some browsers.
... gibt's nen Windows-Rechner, der 14 bit je Farbkanal anzeigen kann?
Natürlich Nichts. Ok, ich habe das smiley vergessen. Aber der Post auf den ich mich bezog, hat explizit von einem iMac gesprochen und ich habe halt einfach Windows als Kontra-Punkt genommen. Ich hätte, da hast du recht, natürlich auch fragen sollen...Was hat das mit dem Rechner zu tun? GPU -> Monitor.
Nur um das nochmal zu erwähnen – ist Dir vielleicht auch bereits bewusst: Bei Verwendung der "Lossless"-Einstellung (vs. Hi-Res vs. HQ/AAC) in Apple Music beträgt die Samplingrate der Songs aus dem Apple-Music-Katalog höchstens 48kHz. Songs die lediglich in 44.1kHz vorliegen werden nicht resampled (bzw. nur wenn im Audio-Midi Setup eine andere Samplingrate eingestellt ist)Das grundlegende Problem ist eher, welche Musik Audio Produktionen kommen in 24bit mit 48khz?
Die meisten sind halt 16bit/44,1khz.
Wenn du die dann auf 24bit/48khz umrechnen lässt, verbessert das nicht den Klang.
Ich finde grad die Quelle nicht, aber ich meine gelesen zu haben, dass der Resampler von MacOS Messergebnissen zufolge bereits objektiv so gut ist, dass es extrem unwahrscheinlich ist, da subjektiv einen Unterschied beim Downsampling einer höheren Rate auf 44.1kHz feststellen zu können. Der objektiv messbare Unterschied bei verlustbehafteter Kompression am Beispiel von AAC 256kbps vs. PCM sollte da weit größer sein (wenn auch vielleicht trotzdem nicht immer subjektiv wahrnehmbar)Nicht unbedingt, von der Umrechnung kann der Klang verändert werden, das muss nicht besser sein als verlustbehaftete Kompression.
hhhmm, sollte man das nicht mit Audacity selbst mal testen / messen können? Ich meine sowas wie eine CD hochwertig rippen, das in AAC256 kodieren und wieder decodieren und dann aus beiden Dateien in Audacity das Differenzsignal bilden. Ginge sowas? Hier sind doch Audio-Profis unterwegs. Oder leige ich mit dem Gedanken neben der Spur?Der objektiv messbare Unterschied bei verlustbehafteter Kompression am Beispiel von AAC 256kbps vs. PCM sollte da weit größer sein (wenn auch vielleicht trotzdem nicht immer subjektiv wahrnehmbar)
Natürlich Nichts. Ok, ich habe das smiley vergessen. Aber der Post auf den ich mich bezog, hat explizit von einem iMac gesprochen und ich habe halt einfach Windows als Kontra-Punkt genommen. Ich hätte, da hast du recht, natürlich auch fragen sollen...
... gibt's ne Kombination von GPU und Monitor auf Macs oder Windows-Rechnern, die 14 bit je Farbkananl anzeigen kann?
Bin zwar kein Audio-Profi aber, ja, sollte denk ich recht einfach gehen, bzw. solche Experimente findet man auch im Netz. Einige gehen dann soweit und nehmen die in der Regel deutlich hörbaren Störgeräusche die sich aus der bloßen Differenz nach der verlustbehafteten Kompression ergeben (fälschlicherweise) als Beleg für einen hörbaren Unterschied zwischen der komprimierten und der Originalversion. So einfach kann man es sich natürlich nicht machen.hhhmm, sollte man das nicht mit Audacity selbst mal testen / messen können? Ich meine sowas wie eine CD hochwertig rippen, das in AAC256 kodieren und wieder decodieren und dann aus beiden Dateien in Audacity das Differenzsignal bilden. Ginge sowas? Hier sind doch Audio-Profis unterwegs. Oder leige ich mit dem Gedanken neben der Spur?
Schrob ich auch nirgends.... gibt's ne Kombination von GPU und Monitor auf Macs oder Windows-Rechnern, die 14 bit je Farbkananl anzeigen kann?
Du hast eher ironisch auf einen ironischen Post antworten wollenJa, ist mir bekannt.
Ich wollte, wie gesagt, eine ironische Antwort auf den Post geben, da 14bit je Kanal nicht durchgehend zur Zeit ausgegeben werden, weder auf iMacs, anderen Macs oder Windowsrechnern. Diese Ironie hat halt nicht funktioniert.
Die Musik wird gepuffert auf dem Weg vom Medienserver (z. B. Spotify im Internet oder Plex auf dem NAS) zum Medienabspieler. Sie wird aber nicht gepuffert auf dem Weg vom Medienabspieler zum Ausgabegerät. Wenn du z. B. auf deinem Mac Lieder hörst, die von Plex bereitgestellt werden, dann puffert dein Musikplayer auf dem Mac die Daten zwischen. Er gibt die Daten aber ohne nennenswerte weitere Pufferung an die Lautsprecher weiter (was nicht stört, da über Kabel).Dei Musik wird doch gepuffert, da bleibt genug Zeit zum Nachfordern. PLEX puffert doch auch, bei roon geht es auch im WLAN.
Ich verwechsle da nichts, aber da werden in der Tat (von Google, Apple, Sony, Metz, etc.) zwei verschiedene Techniken unter demselben Begriff "Streamen" zusammengefasst. Wenn ich z. B. an meinem Fernseher die Funktion "Youtube vom Smartphone auf den Fernseher streamen" aufrufe, dann streamt das Smartphone gar nichts, sondern teilt dem Fernseher nur die YT-Adresse mit und der lädt sich den Film direkt ohne Umweg über das Smartphone. Trotzdem nennt der Hersteller dies "Streamen".Ich fürchte du verwechselt hier Äpfel mit Birnen.
Grundsätzlich hat das nichts mit dem Streaming-Protokoll oder der Frage ob es da was besseres geben könnte zu tun.
Wie du schreibst gibt es Streamingboxen die das iPhone quasi nur als Fernbedienung benutzen -
Bluetooth war beim Empfänger ausgeschaltet.Ich bin kein Android-Benutzer, aber ich wage mal zu behaupten, das dein Android Telefon möglicherweise nur via Bluetooth an den Chromecast gestreamt hat
Nach den letzten Tagen weiß ich gar nicht mehr, was man da erwarten kann. Ich habe festgestellt, dass auf der identischen Hardware Mac OS/X besser klingt als Linux. (MB mit OS/X und alternativ mit Linux gebootet. Der Klang hing nur vom BS ab, nicht von der Abspielsoftware.)Wobei: Man könnte denselben DA-Wandler auch ans iPhone anschließen, da müsste man im Test ja dieselben Ergebnisse erzielen wie beim Mac…
Das Nyquist-Shannon-Theorem ist ein mathematisches Theorem, welches von unendlich definierten periodischen Funktionen und mathematisch exakten Messwerten und exakter Rückumwandlung ausgeht.Dann kannst du ja wohl erklären, warum das mit der Nyquist-Frequenz nicht stimmt
dafür aber regelmäßig Tiefpassfilter bei der DA-WandlungIn der Praxis haben wir beides nicht.
Praktischerweise können auch nicht-periodische Funktionen durch eine Überlagerung periodischer Funktionen dargestellt werden. Da reale Systeme (von Instrumenten über Lautsprecher bis zu unseren Ohren) immer bandbegrenzt sind, resultiert daraus keine praktisch relevante Einschränkung des Nyquist-Theorems. Bei den Auflösungen heutiger (guter) AD- und DA-Wandler kann man diese ebenfalls aus der Gleichung nehmen. Am Ende das Tages ist die einzig relevante Frage daher, ob die Grenzfrequenz der beteiligten Anti-Aliasing- und Rekonstruktionsfilter über oder unter der wahrnehmbaren Höchstfrequenz des Hörers liegt, natürlich unter Berücksichtigung der jeweiligen Audio-Ausstattung. Darunter ist das Nyquist-Theorem auch in der Praxis korrekt.Das Nyquist-Shannon-Theorem ist ein mathematisches Theorem, welches von unendlich definierten periodischen Funktionen und mathematisch exakten Messwerten und exakter Rückumwandlung ausgeht.
In der Praxis haben wir beides nicht.