Klage gegen Apples und Sonys Online-Musikshops

Pingu schrieb:
Übrigens auch Apple könnte auf den falschen Trend setzen. Beispiel H.264: Steve hat auf der letzten MacWorld so schön gesagt: Egal welches Format sich durchsetzt (BlueRay oder HD-DVD) Apple ist mit H.264 auf jeden Fall dabei. Ich habe die Tagen einen netten Bericht gesehen, daß ein Deutscher ein komplett neues Verfahren zur Videokompression entwickelt hat. Qualitativ wesentlich hochwertiger als alles andere was z. Zt. existiert bei wesentlich höheren Kompressionsraten (Faktor mind. 40; ein Qualitativ sehr hochwertiger Pampas-Spot (besser als SVHS) war auf 1,5 MB komprimiert). Wenn das Verfahren wirklich hält was es verspricht, könnte es die ganze Industrie revolutionieren. Nur dann hat Apple auf das falsche Pferd gesetzt.

Was ich nur sagen will: Man sollte nicht alles immer durch die rosarote Brille sehen und lieber versuchen das ganze mit etwas gebührendem Abstand und dafür objektiver verfolgen.
Die Doku habe ich auch gesehen, und ich sehe das genauso. Das war schon ziemlich beeindruckend. Fast schon zu schön um wahr zu sein, ich bin gespannt was man als nächstes davon hört. Wenn das Format kommt, haben natürlich wirklich allerlei Leute auf das falsche Pferd gesetzt, und im Moment allen voran Apple. Aber soll man jetzt auf ein revolutionäres Format verzichten, nur weil es nicht von unserer Lieblingsfirma kommt? ;)
 
Hat jemand einen Link mit weiteren Information über dieses neue Verfahren?
 
Es setzt sich häufig nicht das bessere Format durch, sondern das, was sich am schnellsten verbreitet und hinter dem am meisten Kapital steckt.
Nur ein Beispiel: VHS hat sich gegen Beta und Video2000 durchgesetzt.
Ich tippe auf BluRay, aufgrund der beteiligten Unternehmen.
 
Dogio schrieb:
Ein Händler muss zwei Jahre Gewährleistung geben. Soviel ich weiß hat das auch nichts mit der einjährigen Garantiezeit zu tun.

irgendwo § 433 BGB ff.

Dann mach das mal Apple klar, ich hab das Teil direkt im Apple Store gekauft. Sie weigern sich aber die Gewährleistung zu übernehmen. Und nun? Klagen, durchs Telefon springen oder was?
Ich überleg mir jetzt einen Neukauf genau.
 
Das Problem bei der Gewährleistung ist, dass du dem Hersteller nachweisen musst, dass es ein schleichender Defekt ist. D.h., dass er bei Auslieferung schon vorhanden war. Und das ist sehr schwer nachzuweisen, für den Normalverbraucher gar unmöglich!
 
Hat jemand einen Link mit weiteren Information über dieses neue Verfahren?
http://www.stohl.de/sunlog/entry.php?id=00543

Edit: http://www.3sat.de/3sat.php?http://www.3sat.de/neues/sendungen/spezial/75628/

Es setzt sich häufig nicht das bessere Format durch, sondern das, was sich am schnellsten verbreitet und hinter dem am meisten Kapital steckt.
Nur ein Beispiel: VHS hat sich gegen Beta und Video2000 durchgesetzt.
Ich tippe auf BluRay, aufgrund der beteiligten Unternehmen.
Vermutlich. Man könnte dem Ganzen natürlich immer noch wie DivX über das Internet zu soviel Verbreitung verhelfen, dass die großen Firmen irgendwann folgen müssen. Letztenendes scheint das Format ja wirklich überwältigend besser zu sein.
 
Zuletzt bearbeitet von einem Moderator:
Dogio schrieb:
Ein Händler muss zwei Jahre Gewährleistung geben. Soviel ich weiß hat das auch nichts mit der einjährigen Garantiezeit zu tun.
Ach Mensch die Diskussion gab es nun doch schon sooooo oft.
Ich sage nur: Viel Spaß beim Nachweis, daß der Fehler schon zum Zeitpunkt der Übergabe vorhanden war. Denn genau das ist Gewährleistung. :rolleyes:

Dogio schrieb:
Es setzt sich häufig nicht das bessere Format durch, sondern das, was sich am schnellsten verbreitet und hinter dem am meisten Kapital steckt.
Nur ein Beispiel: VHS hat sich gegen Beta und Video2000 durchgesetzt.
Das ist zwar richtig. Jedoch ist der Kompressionsfaktor eine nicht zu unterschätzende Größe, insbesondere wenn ich an zukünftige on-demand-Anwendungen denke (Online-DVD-Videothek, vielleicht noch fürs Handy, Live-Übertragungen fürs Handy, ...). Genau da spielt das neue Verfahren eben seine Möglichkeiten aus. Wenn ich eben mit dem selben Speicherplatz 40x-mehr Videos vorrätig halten kann. Wenn mein Nutzer 40x-weniger Übertragungsvolumen und damit Kosten haben. Das sind harte Fakten, die einfach nicht zu unterschätzen sind. Die bei VHS/Beta/V2000 so nicht vorhanden waren.


Pingu
 
Dankeschön für den Link! :)
 
Pingu schrieb:
Ach Mensch die Diskussion gab es nun doch schon sooooo oft.
Ich sage nur: Viel Spaß beim Nachweis, daß der Fehler schon zum Zeitpunkt der Übergabe vorhanden war. Denn genau das ist Gewährleistung. :rolleyes:


Das ist zwar richtig. Jedoch ist der Kompressionsfaktor eine nicht zu unterschätzende Größe, insbesondere wenn ich an zukünftige on-demand-Anwendungen denke (Online-DVD-Videothek, vielleicht noch fürs Handy, Live-Übertragungen fürs Handy, ...). Genau da spielt das neue Verfahren eben seine Möglichkeiten aus. Wenn ich eben mit dem selben Speicherplatz 40x-mehr Videos vorrätig halten kann. Wenn mein Nutzer 40x-weniger Übertragungsvolumen und damit Kosten haben. Das sind harte Fakten, die einfach nicht zu unterschätzen sind. Die bei VHS/Beta/V2000 so nicht vorhanden waren.


Pingu

Ich bin der Überzeugung, dass Speicherplatz und Bandbreiten von Medien in Zukunft nicht mehr die Bedeutung haben wie heute.
Bei dem Speicherplatz, den Festplatten-MP3_player heute bieten, kann ich überlegen, ob ich nicht meine Musik wieder als Wave speichere.
Festplaten sind bald in Terrabyte verfügbar DSL4000 gibt zu günstigen Preisen. Nur Kompression wird nicht der Königsweg sein.
 
Dogio schrieb:
Ich bin der Überzeugung, dass Speicherplatz und Bandbreiten von Medien in Zukunft nicht mehr die Bedeutung haben wie heute.
Bei dem Speicherplatz, den Festplatten-MP3_player heute bieten, kann ich überlegen, ob ich nicht meine Musik wieder als Wave speichere.
Festplaten sind bald in Terrabyte verfügbar DSL4000 gibt zu günstigen Preisen. Nur Kompression wird nicht der Königsweg sein.

Du hast das ja schon sehr stark eingeschränkt, sicher, Festplatten im Terabytebereich sind kein Problem. DSL4000 ist dagegen arschteuer, die Telekom hat nichtmal ein vergleichbares Produkt...

Und jetzt guck Dir mal an wie lang das schon dauert einen Film zu ziehen, und welche Qualität der dann hat. Es entwickelt sich nämlich nicht nur die Speichertechnik, sondern auch die Darstellungstechnik. Wir Menschen können nicht übermäßig gut hören wenn man mit den Augen vergleicht. Heimkino in 16000x9000-Format am Beamer? Lach in zehn Jahren nochmal drüber, wenn's das dann nicht gibt... dann brauchst Du aber auch eine 300-mal schnellere Leitung und 300-mal soviel Plattenplatz für Filme. Musik kauft man ja heute schon online. In zehn Jahren bestimmt auch Filme.
 
DSL4000 kostet bei EWE TEL 19 Euro im Monat, sauteuer? nun wirklich nicht.
Bei Freent gibts DSL3000 auch für knapp über 20 Euro.

Filme runterladen dauert lange, aber bei der Online-Videothek gehts ja hauptsächlich ums streaming.

Außerdem wenn man das hier so im Forum verfolgt, dass manche meinen ihre Musik in 192 ider far 320 kbit/s zu encodieren, bwzeufke ich, dass sie sich mit einem 40fachen Kompression bei Video zufrieden geben, da heißt es dann:"das Rot ist aber nicht das Rot, wie es sonst aussieht."
 
Alles Vermutungen. Wir haben den neuen Codec alle noch nicht mit eigenen Augen gesehen, also können wir uns voreilige Urteile bezüglich der Qualität ja wohl sparen :rolleyes:

Ich kann Dannycool aber eigentlich nur zustimmen... Es ist falsch, die Datenkomprimierung völlig außer acht zu lassen, nur weil Datentransfer und Datenspeicher immer preiswerter werden. H.264 braucht bei einem abendfüllenden Movie immerhin 7 GB und mehr, und bei einer Datenrate von 8Mbit/s kommt man auch mit DSL4000 nicht weit.

Natürlich werden Festplatten immer größer und immer preiswerter, und natürlich werden Breitbandanschlüsse immer schneller und günstiger, aber dass Videos bei (annähernd?) gleichwertiger Qualität vierzig mal kleiner sein können ist doch definitiv verlockend. Hätte Apple das Verfahren lizensiert, wären sicherlich alle aufgesprungen und hätten lauthals gejubelt. Warum da also jetzt wieder ein Glaubenskrieg vom Zaun brechen muss, ist völlig unverständlich. Warten wir's doch ab ...
 
Dogio schrieb:
DSL4000 kostet bei EWE TEL 19 Euro im Monat, sauteuer? nun wirklich nicht.

Das ist ein regionaler Provider, Glück für die die dort leben. Ich kann hier schon auch ADSL mit 4 Megabit bekommen, aber das ist hier eben sehr teuer. Dafür kann ich hier aber auch Kabel-Flatrate mit zehn Megabit bekommen (Kabel BW), das ist natürlich auch teuer, aber für die Leistung ist der Preis schon wieder okay. Tatsächlich habe ich TDSL 3000, aber einen Volumentarif. Ich brauche nämlich bei meinen Gewohnheiten nicht viel Volumen, sondern Bandbreite...

Mir ging es auch nicht ums Herunterladen von Filmen, es gibt alles mögliche was man sich gerne herunterladen wollen wird. Spinnen wir das ganze mal weiter: Vielleicht erfindet mal einer einen Replikator, dann lade ich mir das Essen runter :D

Außerdem wenn man das hier so im Forum verfolgt, dass manche meinen ihre Musik in 192 ider far 320 kbit/s zu encodieren, bwzeufke ich, dass sie sich mit einem 40fachen Kompression bei Video zufrieden geben, da heißt es dann:"das Rot ist aber nicht das Rot, wie es sonst aussieht."

Okay, weiss ich nicht, ich gehöre der altmodischen Gruppe an die sich noch an ihre tragbaren Walkmans erinnert und mit "ganz normalem mp3/ogg das cdmp3/cdogg halt automatisch aussucht wenn man nichts eingibt" zufrieden sind. ;)
 
dannycool schrieb:
Es entwickelt sich nämlich nicht nur die Speichertechnik, sondern auch die Darstellungstechnik. Wir Menschen können nicht übermäßig gut hören wenn man mit den Augen vergleicht.

Das ist genau umgekehrt. Die Differenzierungsfähigkeit des menschlichen Gehörs ist um ein vielfaches höher als die seines Sehsinnes!!
Dies wird in unserer stark visuell orientierten Welt zu oft vergessen.

Im Audiobereich findet die Entwicklung bei der Produktion auf der Auflösungsebene (Bittiefe und Abtastrate) und im Vertrieb/Verkauf auch auf der Kompressionsebene statt.

Der Mensch strebt immer nach Optimierung (gerade bei Dingen, die Spaß machen). VHS war so lange erträglich, wie es nichts anderes für Normaluser gab. Wer sich im DVD Zeitalter gerne rauschige Bilder mit mittelmäßigem Ton ansieht, dem kann auch jetzt schon effektiv komprimiert geholfen werden. :p

Ansonsten ist ALC schon gar nicht schlecht. Reduzierung der Datenmenge um 40% bei Losless...Na klar, 4% wären natürlich viel besser... :D
 
cky schrieb:
Das ist genau umgekehrt. Die Differenzierungsfähigkeit des menschlichen Gehörs ist um ein vielfaches höher als die seines Sehsinnes!!
Dies wird in unserer stark visuell orientierten Welt zu oft vergessen.

Nein, es ist nicht umgekehrt. Die Auflösung=Differenzierungsfähigkeit ist beim Hören größer. Das hat aber nichts damit zu tun welches Datenaufkommen die Ohren verarbeiten können. Tatsächlich können die Augen Daten mit einer um mindestens zwei Größenordnungen höheren Bandbreite ans Gehirn liefern. Visualisierung: Die Ohren können genau zwei Stereokanäle wahrnehmen. Die Augen können dagegen definitiv mehr als zwei Bildpunkte gleichzeitig sehen. Die Ohren kann ich auch nicht einstellen. Den Augen kann ich sagen, hey, Jungs, guckt Euch mal die Kleine links oben im Bild näher an. Das alles führt dazu dass wir für Videoaufzeichnungen noch riesige Datenmengen brauchen werden. Dazu kommen auch noch Features wie eine selbst wählbare Kameraperspektive die Premiere ja auch verkauft und andere Dinge, die nichtmal mehr direkt mit dem biologischen Aufbau unserer Sinnesorgane zu tun haben... die machen alle für Video mehr Overhead als für Audio.
 
Ich find diese proprietäre iTunes-ITMS-iPod-Schiene ehrlich gesagt kacke. Dass andere das genauso machen, mag eine Erklärung aber keine Rechtfertigung sein.
Das ist M$-Politik ;).
 
dannycool schrieb:
Nein, es ist nicht umgekehrt. Die Auflösung=Differenzierungsfähigkeit ist beim Hören größer. Das hat aber nichts damit zu tun welches Datenaufkommen die Ohren verarbeiten können.Tatsächlich können die Augen Daten mit einer um mindestens zwei Größenordnungen höheren Bandbreite ans Gehirn liefern.

Weder Ohren noch Augen verarbeiten Daten. Beide nehmen Schwingungen wahr. In welcher Fülle, läßt sich woh kaum mit der Computertechnik vergleichen.

dannycool schrieb:
Visualisierung: Die Ohren können genau zwei Stereokanäle wahrnehmen. Die Augen können dagegen definitiv mehr als zwei Bildpunkte gleichzeitig sehen. Die Ohren kann ich auch nicht einstellen. Den Augen kann ich sagen, hey, Jungs, guckt Euch mal die Kleine links oben im Bild näher an.

Quark: Du kannst hinsehen und hinhören und Du kannst die Straßenbahn von hinten hören, bevor sie Dich überfährt. Zu dumm, gesehen hättest Du sie, wenn Du Dich umgedreht hättest. Ich höre Dinge, die ich gerade nicht sehen kann.
Außerdem: Ein Stereokanal enthält mehr Informationen als vergleichbar 2 Bildpunkte. 2 Bildpunkte, z.B. ein roter und ein weißer, hinterlassen beim Betrachter die Information von einem weißen und einem roten Punkt, nicht mehr. Ein Stereokanal spielt "mehr als die halbe Musik" ab. Vielleicht sind nicht alle Instrumente zu hören, aber ich kann schon unterscheiden, ob es Mozart oder Britney Spears ist.

Ich kann auch sagen, hey Mädels, hört euch die kleine leise Triangel links außen an.

Und was ist mit Surround??

Was meinst Du mit einstellen? Wie stellst Du Deine Augen ein?

Die Darstellung von Bildern ist technisch aufwendiger und verursacht größere Datenmengen, das ist richtig. Das heißt aber nicht, daß das Auge mehr Datenmengen verarbeiten kann. Was ist denn da Dein Maßstab?? Wenn Bilder zukünftig nur noch ein Drittel an daten brauchen, sinkt dann auch die "Bandbreite", die Deine Augen wahrnehmen können?
 
Lol, zählt doch bitte einfach die Rezeptoren, dann wisst ihr ja, wer recht hat. Wenn man nicht über Windows oder Apple diskutieren kann, diskutiert man einfach über die Qualität akustischer und optischer Wahrnehmung?!

Wie auch immer: Auch wenn es schon stimmt, dass das Gehör ebenfalls sehr differenziert wahrnehmen kann, zweifle ich dennoch daran, dass es mehr Informationen verarbeitet als der Sehsinn. Das Sehen verbraucht ohnehin deutlich mehr Ressourcen als das Hören, 30 bis 40% des Gehirns sind soweit ich weiß direkt an der Verarbeitung der Bildinformation beteiligt.
 
cky schrieb:
Weder Ohren noch Augen verarbeiten Daten. Beide nehmen Schwingungen wahr. In welcher Fülle, läßt sich woh kaum mit der Computertechnik vergleichen.

Auch die Computertechnik arbeitet mit Schwingungen, und auch für Ohren und Augen kann man eine Bandbreite berechnen... und die Fülle lässt sich durchaus vergleichen, wir wissen z.B. ziemlich genau, wieviele Farben ein Bildschirm unterschiedlich darstellen können muss, damit die Augen den Unterschied zwischen zwei nah beieinander liegenden nicht mehr wahrnehmen können. Was meinst Du denn warum wir seit zwanzig Jahren Grafikhardware haben die immernoch mit 24 Bit Farbtiefe = ca 16 Millionen unterschiedlichen darstellbaren Farben arbeitet?

Quark: Du kannst hinsehen und hinhören und Du kannst die Straßenbahn von hinten hören, bevor sie Dich überfährt.

Das ist kein vernünftiger Vergleich. Ich kann natürlich ein Geräusch aus der Umgebung hören egal wie ich gedreht bin, ich kann aber auch Umgebungslicht sehen egal wie ich gedreht bin. Im Dunkeln kann ich auch die Strassenbahn hinter mir sehen: Dann leuchtet sie nämlich heller als ich die Sonne wahrnehmen kann, wenn die hinter dem Planeten steckt. Umgekehrt höre ich die Straßenbahn garantiert überhaupt nicht, wenn ich mich in einer Disco aufhalte, denn dort ist das Hintergrundrauschen (manche nennen es Musik) vergleichbar laut, eher ein wenig leiser als das Sonnenlicht am Tag im Freien.

Zu dumm, gesehen hättest Du sie, wenn Du Dich umgedreht hättest. Ich höre Dinge, die ich gerade nicht sehen kann.

Du kannst auch Dinge sehen die Du gerade nicht hören kannst, z.B. die Strassenbahn vor Dir in genügend großer Entfernung. Du kannst im Dunklen das Licht einer Kerze z.B. noch auf mehrere Kilometer Entfernung wahrnehmen, eine Straßenbahn leuchtet aber viel heller als eine Kerze. Hören kannst Du sie dagegen nur bei maximal ein paar hundert Metern Entfernung.

Außerdem: Ein Stereokanal enthält mehr Informationen als vergleichbar 2 Bildpunkte. 2 Bildpunkte, z.B. ein roter und ein weißer, hinterlassen beim Betrachter die Information von einem weißen und einem roten Punkt, nicht mehr.

Die Information wird doch nicht als "rot" und "weiss" wahrgenommen, sondern als eine bestimmte Wellenlänge und eine Helligkeit. Bloss weil Du Bilder hast die nur einen Rotton und einen Weisston haben heisst das nicht, dass Dein Auge nicht genau sieht, welcher es davon ist. Wenn Du schon so vergleichst, musst Du schon auch einen Synthesizer nehmen der genau zwei Schwingungen erzeugt. Und wenn die dann gleichzeitig vorhanden sind kannst Du sie eben nicht mehr immer auseinander halten, zwei verschiedene räumlich getrennte Punkte jedoch auf jeden Fall!

Die meisten Leute haben übrigens auch *kein* absolutes Gehör. Aber fast jeder - bis auf Farbenblinde - kann beim Hinsehen sofort die Farbe sagen.

Ein Stereokanal spielt "mehr als die halbe Musik" ab. Vielleicht sind nicht alle Instrumente zu hören, aber ich kann schon unterscheiden, ob es Mozart oder Britney Spears ist.

Ich kann auch sagen, hey Mädels, hört euch die kleine leise Triangel links außen an.

Und was ist mit Surround??

Du hast zwei Sensoren und ein Signal. Daraus kannst Du *immer* per Triangulation den Winkel ermitteln aus dem das Signal kommt, da die beiden Sensoren es verschieden stark wahrnehmen und Du aber weisst dass es in Wirklichkeit die selbe Intensität haben muss, da es von genau einer Quelle kommt. Das erklärt das "links aussen". Übrigens kannst Du *nicht* unterscheiden, ob eine Tonquelle genau vor oder genau hinter Dir ist, wenn Du exakt auf einer Linie mit ihr stehst! Diese Information ergänzt Dein Gehirn aus anderen Quellen, z.B. wenn Du weisst, dass der Erzeuger hinter Dir ist. Die Straßenbahn hörst Du auch nur genau von hinten, weil Du sehr selten exakt auf der selben Linie läufst.

Vielleicht ist Dir mal aufgefallen dass, wenn Du Kopfhörer auf hast, die Gesangsstimme oft in der Mitte Deines Kopfes erklingt. Daran wird das deutlich: Die Stimme wird bei Stereoaufnahmen üblicherweise auf beide Kanäle gleich stark gelegt, und für diese Gleichung gibt es nur eine Lösung: Die Quelle ist zwischen Deinen Ohren. Den selben Effekt kannst Du erreichen wenn Du Dich sehr genau in der Mitte vor Deine Lautsprecher setzt.

Surroundsound ist im Prinzip eine Simulation. Da Du Dich nämlich nicht so einfach direkt in die Mitte setzen kannst - ist relativ schwer zu ermitteln - stellt man zusätzliche Lautsprecher auf und spielt Signale über einen hinter Dir ab, wenn etwas nach hinter Dir klingen soll. Das ist unendlich einfacher als Dir zu erklären wie Du Dich hinsetzen musst. Theoretisch wäre der Effekt aber machbar.

Wenn Du unterschiedliche Entfernungen zu Stereolautsprechern ausgleichen willst, kannst Du das übrigens an jedem Gerät mit der Balance-Einstellung. Dabei setzt Du Dich ganz normal hin und gibst das selbe Sinussignal auf beide Lautsprecher. Dann schiebst Du den Balanceregler solange rum, bis Du nicht mehr sagen kannst, ob der linke oder der rechte Lautsprecher lauter ist.

Was meinst Du mit einstellen? Wie stellst Du Deine Augen ein?

Es heisst Focus, und ja, Du kannst das bewusst machen. Normalerweise folgt der Focus automatisch allem was Dich interessiert, aber mit etwas Übung kannst Du auch manuell fokussieren. Dabei zieht ein Ringmuskel hinter Deiner Regenbogenhaut an der Linse und flacht sie ab, wodurch Du auf die ferner liegenden Objekte scharf stellst. Entsprechend kann der Muskel auch aufhören zu ziehen, dann siehst Du nahe Gegenstände scharf. Mit dem Alter lässt dieser Muskel nach, deshalb werden Menschen mit dem Alter oft kurzsichtig, und müssen eine hübsch eingerahmte Linse vor das Auge klemmen...

Das andere ist die Einstellung der Iris selbst, die als Blende fungiert. So können wir z.B. die Intensität mit der das Licht auf die Netzhaut fällt einschränken. Bei Nacht zieht Dein Auge die Regenbogenhaut auf, wodurch mehr Licht einfallen kann, deshalb können wir im Dunkeln nach einer Gewöhnungszeit immernoch Gegenstände erkennen: Mehr Licht heisst, die Reizschwelle wird schneller überschritten. Wenn Du in eine helle Lampe siehst (nicht probieren bitte, ist auf Dauer schädlich) passiert das Gegenteil. Das Auge schliesst die Blende und skaliert sozusagen das Signal nach unten. Bevor das geschieht sehen wir helle Objekte völlig übersteuert. Mach sowas mal mit den Ohren - die meisten Menschen müssen die sich zuhalten wenn ihnen etwas zu laut ist. Allerdings passt Dein Gehirn mit der Zeit an, wie Laut Du einen Ton bewusst wahrnimmst, wenn Du über lange Zeit einer großen Lautstärke ausgesetzt bist. Das Ohr kann das aber nicht selbst tun.

Wir können übrigens auch nur Frequenzen bis ca 20 Kilohertz hören. Allerdings bei weitem nicht mit der selben Lautstärke! Es gibt da auch noch was lustiges zum selber Probieren: Stell bei einem Synthesizer einen konstanten Sinuston mit einer festen Frequenz ein. Dann erzeuge einen zweiten Sinuston dessen Frequenz Du bei gleicher Amplitude langsam erhöhst. Du wirst feststellen, dass Du diesen Ton viel deutlicher hörst, je näher er an Deinem ersten Ton liegt!

Was es noch gibt sind die sogen. kritischen Bänder. Wenn wir einen Ton aus einem kritischen Band wahrnehmen, können wir aus dem selben Band keinen zweiten Ton unterscheiden. Wir nehmen die beiden Töne als einen reinen Ton wahr. So toll sind die Ohren also auch wieder nicht.

Die Darstellung von Bildern ist technisch aufwendiger und verursacht größere Datenmengen, das ist richtig. Das heißt aber nicht, daß das Auge mehr Datenmengen verarbeiten kann. Was ist denn da Dein Maßstab??

Die Bandbreite die gemessen werden kann, wenn man in einem Test feststellt, wieviel die entsprechenden Sinne gleichzeitig noch auseinanderhalten können. Dabei wird der Sinn mit immer mehr Signalen gefüttert und gemessen, welches Datenaufkommen dadurch entsteht. Die Augen halten hier länger durch, schon alleine, weil sie viele viele verschiedene Punkte gleichzeitig unterscheiden können.

Wenn Bilder zukünftig nur noch ein Drittel an daten brauchen, sinkt dann auch die "Bandbreite", die Deine Augen wahrnehmen können?

Wenn ich mir komprimierte Binärdaten mit einer blinkenden LED anschaue, dann *bekommt mein Auge Signale mit einer geringeren Bandbreite*, aber das heisst nicht, dass es nicht immernoch die selbe Leistung bringen kann. Das ist wie Dein Vergleich mit dem roten und dem weissen Punkt. Videos werden komprimiert indem man z.B. Flächen in ähnlicher Farbe gleich einfärbt, oder nur Änderungen kodiert. Deine Augen arbeiten aber nicht auf Basis von Änderungen. Auch wenn Dein Rechner weiss dass sich ein großer roter Kreis nie ändert nehmen Deine Augen ihn immer neu wahr.


Ich hoffe ich habe das alles halbwegs verständlich dargestellt...
 
Zurück
Oben Unten