cky schrieb:
Weder Ohren noch Augen verarbeiten Daten. Beide nehmen Schwingungen wahr. In welcher Fülle, läßt sich woh kaum mit der Computertechnik vergleichen.
Auch die Computertechnik arbeitet mit Schwingungen, und auch für Ohren und Augen kann man eine Bandbreite berechnen... und die Fülle lässt sich durchaus vergleichen, wir wissen z.B. ziemlich genau, wieviele Farben ein Bildschirm unterschiedlich darstellen können muss, damit die Augen den Unterschied zwischen zwei nah beieinander liegenden nicht mehr wahrnehmen können. Was meinst Du denn warum wir seit zwanzig Jahren Grafikhardware haben die immernoch mit 24 Bit Farbtiefe = ca 16 Millionen unterschiedlichen darstellbaren Farben arbeitet?
Quark: Du kannst hinsehen und hinhören und Du kannst die Straßenbahn von hinten hören, bevor sie Dich überfährt.
Das ist kein vernünftiger Vergleich. Ich kann natürlich ein Geräusch aus der Umgebung hören egal wie ich gedreht bin, ich kann aber auch Umgebungslicht sehen egal wie ich gedreht bin. Im Dunkeln kann ich auch die Strassenbahn hinter mir sehen: Dann leuchtet sie nämlich heller als ich die Sonne wahrnehmen kann, wenn die hinter dem Planeten steckt. Umgekehrt höre ich die Straßenbahn garantiert überhaupt nicht, wenn ich mich in einer Disco aufhalte, denn dort ist das Hintergrundrauschen (manche nennen es Musik) vergleichbar laut, eher ein wenig leiser als das Sonnenlicht am Tag im Freien.
Zu dumm, gesehen hättest Du sie, wenn Du Dich umgedreht hättest. Ich höre Dinge, die ich gerade nicht sehen kann.
Du kannst auch Dinge sehen die Du gerade nicht hören kannst, z.B. die Strassenbahn vor Dir in genügend großer Entfernung. Du kannst im Dunklen das Licht einer Kerze z.B. noch auf mehrere Kilometer Entfernung wahrnehmen, eine Straßenbahn leuchtet aber viel heller als eine Kerze. Hören kannst Du sie dagegen nur bei maximal ein paar hundert Metern Entfernung.
Außerdem: Ein Stereokanal enthält mehr Informationen als vergleichbar 2 Bildpunkte. 2 Bildpunkte, z.B. ein roter und ein weißer, hinterlassen beim Betrachter die Information von einem weißen und einem roten Punkt, nicht mehr.
Die Information wird doch nicht als "rot" und "weiss" wahrgenommen, sondern als eine bestimmte Wellenlänge und eine Helligkeit. Bloss weil Du Bilder hast die nur einen Rotton und einen Weisston haben heisst das nicht, dass Dein Auge nicht genau sieht, welcher es davon ist. Wenn Du schon so vergleichst, musst Du schon auch einen Synthesizer nehmen der genau zwei Schwingungen erzeugt. Und wenn die dann gleichzeitig vorhanden sind kannst Du sie eben nicht mehr immer auseinander halten, zwei verschiedene räumlich getrennte Punkte jedoch auf jeden Fall!
Die meisten Leute haben übrigens auch *kein* absolutes Gehör. Aber fast jeder - bis auf Farbenblinde - kann beim Hinsehen sofort die Farbe sagen.
Ein Stereokanal spielt "mehr als die halbe Musik" ab. Vielleicht sind nicht alle Instrumente zu hören, aber ich kann schon unterscheiden, ob es Mozart oder Britney Spears ist.
Ich kann auch sagen, hey Mädels, hört euch die kleine leise Triangel links außen an.
Und was ist mit Surround??
Du hast zwei Sensoren und ein Signal. Daraus kannst Du *immer* per Triangulation den Winkel ermitteln aus dem das Signal kommt, da die beiden Sensoren es verschieden stark wahrnehmen und Du aber weisst dass es in Wirklichkeit die selbe Intensität haben muss, da es von genau einer Quelle kommt. Das erklärt das "links aussen". Übrigens kannst Du *nicht* unterscheiden, ob eine Tonquelle genau vor oder genau hinter Dir ist, wenn Du exakt auf einer Linie mit ihr stehst! Diese Information ergänzt Dein Gehirn aus anderen Quellen, z.B. wenn Du weisst, dass der Erzeuger hinter Dir ist. Die Straßenbahn hörst Du auch nur genau von hinten, weil Du sehr selten exakt auf der selben Linie läufst.
Vielleicht ist Dir mal aufgefallen dass, wenn Du Kopfhörer auf hast, die Gesangsstimme oft in der Mitte Deines Kopfes erklingt. Daran wird das deutlich: Die Stimme wird bei Stereoaufnahmen üblicherweise auf beide Kanäle gleich stark gelegt, und für diese Gleichung gibt es nur eine Lösung: Die Quelle ist zwischen Deinen Ohren. Den selben Effekt kannst Du erreichen wenn Du Dich sehr genau in der Mitte vor Deine Lautsprecher setzt.
Surroundsound ist im Prinzip eine Simulation. Da Du Dich nämlich nicht so einfach direkt in die Mitte setzen kannst - ist relativ schwer zu ermitteln - stellt man zusätzliche Lautsprecher auf und spielt Signale über einen hinter Dir ab, wenn etwas nach hinter Dir klingen soll. Das ist unendlich einfacher als Dir zu erklären wie Du Dich hinsetzen musst. Theoretisch wäre der Effekt aber machbar.
Wenn Du unterschiedliche Entfernungen zu Stereolautsprechern ausgleichen willst, kannst Du das übrigens an jedem Gerät mit der Balance-Einstellung. Dabei setzt Du Dich ganz normal hin und gibst das selbe Sinussignal auf beide Lautsprecher. Dann schiebst Du den Balanceregler solange rum, bis Du nicht mehr sagen kannst, ob der linke oder der rechte Lautsprecher lauter ist.
Was meinst Du mit einstellen? Wie stellst Du Deine Augen ein?
Es heisst Focus, und ja, Du kannst das bewusst machen. Normalerweise folgt der Focus automatisch allem was Dich interessiert, aber mit etwas Übung kannst Du auch manuell fokussieren. Dabei zieht ein Ringmuskel hinter Deiner Regenbogenhaut an der Linse und flacht sie ab, wodurch Du auf die ferner liegenden Objekte scharf stellst. Entsprechend kann der Muskel auch aufhören zu ziehen, dann siehst Du nahe Gegenstände scharf. Mit dem Alter lässt dieser Muskel nach, deshalb werden Menschen mit dem Alter oft kurzsichtig, und müssen eine hübsch eingerahmte Linse vor das Auge klemmen...
Das andere ist die Einstellung der Iris selbst, die als Blende fungiert. So können wir z.B. die Intensität mit der das Licht auf die Netzhaut fällt einschränken. Bei Nacht zieht Dein Auge die Regenbogenhaut auf, wodurch mehr Licht einfallen kann, deshalb können wir im Dunkeln nach einer Gewöhnungszeit immernoch Gegenstände erkennen: Mehr Licht heisst, die Reizschwelle wird schneller überschritten. Wenn Du in eine helle Lampe siehst (nicht probieren bitte, ist auf Dauer schädlich) passiert das Gegenteil. Das Auge schliesst die Blende und skaliert sozusagen das Signal nach unten. Bevor das geschieht sehen wir helle Objekte völlig übersteuert. Mach sowas mal mit den Ohren - die meisten Menschen müssen die sich zuhalten wenn ihnen etwas zu laut ist. Allerdings passt Dein Gehirn mit der Zeit an, wie Laut Du einen Ton bewusst wahrnimmst, wenn Du über lange Zeit einer großen Lautstärke ausgesetzt bist. Das Ohr kann das aber nicht selbst tun.
Wir können übrigens auch nur Frequenzen bis ca 20 Kilohertz hören. Allerdings bei weitem nicht mit der selben Lautstärke! Es gibt da auch noch was lustiges zum selber Probieren: Stell bei einem Synthesizer einen konstanten Sinuston mit einer festen Frequenz ein. Dann erzeuge einen zweiten Sinuston dessen Frequenz Du bei gleicher Amplitude langsam erhöhst. Du wirst feststellen, dass Du diesen Ton viel deutlicher hörst, je näher er an Deinem ersten Ton liegt!
Was es noch gibt sind die sogen. kritischen Bänder. Wenn wir einen Ton aus einem kritischen Band wahrnehmen, können wir aus dem selben Band keinen zweiten Ton unterscheiden. Wir nehmen die beiden Töne als einen reinen Ton wahr. So toll sind die Ohren also auch wieder nicht.
Die Darstellung von Bildern ist technisch aufwendiger und verursacht größere Datenmengen, das ist richtig. Das heißt aber nicht, daß das Auge mehr Datenmengen verarbeiten kann. Was ist denn da Dein Maßstab??
Die Bandbreite die gemessen werden kann, wenn man in einem Test feststellt, wieviel die entsprechenden Sinne gleichzeitig noch auseinanderhalten können. Dabei wird der Sinn mit immer mehr Signalen gefüttert und gemessen, welches Datenaufkommen dadurch entsteht. Die Augen halten hier länger durch, schon alleine, weil sie viele viele verschiedene Punkte gleichzeitig unterscheiden können.
Wenn Bilder zukünftig nur noch ein Drittel an daten brauchen, sinkt dann auch die "Bandbreite", die Deine Augen wahrnehmen können?
Wenn ich mir komprimierte Binärdaten mit einer blinkenden LED anschaue, dann *bekommt mein Auge Signale mit einer geringeren Bandbreite*, aber das heisst nicht, dass es nicht immernoch die selbe Leistung bringen kann. Das ist wie Dein Vergleich mit dem roten und dem weissen Punkt. Videos werden komprimiert indem man z.B. Flächen in ähnlicher Farbe gleich einfärbt, oder nur Änderungen kodiert. Deine Augen arbeiten aber nicht auf Basis von Änderungen. Auch wenn Dein Rechner weiss dass sich ein großer roter Kreis nie ändert nehmen Deine Augen ihn immer neu wahr.
Ich hoffe ich habe das alles halbwegs verständlich dargestellt...