Wird das die Zukunft sein?

@MacEnroe: So wie ich das verstehe, wird die Tiefenunschärfe bei dieser Kamera in Software berechnet. Ich gehe schon davon aus, dass diese Fotos alle mit der Kamera gemacht wurden –*aber es sieht für mich so aus, als würde die Kamera dann kein „echtes” Bokeh generieren, sondern nur normale Unschärfe. Theoretisch ließe sich die Software zwar durch eine leistungsfähigere Version aktualisieren, aber das fänd ich dann doch erstmal enttäuschend.

Wie die das hinkriegen wollen, dass die Kamera alles scharf aufnimmt, weiß ich auch nicht. Meiner Meinung nach kann es da ja eigentlich nur drei Möglichkeiten geben: 1) Eine so kleine Blende, dass zwangsläufig alles scharf wird. Wie es dann mit der Lichtausbeute aussieht? 2) Mehrere Aufnahmen hintereinander mit automatisch unterschiedlicher Blende (ich habe nichts zur Geschwindigkeit der Kamera gefunden, nur dass sie in unter einer Sekunde betriebsbereit sein soll). 3) Nokia verwendet bei seiner „Extended Depth Of Field”-Technik eine spezielle Linse, die die unterschiedlichen Wellenlängen unterschiedlich fokussiert oder so. Dadurch bekommt Nokia dann wohl drei Farbkanäle mit unterschiedlichen Fokuspunkten, und eine Software errechnet daraus dann ein Bild mit maximaler Schärfe in allen Bereichen. Keine Ahnung wie das genau funktioniert, aber die Ergebnisse sind wirklich durchgehend scharf. Allerdings scheint die Technik bisher nur für billige Handykameras zu reichen. Ich tippe daher auf eine besonders kleine Blende.
 
.... Wie die das hinkriegen wollen, dass die Kamera alles scharf aufnimmt, weiß ich auch nicht. Meiner Meinung nach kann es da ja eigentlich nur drei Möglichkeiten geben: ....

Du nicht, aber der Erfinder der Kamera, es gibt nämlich VIER Möglichkeiten, einfach mal diesen thread ganz lesen :eek: , an pos#4 https://www.macuser.de/forum/f46/zukunft-591171/#post6853710 wurde bereits auf die Dissertation verlinkt, die das ausführlichst erklärt.

Kürzer im deutschen wiki
http://de.wikipedia.org/wiki/Lichtfeld
http://de.wikipedia.org/wiki/Lichtfeldkamera
 
  • Gefällt mir
Reaktionen: Angel, LosDosos, pdr2002 und eine weitere Person
@k_munic: Vielen Dank insbesondere für den untersten Wikipedialink in Post #62. Jedem anempfohlen, der gerade nicht genügend Zeit/Knowhow für die anderen langen Abhandlungen hat und verstehen will worum es grundsätzlich geht.

Mal etwas Zukunftsmusik zur gestalterischen Seite:
Doch, ich denke da passiert schon etwas ganz Besonderes in der Fotografie. Fotografie kommt dem natürlichen Seherlebnis einen großen Schritt näher. Ähnlich wie beim Schritt von der SW-Fotografie zur Farbfotografie. Stellt euch vor, ihr schaut euch eine Konzertaufnahme in der Onlinezeitung an. Ihr schaut natürlich zunächst auf die 40 Meter entfernte Band - logisch, dass ihr Sänger, Schlagzeuger, ... optimal scharf seht, so würdet ihr es ja auch fotogrfieren, weil es um die Band geht. Jetzt wandert euer Blick weiter nach unten auf die Haare der Zuschauerin, die knapp einen Meter vor euch steht und ihr könnt jedes Haar scharf erkennen. Für den realen Konzertbesucher kein Problem, doch auf Fotos bisher unmöglich. Wenn dazu jetzt kein Mausklick mehr nötig ist, sondern die Augenbewegung genügt müssten solche Bilder viel realer wirken als das was wir bisher kennen, mit technisch bedingt, eingeschränkter oder bewusst gesetzter Schärfentiefe. Heute noch normale Fotos mit beschränkter Schärfentiefe und Bokeh haben dann ca. den Stellenwert und die Verbreitung, wie sie heute SW-Fotos haben. Diese bunten Knipserbildchen wurden von ernsthaften Fotografen auch mal abgelehnt und SW-Fotos in der Zeitung wirkten objektiver als Farbbilder. Die Zeiten, unsere Gewohnheiten und unsere Einstellungen ändern sich. Ich, als einer der SW-Filme noch selbst entwickelt hat und mal ganz baff vor dem ersten, echten Farbfoto auf einem Computermonitor gestanden hat, finde das sehr spannend.
Verzeiht, wenn ihr meint, dass es in diesem thread mehr um die technische Seite der Sache gehen sollte.
 
... finde das sehr spannend.
Verzeiht, wenn ihr meint, dass es in diesem thread mehr um die technische Seite der Sache gehen sollte.

Das ist extrem spannend, und Technik sollte immer dem gestalterischen/künstlerischem Ziel untergeordnet sein - man kommt also an dem 'wie's wirkt' auch in diesem thread nicht vorbei.

Es gibt ja zB im 3D Bereich bereits Demos, bei denen die Blickrichtung getrackt und ein entsprechendes Bild erzeugt wird - nun noch mit unterschiedlichen Bildinhalten, Schärfenebenen und -bereichen .... wow! Das wird sogar hochspannend!

NACHTRÄGLICH Schärfe und -ebene zu setzen - das ergibt eine neues Maß an gestalterischer Kontrolle! Wenn man bedenkt, dass die ersten Modefotografen eine RED (='Video' Kamera) einsetzen, um nachträglich den Moment des 'Auslösens' bestimmen zu können, sind Lichtfeldoptiken der logisch nächste Schritt.
 
- Hier noch mal ganz weg von den technischen Aspekten -
Stimmt, Schärfentiefe im Nachhinein gibt mehr gestalterische Kontrolle und ich finde das durchaus gut so. Genau das haben die meisten Knöpfchen an den Kameras, die in den letzten dreißig Jahren dazu kamen (Autofocus, Belichtungskontrolle, ...) und die meisten Regler in der Bildbearbeitung auch gebracht. Was der puristische Fotograf
sich vor der Aufnahme alles vorstellen und bedenken musste, wie sein Bild aussehen soll und wie er das am besten hin bekommt, wurde immer mehr in den Bereich Fotonachbearbeitung verlegt, wo nun in aller Ruhe verglichen, optimiert oder auch ganz anders gestaltet als geplant werden kann. - Ich zähle zu denen, die damit spielen und es als Bereicherung anschauen. Mir ist allerdings auch schon lange kein Kollege mehr begegnet, der fordert, dass auf einem "richtig guten" Bildabzug der Negativrand des Großformatnegativs zu sehen sein muss. ;)

Ich habe das Glück, sehr viel technische Inovation in der Fotografie mitbekommen zu haben. Z.Bsp. nach zig Probestreifen und 2,5 Stunden Arbeit und Warterei den ersten akzeptablen Farbabzug hinbekommen zu haben und nun im Vergleich dazu schiebe ich einen Regler in Aperture oder PhShop hin und her, bis mir die Schatten gerade richtig durchgezeichnet erscheinen und zur Not auch noch zwei Wochen später wieder etwas zurück.
In Bildaufbau, Gestaltung, Bildwirkung hat sich außer Geschmack- und Modeerscheinungen grundsätzlich nichts geändert. Aber gerade da passiert jetzt etwas ganz Grundsätzliches, wenn dem Betrachter überlassen wird, welche Stelle des Bildes er gerade scharf sehen möchte (mit Mausklick) oder eben der Schritt weiter, wenn es auf Fotos gar keine wahrgenommene Unschärfe mehr gibt, weil das Gehirn des Betrachters die mit der Augenbewegung abgescannten Bildbereiche zu einem Alles-scharf-Bild zusammensetzt, wie das ja beim Wahrnehmen der realen Umgebung geschieht. (Um Einwänden vorzubeugen: Das würde nur für recht große Bildformate gelten, da sich sonst auch schon immer unscharfe Bereiche im Scharfsehbereich des Auges befinden, wie wir es ja an den Beispielbildern sehen, auf die zu Beginn des threads verlinkt wurde.)

Der zweite Aspekt: Die Krux der optischen Abbildung mittels Linsensystemen, dass nur eine Entfernungsebene wirklich scharf abgebildet werden kann (im Realleben scheinen wir ja alles immer gleichzeitig scharf zu sehen). Diese Schwäche des Fotos entwickelte sich zu einem der wichtigsten Gestaltungsmittel der Fotografen, der bewusst eingesetzten Schärfentiefe, womit man als Gestalter dem Bildbetrachter seine Sicht der Dinge zeigt bzw. aufzwingt. Tatsächlich wir ihm die Möglichkeit genommen auch mal da genauer hin zu schauen wo der Fotograf z.Bsp. einen unschönen Hintergrund sich in schönem Bokeh auflösen lässt. (Der Bildausschnitt ist natürlich die weit größere Begrenzung.) - Nur selten wird auf Gemälden ein bestimmter Entfernungsbereich scharf, der Vorder- und Hintergrund aber deutlich unscharf gemalt. Für uns Fotografen aber ein ganz wichtiges Gestaltungsmittel. - Vermutlich nur, weil es halt schon von selbst passiert und meistens gar nicht anders hin zu kriegen ist. ;) - Wenn keiner darauf einsteigt lasse ich es mit diesen Abschweifungen vom Thema auch gut sein. Habt Spaß an euren Fotos und eurer Technik!
§:¬) martin
 
  • Gefällt mir
Reaktionen: pdr2002
Du nicht, aber der Erfinder der Kamera, es gibt nämlich VIER Möglichkeiten, einfach mal diesen thread ganz lesen :eek: , an pos#4 https://www.macuser.de/forum/f46/zukunft-591171/#post6853710 wurde bereits auf die Dissertation verlinkt, die das ausführlichst erklärt.
Ich hab den Thread gelesen, allerdings nur mitbekommen, dass der Sensor auch die Lichtrichtung aufnimmt. Die Dissertation habe ich gesehen, allerdings nicht gelesen (mal Hand hoch, wer hat das hier?). Laut dem Wikipedia-Artikel, Danke dafür, wird die hohe Schärfentiefe durch die Micro-Linsen erreicht, die auf dem Sensor stecken. Sehr interessant! Adobe hat das ganze auch mal in Bewegung gezeigt: http://www.youtube.com/watch?v=-EI75wPL0nU Auch wenn man weiß, was die Kamera kann, verfällt man doch zwangsläufig ins Staunen, wenn der Fokus im Video in Echtzeit verändert wird! :eek:

Laut Wikipedia ist allerdings die Auflösung niedriger, und das ganze scheint noch recht teuer zu sein. Auf jeden Fall sehr beeindruckend, aber Anfangs wird das sicher sehr kostspielig bleiben.
 
Zurück
Oben Unten