iPhone 11 / 11 Pro ... Keynote 2019

Dann scheinen die App Hersteller ja mehr aus Apples Hardware rauszuholen als Apple selber.

Aber damit behauptest Du implizit einfach, dass die das selbe machen würden. Andere App-Hersteller entrauschen vielleicht einfach die Bilder, während Apple ja erklärt hat, dass sie eine Vielzahl an Bildern mit unterschiedlichen Belichtungen aufnehmen, diese auswerten und miteinander verrechnen, was sich dann nicht nur auf die Rauscharmut auswirkt, sondern z.B. auch auf die Schärfe.

Bitte bedenken, dass es hierbei nicht nur auf reine Rechenleistung ankommt, sondern auch auf Realtimefähigkeit, Latenzen & Co.

AFAIK ist zumindest die Fähigkeit, dass die Signale aller Kameras gleichzeitig verarbeitet werden können beim iP11 neu.
 
Aber damit behauptest Du implizit einfach, dass die das selbe machen würden. Andere App-Hersteller entrauschen vielleicht einfach die Bilder, während Apple ja erklärt hat, dass sie eine Vielzahl an Bildern mit unterschiedlichen Belichtungen aufnehmen, diese auswerten und miteinander verrechnen, was sich dann nicht nur auf die Rauscharmut auswirkt, sondern z.B. auch auf die Schärfe.

Macht das Samsung mit dem S10 nicht auch so ?
 
Aber damit behauptest Du implizit einfach, dass die das selbe machen würden. Andere App-Hersteller entrauschen vielleicht einfach die Bilder, während Apple ja erklärt hat, dass sie eine Vielzahl an Bildern mit unterschiedlichen Belichtungen aufnehmen, diese auswerten und miteinander verrechnen, was sich dann nicht nur auf die Rauscharmut auswirkt, sondern z.B. auch auf die Schärfe.

Bitte bedenken, dass es hierbei nicht nur auf reine Rechenleistung ankommt, sondern auch auf Realtimefähigkeit, Latenzen & Co.

AFAIK ist zumindest die Fähigkeit, dass die Signale aller Kameras gleichzeitig verarbeitet werden können beim iP11 neu.
https://www.procamera-app.com/en/low-light-plus/

LowLight Plus – Noise Reduction

Fineart mode – Noise free photographs in low light


Go beyond the limits of your iPhone: Noise Reduction paves the way for stunning, noise-free iPhone photos in low light conditions. The impressive noise reduction is achieved by automatically combining multiple photos. Due to a sophisticated image alignment, you can even use this mode without a tripod.

Ein Auszug vom Hersteller ProCamera.

Und so viel zu Apples Marketing, dass bei dir anscheinend wunderbar funktioniert.
 
  • Gefällt mir
Reaktionen: Dvvight, Mike13 und maba_de
Ein Auszug vom Hersteller ProCamera.

Und natürlich wird da nichts geschönt. Sowas macht ja nur das böse Apple. Bei denen ist natürlich die halbe Keynote gelogen..

Woher weißt du eigentlich jetzt schon, das die Bilder mit dieser App genau so gut aussehen wie beim neuen 11? hast du beides schon direkt und ausgiebig verglichen?
 
  • Gefällt mir
Reaktionen: spatiumhominem
Und natürlich wird da nichts geschönt. Sowas macht ja nur das böse Apple. Bei denen ist natürlich die halbe Keynote gelogen..

Woher weißt du eigentlich jetzt schon, das die Bilder mit dieser App genau so gut aussehen wie beim neuen 11? hast du beides schon direkt und ausgiebig verglichen?
Die sehen möglicherweise nicht so gut aus wie mit der verbesserten Kamera, da gebe ich dir durchaus Recht. Darum geht es mir auch nicht, es geht mir darum, dass Apple die Funktion mit Sicherheit für mindestens das Xs hätte bringen können ;-)
Und vor allem hat der Kollege behauptet die App Hersteller reduzieren nur Rauschen und dem ist eben nicht so.

Und es wurde hier ein Bild als Beispiel gepostet, dass bei weitem nicht Welten besser aussah als die Bilder der App Hersteller.

weiteres Bsp.:

NeuralCam: Für bessere iPhone-Nachtaufnahmen
https://www.iphone-ticker.de/neuralcam-fuer-bessere-iphone-nachtaufnahmen-145987/
 
Da ich gerade in den USA bin, gibt es Unterschiede zwischen US iPhones und denen die in Europa verkauft werden. Bei der Watch war es ja mal so, das man das LTE nur in den USA verwenden kann. Ich will nur sicher gehen bevor ich das Pro nächste Woche hier mitnehme und dann zu Hause blöd da stehe
 
Macht das Samsung mit dem S10 nicht auch so ?
Doch. Alle Fotos dieser Art werden jetzt so erstellt. Egal ob Google, Samsung, Huawai,...
Mehrere Bilder mit mehreren Belichtungszeiten und dann errechnet die Software daraus ein mehr oder weniger schönes Bild bei Nacht.
Deshalb können dies auch schon Drittanbieter mit ihren Apps, siehe die zwei von mir genannten Beispiele.
Das einige jetzt hier wieder glauben Apple hätte den Heiligen Gral der Nachtfotografie erfunden ist wirklich absurd :D
 
  • Gefällt mir
Reaktionen: Dvvight und maba_de
Das macht jeder, so, und kann ich euch sogar von Hand mit Photoshop nachmachen.
Die Frage ist jedoch: Wie gut funktioniert der Algorythmus wenn sich etwas minimal bewegt. Welche Einstellungen (ISO, Verschlusszeit etc.) wählt die Kamera in diesem Modus.
Darin können sich die Ergebnisse noch unterscheiden. Die Art wie diese Bilder entstehen ist aber allesamt das selbe.
 
https://www.procamera-app.com/en/low-light-plus/

LowLight Plus – Noise Reduction

Fineart mode – Noise free photographs in low light


Go beyond the limits of your iPhone: Noise Reduction paves the way for stunning, noise-free iPhone photos in low light conditions. The impressive noise reduction is achieved by automatically combining multiple photos. Due to a sophisticated image alignment, you can even use this mode without a tripod.

Ein Auszug vom Hersteller ProCamera.

Und so viel zu Apples Marketing, dass bei dir anscheinend wunderbar funktioniert.

?? Das bestätigt doch exakt, was ich schreibe. Deren Lowlight-Modus ist eine Rauschentfernung mit der Möglichkeit längerer Belichtungszeiten. Das hat überhaupt nichts mit dem zu tun, was Apple vorgestellt hat. Nichts was die tun muss REALTIME erledigt werden.

der Hauptnutzen dieser Anwendung ist das Ermöglichen von langen Verschlusszeiten.
 
?? Das bestätigt doch exakt, was ich schreibe. Deren Lowlight-Modus ist eine Rauschentfernung mit der Möglichkeit längerer Belichtungszeiten. Das hat überhaupt nichts mit dem zu tun, was Apple vorgestellt hat. Nichts was die tun muss REALTIME erledigt werden.

der Hauptnutzen dieser Anwendung ist das Ermöglichen von langen Verschlusszeiten.
Was verstehst du daran nicht?:

The impressive noise reduction is achieved by automatically combining multiple photos.

Nochmal auf deutsch:

Low Light Plus: Bei schwachem Licht verrechnet der hochentwickelte Aufnahmeprozess im Low Light Plus Modus (In-App Kauf) nun automatisch mehrere Fotos mit maximaler Belichtungszeit für das finale Bild. Mit der LUX+ Funktion können damit noch hellere Bilder mit mehr Details erstellt werden – selbst bei tiefster Nacht!




Und wie gesagt „NeuralCam“ macht genau das gleiche.

NeuralCam: Für bessere iPhone-Nachtaufnahmen
https://www.iphone-ticker.de/neuralcam-fuer-bessere-iphone-nachtaufnahmen-145987/
 
Ah Quatsch ... Magic-Linsen + Magic-Software = Tagfotos bei Nacht :D
 
  • Gefällt mir
Reaktionen: packo
Das ist doch alles ein Streit um des Kaisers Bart aka wilde Spekulation: warten wir doch einfach die Tests der Profis ab …
 
Was finden die Profis dann raus?
Bilder gegeneinander verrechnen um das ISO Rauschen zu reduzieren gibts nicht erst seit 10.09.2019 :crack:
 
  • Gefällt mir
Reaktionen: greenflo und packo
Ja, ich bin aktuell auch noch beim 8er und werde das wohl, solange es noch tut was es soll, auch bleiben.

Schade finde ich an den neuen iPhones, das Apple es nicht geschafft hat, den/die Notch zu eliminieren, bzw. merklich kleiner zu machen...


Da bleibe ich auch vorerst mal bei meinem 8er... ich warte, bis Apple Pen auf dem IPhone nutzbar wird ... sonst muss ich doch noch auf Galaxy Note ;-)
 
Was finden die Profis dann raus?
Bilder gegeneinander verrechnen um das ISO Rauschen zu reduzieren gibts nicht erst seit 10.09.2019 :crack:
Doch. Apple hat es erfunden und geht nur mit dem neuen A13 Bionic!!!!11!1!1!1!1!11
 
(Seufz. Ich bin raus.)
 
  • Gefällt mir
Reaktionen: dodo4ever und spatiumhominem
Da bleibe ich auch vorerst mal bei meinem 8er... ich warte, bis Apple Pen auf dem IPhone nutzbar wird ... sonst muss ich doch noch auf Galaxy Note ;-)

wäre nicht die schlechteste Entscheidung ;)
 
Was verstehst du daran nicht?:

The impressive noise reduction is achieved by automatically combining multiple photos.

Nochmal auf deutsch:

Low Light Plus: Bei schwachem Licht verrechnet der hochentwickelte Aufnahmeprozess im Low Light Plus Modus (In-App Kauf) nun automatisch mehrere Fotos mit maximaler Belichtungszeit für das finale Bild. Mit der LUX+ Funktion können damit noch hellere Bilder mit mehr Details erstellt werden – selbst bei tiefster Nacht!

Im Endeffekt belichten die einfach lang und weil die Highlights dann ausbrennen würden machen sie noch eine kürzere Belichtung für die Highlights. Dabei lösen sie aber meines Erachtens ganz normal mehrfach die Kamera aus. Dafür braucht es nicht mehr Rechenleistung als zweimal auf den Auslöser zu drücken. Warum sollte das bei einem iPhone X also nicht gehen?

Aber - auf deren Website sind nur statische Motive zu sehen. Sobald Du Bewegung im Bild hast (Personen) funktioniert das mit der langen Belichtung nicht mehr, weil die Bewegung dann verschwimmt. Apple behauptet nun auch mit Bewegung besser umgehen zu können, indem sie Bilder nicht nur in Bezug auf deren Belichtung zusammenrechnen, sondern auch in Bezug auf scharfe und unscharfe Details.

Wie gut das geht weiß ich nicht, aber deswegen ist es überhaupt nur sinnvoll Lowlight-Bilder mit bewegung miteinander zu vergleichen.

Apple-Website:

„Wenn du auf den Auslöser tippst, macht die Kamera mehrere Bilder, während die optische Bildstabilisierung das Objektiv ruhig hält.
Danach kommt die Kamerasoftware zum Einsatz. Sie richtet die Bilder aus, um Bewegungsunschärfe zu korrigieren. Sie verwirft Bereiche mit zu viel Unschärfe und kombiniert schärfere miteinander. Sie passt den Kontrast an, damit alles ausgewogen bleibt. Sie optimiert die Farben, damit sie natürlich aussehen. Dann nutzt sie intelligente Rauschentfernung und Detailverbesserung, um das fertige Bild zu erstellen.“
 
Was finden die Profis dann raus?
Bilder gegeneinander verrechnen um das ISO Rauschen zu reduzieren gibts nicht erst seit 10.09.2019 :crack:

Das ist ein Strohmann-Argument, weil es gar nicht das ist, was Apple behauptet.

Apple behauptet stattdessen das hier:
"Die große Herausforderung dabei ist, dass wir zwar das gleiche Farbsystem für alle drei Sensoren verwenden, verschiedene Kameramodule aber unterschiedliche Ergebnisse bei Farben und Lichtempfindlichkeit liefern. Darum kalibrieren unsere Ingenieure jede einzelne Kamera präzise für Dinge wie Weißabgleich und Belichtung. Und dann gehen sie noch einen Schritt weiter, verbinden die drei Kameras miteinander und kalibrieren sie erneut, um die Module aneinander anzupassen.

Diese Kalibrierungen kommen bei jeder deiner Aufnahmen zum Einsatz – in Echtzeit. Das ist, als würdest du RAW Bilder von drei verschiedenen Kameras nehmen und sie bearbeiten, damit sie einen einheitlichen Look und einheitliche Farben haben. Mit dem Unterschied, dass es in einem Sekundenbruchteil passiert. Und damit all diese Anpassungen sofort richtig funktionieren, wenn du vom Teleobjektiv auf Weitwinkel und Ultraweitwinkel wechselst, braucht es die Art Rechenpower, die nur der A13 Bionic hat."

Nur um das nochmal klar zu stellen: es geht nicht darum, wie gut das funktioniert, es geht nur um die Frage, ob man dafür die Rechenpower des iPhone 11 braucht.
 
... es geht mir darum, dass Apple die Funktion mit Sicherheit für mindestens das Xs hätte bringen können
Apple ... hätte, könnte, sollte, müsste ... usf.
Manche Leute haben wohl den lieben langen Tag nichts Besseres zu tun, als besserwisserisch jedes vermeintliche Härchen in der Keynote rauszupulen, bevor auch nur einige konkrete Testergebnisse das Tageslicht erblickten ... mannomann, das ist irgendwie skurril.:confused:
 
  • Gefällt mir
Reaktionen: Dvvight, M001 und Elessar1
Zurück
Oben Unten