B
burnsen
Mitglied
Thread Starter
- Dabei seit
- 28.10.2004
- Beiträge
- 27
- Reaktionspunkte
- 0
Hallöchen Forum,
in letzter Zeit bekomme ich immer wieder mit, wie Flash-Entwickler über die optimale Framerate diskutieren.
Dabei variieren die Angaben der optimalen Framerate von 20 - 120(!) FPS.
Nun gehe ich mal logisch an die Sache ran... soweit ich weiss, kann das menschliche Auge ca. 24 Bilder pro Sekunde erkennen, bzw. ab einer Bildrate von 24 Bildern pro Sekunde erscheint eine Bewegung als flüssig für das menschliche Auge.
Zur Zeit arbeite ich persönlich meist mit einer Framerate von 25 Bildern pro Sekunde. Zum einen ist dies "ein bissl" mehr, als das Auge vermeintlich sieht, zum anderen läßt sich die 25 recht gut rechnen, wenn man anhand der Framenummer ungefähr die Laufzeit errechnen kann.
Kann mir eventuell einer von Euch eine technisch saubere Erklärung abliefern, was nun die "optimale Frames-pro-Sekunde-Rate" ist? Gibt es die überhaupt? Hat Macromedia dazu eventuell mal eine Empfehlung herausgegeben?
Weiterhin hat man mir neulich verkaufen wollen, dass Bitmap-Animationen und -Tweens angeblich weniger die CPU belasten, als das Vektoren-Animationen tun.
Soweit ich weiß, ist Flash doch ein (primär) auf Vektoren optimiertes Programm. Somit sollte doch von der Logik her eine Vektoren-Animation weniger Rechenzeit benötigen, als eine vergleichbare Bitmap-Animation... oder habe ich hier etwas grundsätzlich falsch verstanden?!?
Vielleicht kann ja einer von Euch hierzu technisch zur Aufklärung beitragen?
Ich danke vorab für alle konstruktiven und hilfreichen Postings
/burn
in letzter Zeit bekomme ich immer wieder mit, wie Flash-Entwickler über die optimale Framerate diskutieren.
Dabei variieren die Angaben der optimalen Framerate von 20 - 120(!) FPS.
Nun gehe ich mal logisch an die Sache ran... soweit ich weiss, kann das menschliche Auge ca. 24 Bilder pro Sekunde erkennen, bzw. ab einer Bildrate von 24 Bildern pro Sekunde erscheint eine Bewegung als flüssig für das menschliche Auge.
Zur Zeit arbeite ich persönlich meist mit einer Framerate von 25 Bildern pro Sekunde. Zum einen ist dies "ein bissl" mehr, als das Auge vermeintlich sieht, zum anderen läßt sich die 25 recht gut rechnen, wenn man anhand der Framenummer ungefähr die Laufzeit errechnen kann.
Kann mir eventuell einer von Euch eine technisch saubere Erklärung abliefern, was nun die "optimale Frames-pro-Sekunde-Rate" ist? Gibt es die überhaupt? Hat Macromedia dazu eventuell mal eine Empfehlung herausgegeben?
Weiterhin hat man mir neulich verkaufen wollen, dass Bitmap-Animationen und -Tweens angeblich weniger die CPU belasten, als das Vektoren-Animationen tun.
Soweit ich weiß, ist Flash doch ein (primär) auf Vektoren optimiertes Programm. Somit sollte doch von der Logik her eine Vektoren-Animation weniger Rechenzeit benötigen, als eine vergleichbare Bitmap-Animation... oder habe ich hier etwas grundsätzlich falsch verstanden?!?
Vielleicht kann ja einer von Euch hierzu technisch zur Aufklärung beitragen?
Ich danke vorab für alle konstruktiven und hilfreichen Postings
/burn