Zum 3DCenter Forum
Inhalt




Average fps - wirklich das Maß aller Dinge?

12. April 2005 / von Madkiller / Seite 5 von 13


   Benchmarks Far Cry  (Forts.)


  3000+ (1.8 GHz) 3800+ (2.4 GHz)
average fps 62,7 80,3
minimum fps 35,7 47,0
Differenz 28% (avg) bzw. 32% (min)

Da die Form des Frameverlaufs nahezu identisch ist, kann man gut erkennen, dass die Grafikkarte nur wenig Einfluß hat. Auch der Unterschied zwischen den minimum fps und den average fps sind praktisch identisch.


  3000+ (1.8 GHz) 3800+ (2.4 GHz)
average fps 58,0 65,2
minimum fps 35,7 45,3
Differenz 12% (avg) bzw. 27% (min)

Auf dieser zusätzlich getesten Auflösung, in der die grafikkartenlimitierte Szene am Anfang noch bei ca 60fps liegen, kann man die sehr deutlichen Unterschiede zwischen den minimum fps und den average fps gut erkennen. Während laut den average fps die schnellere CPU gerade mal mit 12% skaliert, werden die langsamsten Szenen schon 27% schneller.


  3000+ (1.8 GHz) 3800+ (2.4 GHz)
average fps 53,7 61,0
minimum fps 35,0 38,3
Differenz 14% (avg) bzw. 10% (min)

Unter diesen Grafiksettings ist Far Cry, je nach Situation, sowohl CPU- als auch grafikkartenlimitiert. Da in den ersten 13 Sekunden ein sehr tiefer Wert vorkommt, der aber klar grafifikkartenlimitiert ist, würde man durch die schnellere CPU gerade einmal 10% höhere minimum fps erziehlen, während es bei den average fps schon 14% sind. Wenn man allerdings diese eine Stelle, auf die die CPU hier ja keinerlei Einfluß hat, ignorieren würde, wären die Unterschiede der beiden CPUs bei den minimum fps schon bei 30%! Dieser Wert wird auch ungefähr in jeder anderen Szene erreicht in der die fps unter 40 mit dem A64 3000+ fallen.


  3000+ (1.8 GHz) 3800+ (2.4 GHz)
average fps 17,8 18,8
minimum fps 10,3 10,3
Differenz 5% (avg) bzw. 0% (min)

Unter diesen extrem fordernden Grafiksettings hat die CPU keinen deutlichen Einfluß.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back Weiter / Next

Shortcuts
nach oben