Average fps - wirklich das Maß aller Dinge?
12. April 2005 / von Madkiller / Seite 5 von 13
Benchmarks Far Cry (Forts.)
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 62,7 | 80,3 |
minimum fps | 35,7 | 47,0 |
Differenz | 28% (avg) bzw. 32% (min) |
Da die Form des Frameverlaufs nahezu identisch ist, kann man gut erkennen, dass die Grafikkarte nur wenig Einfluß hat. Auch der Unterschied zwischen den minimum fps und den average fps sind praktisch identisch.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 58,0 | 65,2 |
minimum fps | 35,7 | 45,3 |
Differenz | 12% (avg) bzw. 27% (min) |
Auf dieser zusätzlich getesten Auflösung, in der die grafikkartenlimitierte Szene am Anfang noch bei ca 60fps liegen, kann man die sehr deutlichen Unterschiede zwischen den minimum fps und den average fps gut erkennen. Während laut den average fps die schnellere CPU gerade mal mit 12% skaliert, werden die langsamsten Szenen schon 27% schneller.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 53,7 | 61,0 |
minimum fps | 35,0 | 38,3 |
Differenz | 14% (avg) bzw. 10% (min) |
Unter diesen Grafiksettings ist Far Cry, je nach Situation, sowohl CPU- als auch grafikkartenlimitiert. Da in den ersten 13 Sekunden ein sehr tiefer Wert vorkommt, der aber klar grafifikkartenlimitiert ist, würde man durch die schnellere CPU gerade einmal 10% höhere minimum fps erziehlen, während es bei den average fps schon 14% sind. Wenn man allerdings diese eine Stelle, auf die die CPU hier ja keinerlei Einfluß hat, ignorieren würde, wären die Unterschiede der beiden CPUs bei den minimum fps schon bei 30%! Dieser Wert wird auch ungefähr in jeder anderen Szene erreicht in der die fps unter 40 mit dem A64 3000+ fallen.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 17,8 | 18,8 |
minimum fps | 10,3 | 10,3 |
Differenz | 5% (avg) bzw. 0% (min) |
Unter diesen extrem fordernden Grafiksettings hat die CPU keinen deutlichen Einfluß.