Average fps - wirklich das Maß aller Dinge?
12. April 2005 / von Madkiller / Seite 9 von 13
Benchmarks Half-Life 2 (Forts.)
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 51,8 | 68,0 |
minimum fps | 27,3 | 37,3 |
Differenz | 31% (avg) bzw. 37% (min) |
Eindeutige CPU-Limitierung, wo die Unterschiede bei den minimum fps aber knapp 20% höher ausfällt, als bei den average fps.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 51,5 | 65,4 |
minimum fps | 28,7 | 37,7 |
Differenz | 27% (avg) bzw. 31% (min) |
Selbst unter 1280x960 kommt die Grafikkarte immer noch nicht deutlich zum tragen, und der Unterschied zwischen den minimum fps und average fps ist nur minimal. Dennoch ist dies die Auflösung wo nach am ehesten CPU und Grafikkarte gefordert werden. Sobald man die Settings noch weiter erhöht zeigt sich ein ähnliches Bild wie unter 1600x1200 mit 6xAA und 16xAF.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 37,9 | 44,5 |
minimum fps | 23,3 | 27,3 |
Differenz | 17% (avg) bzw. 17% (min) |
Unter 1600x1200, in der die Grafikkartenlimitierung langsam deutlich wird, sind die Werte der minimum fps und average fps identisch. Dennnoch ist die Form des Frameverlaufs bis auf wenige Ausnahmen sehr ähnlich.