Average fps - wirklich das Maß aller Dinge?
12. April 2005 / von Madkiller / Seite 11 von 13
Benchmarks Unreal Tournament 2004 (Forts.)
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 49,2 | 62,2 |
minimum fps | 33,0 | 43,7 |
Differenz | 26% (avg) bzw. 32% (min) |
Auch schon unter dieser Auflösung sind die Unterschied zwischen den minimum fps und den average fps deutlich. Während der 3800+ mit den average fps um 26% zulegt, sind es nach den minimum fps schon 32%.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 49,5 | 55,8 |
minimum fps | 33,3 | 41,3 |
Differenz | 13% (avg) bzw. 24% (min) |
Hier, wo die Grafikkartenlimitierung stärker zum Tragen kommt, wird durch den 3800+ den average fps nach gerade mal 13% gewonnen. Den minimum fps nach sind es 24%. Also ist der Unterschied zwischen den beiden Werten fast doppelt so groß.
3000+ (1.8 GHz) | 3800+ (2.4 GHz) | |
average fps | 37,4 | 38,8 |
minimum fps | 28,0 | 28,7 |
Differenz | 4% (avg) bzw. 2% (min) |
Da unter diesen Grafiksettings praktisch nur die Grafikkarte limitiert, sind fast keine Unterschiede zwischen den average fps und den minimum fps zu erkennen.