Average fps - wirklich das Maß aller Dinge?
12. April 2005 / von Madkiller / Seite 2 von 13
Benchmarks Doom 3
1024x768 1/1 | 1280x1024 1/16 | 1280x1024 4/16 | 1600x1200 6/16 | |
average fps | 82,6 | 75,1 | 51,4 | 21,8 |
minimum fps | 48,7 | 47,7 | 26,0 | 9,0 |
Differenz 1-2 | 9% (avg) bzw. 2% (min) | |||
Differenz 2-3 | 32% (avg) bzw. 45% (min) | |||
Differenz 3-4 | 58% (avg) bzw. 65% (min) |
Während die average fps von 1024x768 auf 1280x1024 mit 16xAF um 9% einbrechen, sind es unter den minimum fps nur 2%. Wenn man aber bei dieser Auflösung zusätzlich noch 4xAA aktiviert, brechen die average fps um 32% ein, während es unter den minimum fps schon 45% sind.
1024x768 1/1 | 1280x1024 1/16 | 1280x1024 4/16 | 1600x1200 6/16 | |
average fps | 101,0 | 80,4 | 51,8 | 22,0 |
minimum fps | 65,3 | 53,7 | 26,0 | 8,7 |
Differenz 1-2 | 20% (avg) bzw. 18% (min) | |||
Differenz 2-3 | 36% (avg) bzw. 52% (min) | |||
Differenz 3-4 | 57% (avg) bzw. 67% (min) |
Die Unterschiede zwischen den verschiedenen Auflösungen und Settings sind zwar, wenn man die minimum fps Werte betrachtet, mit ca. 10% ein wenig größer, stimmen aber im Großen und Ganzen mit den average fps Werten überein. Aber unter 1280x1024 mit 16xAF ergibt sich wenn 4xAA aktiviert wird ein deutlicher Unterschied zwischen den average fps mit 36% Einbruch und den minimum fps mit 52% Einbruch. Da Doom 3 selbst ab 1280x1024 mit 4xAA und 16xAA schon absolut grafikkartenlimitiert ist, zeigen sich beider höheren Auflösung zwischen den minimum und average fps keine deutlichen Unterschiede.