Es geht darum, wie man Benchmarks bei Computerspielen richtig macht und dabei sind die fps, also die frames per second nicht der beste Ansatz. Ich weiß nicht, ob ihr das schon mal hattet, dass 30 fps oder sogar 60 fps immer noch ein bisschen "ruckelig" aussahen, obwohl es bei einer solchen Framerate bereits butterweich sein sollte. Möglicherweise sehe ich das nur so, weil ich ne AMD Radeon Grafikkarte habe (siehe den Test weiter unten). Auf jeden Fall gibt es ein Problem mit den frames per second, weil 1 Sekunde viel zu lange ist, um in der schnellen Welt der Spiele Diskrepanzen aufzeigen zu können. Viel wichtiger sind Millisekunden pro Frame, bzw. die Zeit, die es braucht, um ein Bild zu rendern. Und genau hier kann man feststellen, dass die Testmethode "fps" für Spiele nicht immer geeignet ist.
Die Webseite "the tech report" hat sich (jetzt nicht in LInux) einige Spiele angeschaut, die zwischen Nvidia und AMD verglichen und vor allem neben den fps, die eigentlich normal aussahen, auch die Millisekunden für das Rendern der Bilder angesehen, wo erhebliche Diskrepanzen auftraten und erst diese Testergebnisse zeigten, was das Auge schon lange sieht.
Erstmal zum Test:
the tech report: Radeon HD 7950 vs. GeForce GTX 660 Ti revisited
Wenn ihr runterscrollt, könnt ihr die verschiedenen Seiten der Tests anschauen. Die ersten zwei Seiten erklären den Versuchsaufbau und ab Seite 3 geht es mit Borderlands II los. Am ersten Graphen könnt ihr dann auch gleich den Unterschied sehen.
Ein kleines Rechenbeispiel kann auch zeigen, welche Probleme fps manchmal bereiten können, zB. der Vergleich von 210 fps zu 240 fps. Wie relevant ist dieser Unterschied? Drehen wir die Zahlen doch einfach mal um und schauen, was das in Millisekunden pro Frame heißen würde: 4,76 ms (210 fps) - 4,17 ms (240fps).
Und jetzt zum Vergleich mal 30 fps zu 60 fps: 33,33 ms (30 fps) - 16,67 ms (60 fps).
Oder 15 fps zu 30 fps: 66,67 ms (15 fps) - 33,33 ms (30 fps).
Oder 30 fps zu 31 fps: 33,33 ms (30 fps) - 32,26 ms (31 fps).
Es gibt fast keinen Unterschied zwischen 210 fps zu 240 fps in diesem Beispiel. Der Unterschied zwischen 30 und 31 fps ist sogar fast doppelt so groß wie der zwischen 210 zu 240 fps. Das ist jetzt nur ein einfaches Rechen- und Extrembeispiel, soll aber aufzeigen, welche Grenzen das Testen von Spielen hat, wenn man sich nur die Frames per Second anschaut.
Es geht mir jetzt nicht darum zu sagen, dass fps jetzt irrelevant sind. Vielmehr ist es wichtig zu wissen, dass fps nicht alles sind und manchmal auch zu einer falschen Sichtweise verleiten. Ich habe irgendwo mal gelesen, dass manche Entwicklerteams schon intern sich Millisekunden pro Frame anschauen statt fps, kann den Artikel nur leider nicht mehr finden. Aber zumindest haben diese Entwickler das Problem schon lange erkannt.