Bevezető, a teszt eszközei és módszere
Bevezető
Réges-régen (majdnem pont 3 évvel ezelőtt) készítettem egy tesztet, amely azt feszegette, hogy a felbontás növelésével hogyan csökken a videókártyákból kinyerhető FPS-ek száma. Akkor az volt a konklúzió, hogy míg a régebbi játékok igencsak érzékenyek voltak arra, hogy hány db pixelt kell megjeleníteni a képernyőn, a 2008-as és 2009-es felhozatal inkább a renderelő pipeline közepére helyezte a hangsúlyt, ezért a felbontás növelése relatíve kevés "büntetéssel" járt. 2011-től azonban ismét más lett a helyzet: a videókártyák sebességének folyamatos növekedése, valamint a konzolok értelemszerű stagnálása a válsággal kombinálva azt a trendet hozta a PC-s játékokban, hogy a konzoloknál magasabb minőségi szintet különféle post processing (azaz a "kész" képen végrehajtott) eljárásokkal igyekeznek biztosítani. Az ilyen eljárásokat relatíve egyszerű (=olcsó) utólag rápatkolni egy 3D-s motorra, a VGA-kkal szemben támasztott igényük azonban más, mintha "tisztességesen" számolná ki őket a motor - míg az effekt kiszámítása mindenképpen viszi a számítási kapacitást (ALU-kapacitást, shader-kapacitást, ahogy tetszik), a post process jelleg miatt a kártya raszter egységei (ROP-ok) és a memória-sávszélesség is komolyabb terhelést kapnak. Mivel a raszter terhelést alapvetően befolyásolja a használt képernyő-felbontás, felmerült bennem a kérdés, hogy vajon a post-process effektek eszement használata nem fordította-e meg azt a trendet, miszerint a modernebb 3D-s motorok egyre kevésbé és kevésbé érzékenyek a felbontásra. Ez az elemzés erre a kérdésre igyekszik választ adni - és emellett nem utolsósorban információval szolgál arról, hogy az utóbbi időszak néhány VGA-igényesebb játékát milyen felbontás mellett lehet kényelmesen játszani egy felső-középkategóriás VGA-val.



