Hirdetés

A felbontás és az FPS kapcsolata

Bevezető, a teszt eszközei és módszere

Bevezető

Réges-régen (majdnem pont 3 évvel ezelőtt) készítettem egy tesztet, amely azt feszegette, hogy a felbontás növelésével hogyan csökken a videókártyákból kinyerhető FPS-ek száma. Akkor az volt a konklúzió, hogy míg a régebbi játékok igencsak érzékenyek voltak arra, hogy hány db pixelt kell megjeleníteni a képernyőn, a 2008-as és 2009-es felhozatal inkább a renderelő pipeline közepére helyezte a hangsúlyt, ezért a felbontás növelése relatíve kevés "büntetéssel" járt. 2011-től azonban ismét más lett a helyzet: a videókártyák sebességének folyamatos növekedése, valamint a konzolok értelemszerű stagnálása a válsággal kombinálva azt a trendet hozta a PC-s játékokban, hogy a konzoloknál magasabb minőségi szintet különféle post processing (azaz a "kész" képen végrehajtott) eljárásokkal igyekeznek biztosítani. Az ilyen eljárásokat relatíve egyszerű (=olcsó) utólag rápatkolni egy 3D-s motorra, a VGA-kkal szemben támasztott igényük azonban más, mintha "tisztességesen" számolná ki őket a motor - míg az effekt kiszámítása mindenképpen viszi a számítási kapacitást (ALU-kapacitást, shader-kapacitást, ahogy tetszik), a post process jelleg miatt a kártya raszter egységei (ROP-ok) és a memória-sávszélesség is komolyabb terhelést kapnak. Mivel a raszter terhelést alapvetően befolyásolja a használt képernyő-felbontás, felmerült bennem a kérdés, hogy vajon a post-process effektek eszement használata nem fordította-e meg azt a trendet, miszerint a modernebb 3D-s motorok egyre kevésbé és kevésbé érzékenyek a felbontásra. Ez az elemzés erre a kérdésre igyekszik választ adni - és emellett nem utolsósorban információval szolgál arról, hogy az utóbbi időszak néhány VGA-igényesebb játékát milyen felbontás mellett lehet kényelmesen játszani egy felső-középkategóriás VGA-val.

Kép egy felső-középkategóriás VGA-ról, ami meglepő módon nem a tesztben használt GTX 660 Ti

A képernyőfelbontásokról röviden

A játékokban a 3D-s grafika egyik legnagyobb előnye, hogy a monitorunkhoz (ill. sebesség tekintetében a videókártyánkhoz) mérten szabadon beállíthatjuk, milyen felbontásban szeretnénk a játékot megjeleníteni, és a játék motorja a kiválasztott felbontástól többé-kevésbé függetlenül, ugyanazt a kódot (más paraméterek mentén) végrehajtva tudja megjeleníteni a képet. Ez a lehetőség természetesen a felbontások robbanásszerű sokasodásához vezetett - míg régebben a 4:3-as képarány volt a divat (320x240, 640x480, 800x600, 1024x768, stb.), később a 16:10-es kezdett magának helyet követelni (1280x800, 1680x1050, 1920x1200, stb.), de még mielőtt igazi áttörést ért volna el, érkezett a TV-vonalról a 16:9 (legjellemzőbben 1280x720, 1366x768 és 1920x1080), és szegény 16:10-et mostanára alaposan visszaszorította. Ennek a "zűrzavarnak" az egyik következménye, hogy nem alakult ki egyértelmű "osztályozódás" a felbontások tekintetében, és a felhasználók, akiknek a többsége (érthetően) lusta számolgatni, hogy pixelek tekintetében mennyi az annyi, leginkább érzésre navigál a felbontások között, és hoz esetleg rossz döntéseket arról, hogy milyen monitorba, és hozzá milyen VGA-ba invesztáljon.

Értelemszerűen egy tesztben nem lehet minden létező felbontással mérni, ezért igyekeztem 4 olyan felbontást kiválasztani, ami megfelelően reprezentatív, ugyanakkor a teszt céljait is szolgálja. Két 16:9-es és két 16:10-es felbontás került a tesztbe, a következők szerint:

- A 2560x1440 tűnik jelenleg a közeljövő felbontásának - a Távol-Keletről már 100.000 Ft-os ár alatt beszerezhető 27"-os monitoroknak köszönhetően a terjedése garantálható. Emellett pixelszámban 11%-kal kevesebb a szintén valamelyest elterjedt 2560x1600-nál, és a tesztből majd látni fogjuk, hogy a két felbontás közötti teljesítménykülönbség ez alapján elég jól becsülhető.

- Az 1920x1080 pixeles (fullHD) felbontás részvételét nem kell magyarázni. Itt is igaz, hogy 11%-kal van benne kevesebb pixel a 16:10-es párjánál (1920x1200).

- A fullHD mellett a másik legnépszerűbb gamer felbontás Magyarországon az 1680x1050, ezért őt sem hagytam ki.

- A negyedik, legalacsonyabb felbontás kiválasztásával kicsit nehezebb dolgom volt. A 4:3-as felbontások nem szimpatikusak, mert a játékok többsége optimalizációban már nem figyel erre oda, és az eredmények nem lettek volna reprezentatívak. Ugyanezért kiestek a 720p (1280x720) alatti felbontások is. Az 1440x900 adta volna magát, de a tesztelt játékokban a Unigine-en kívül nem bukkant fel opcióként. Maradt három lehetőség: a HD (1366x768), a HD "kistestvére" (1280x720) és a notebook-körökben régebben népszerű 1280x800. Némi töprengés után az utolsóra esett a választásom, egyrészt azért, mert az azonos képarány miatt az 1680x1050-nel jobban összevethető, másrészt a pixelszám ideális abból a szempontból, hogy majdnem úgy aránylik az 1680x1050-hez, mint a fullHD a 2560x1440-hez. Megjegyzendő, hogy a HD felbontás pixelszáma majdnem pontosan ugyanennyi.

Az alábbi kép méretarányosan bemutatja, hogy viszonyulnak egymáshoz az egyes felbontások, valamint melyik hány pixelt tartalmaz:

Látható, hogy igen széles skálán mozog az egyes képfelbontások pixelszáma - a 2560x1440 több, mint 3.5-szer annyi pixelt tartalmaz, mint az 1280x800. Értelemszerűen ez a különbség a teljesítményben is igencsak látható lesz.

Tesztrendszer, játékok és a teszt módszere

A következő konfigurációt használtam a teszt során:

A táblázatban a VGA-nál feltüntetett zárójeles értékek talán igényelnek kis magyarázatot: a GTX 660 Ti a Boost technológiának köszönhetően nem a névleges 915 MHz-es, hanem a "boostolt" 980 MHz-es órajelen ketyeg, ill. a videómemória órajele fizikailag 1502 MHz, az effektív órajel pedig a gDDR5-ös lapkák esetében ennek négyszerese.

A tesztben használt játékok (zárójelben a méréshez használt terület vagy benchmark):
- Battlefield 3 (Uprising)
- Far Cry 3 (Mushrooms in the Deep)
- Hitman Absolution (beépített benchmark)
- Sleeping Dogs (beépített benchmark)
- Sniper Elite V2 (önálló benchmark)
- Unigine Heaven 3.0 (beépített benchmark, az első 2 perc)

Látható, hogy ezúttal a szokásosnál több benchmarkot használtam - ezzel nem titkolt célom, hogy másokat is rávegyek ilyen tesztek készítésére, ami által azt is össze lehet mérni, hogy melyik GPU-architektúrán milyen hatása van a felbontás emelésének. Ez már csak azért is érdekes, mert a tesztben használt GTX 660 Ti hátsó fertálya nem éppen erőteljes - érdekes lenne ugyanezeket a teszteket pl. egy GTX580-nal is látni. A cikk végén még visszakanyarodom ehhez a kérdéshez is.

A mérések a következőképpen készültek:
- A videókártya által nyújtott teljesítményt minden esetben a FRAPS mérte.
- Az átlagos FPS értékek a FRAPS által mért átlag FPS átvételével keletkeztek.
- A minimum FPS-ek a FRAPS által mért képkocka renderelési időkből egy statisztikai alapú módszer használatával állnak elő. A módszer előnye a FRAPS által adott minimum FPS-ekhez képest, hogy kiküszöböli az egyszeri FPS eséseket (pl. egy rosszkor felbukkanó HDD művelet miatt), és kimutatja a microstutteringet és a hasonló FPS fluktuációs problémákat.
- Minden tesztfutam háromszor került lemérésre, és a grafikonokra a három mérés átlaga került. Ha a három mérésből valamelyik feltűnő eltérést mutat, akkor ott az egész mérés ismétlése szükséges – ezen teszt során ilyen eset nem fordult elő.

A cikk még nem ért véget, kérlek, lapozz!

Azóta történt

Előzmények