A 64bit/DDR és a 128bit/SDR viszonya

Értékelés

Értékelés

Most pedig lássuk, hogy a tesztprogramokban, valamint a játékokban 16 és 32 biten hogyan viszonyulnak egymáshoz a kártyák:

A grafikonok azt mutatják, hogy a 128 bites SDR kártyák az egyes csoportokban hány százalékkal gyorsabbak a 64 bites DDR kártyáknál.

Hirdetés

A benchmarkok eredménye mixelt, mivel egybe van vonva a 16 bites és a 32 bites eredmény. Jól látható, hogy a GeForce 2 MX kártyáknál átlagosan 3,6 százalékkal gyorsabb az SDR megoldás. A GeForce 4 MX nagytestvéreknél 2 százalék az átlagos különbség.

A 16 bites játéktesztek esetében azt lehet mondani, hogy a tesztelt játékoknál a tesztelt felbontásokon teljesen mindegy, hogy melyik kártyával próbálkozunk, mindegyik verzión közel azonos sebességet kapunk. Minimális különbség kimérhető főleg 800*600 felett, de nem számottevő. Valószínűleg magasabb felbontásban (1280 és 1600) kijönnek a különbségek, de ki az, aki ezekkel a kártyákkal (akárcsak fénykorukban is) 1024 felett játszott? Én biztosan nem, ezért nem is teszteltem őket magasabb felbontáson.
(640-es felbontásban az MX440 0,4%-kal gyorsabb volt az SDR verziónál, de a grafikonon nem tüntettem fel, mivel nem akartam negatív tartományt is ábrázolni.)

32 biten azonban más a helyzet, van kimutatható eltérés. A GeForce 2 kártyáknál a legalacsonyabb felbontáson még elhanyagolható a különbség, de feljebb lépve 4 - 6% előnye van a 128 bites SDR verziónak.
A GeForce 4 MX kártyáknál csak 1024*768-ban nő meg említésre méltóan a sebességbeli különbség, ami bő 4 százalékot jelent.

A kimutatott különbségek papíron léteznek, de valójában elhanyagolhatók. Ebből az következik, hogy aki annak idején 64 bites DDR GeForce 2 MX-et vett, hátránya legfeljebb az alacsonyabb memória órajel miatt keletkezhetett (lásd a Creative kártya 143 MHz alapfrekvenciáját), nem pedig a szűkebb busz és DDR memória alkalmazása miatt.

Záró gondolatok

Nem véletlen, hogy pont az NV11 és az NV17/NV18 GPU-ra szerelt kártyák szerepelnek ebben az összehasonlító teszben. Ezek voltak azok a belépő szintű GPU-k, amelyekre nagyon sok gyártó többféle variációban készített megoldást (van egy 32 bites DDR GF4 MX kártyám is), és ezekből a többféle memóriakiépítés miatt ki lehetett választani a megfelelő tesztalanyokat.

Az NV17 GPU az NV11 továbbfejlesztése, és a GeForce 4 MX440 sokáig a kedvenc VGA kártyám volt filmnézős gépek építéséhez: mindent tudott, amit kellett. Az NV11 chip 800*600 pixeles TV kimenetét ebben leváltotta a natív 1024*768 méret, ami passzolt a desktopon használt felbontáshoz, így egy sima klónozással meg is volt oldva a TV-re kikerülő kép, méghozzá megfelelő képminőséggel.

Manapság is kerülnek piacra olyan kártyák, amiknek a GPU-ja nagyjából egyforma, de amíg az egyik verzió mondjuk 256 bites GDDR3 memóriával van ellátva, addig a másik 128 bites GDDR5 RAM-ot kapott (pl. ATI Radeon HD 4830 vs ATI Radeon HD 4770). Kíváncsi lennék ezeknél is egy clock-2-clock összehasonlításra, mivel alapból az összehasonlítást az utóbbi nyeri 8-10%-kal, mert bár alacsonyabb valamivel a memória sávszélessége (-11%), de magasabb jóval a GPU órajele (30%).

Leginkább két, elég ritka VGA-t szeretnék összehasonlítani, amiket elég nehéz beszerezni, hacsak nem lehetetlen. Az egyik a DDR2 memóriával szerelt ATI Radeon HD 3850, amihez volt is szerencsém (6000 pont körül teljesített 3DMark 06-ban). A másik a Távol-Keleten forgalmazott ATI Radeon HD 3690 (a.k.a. HD 3830), ami egy 128 bites GDDR3 memóriával ellátott RV670 kártya, azaz felfogható egy butított HD 3850-nek. Ezen a két kártyán véleményem szerint nagyon jól ki lehetne mérni a sebességbeli különbségeket, azaz a 256 bites DDR2 800 MHz memória hogyan viszonyul a 128 bites GDDR3 1600 MHz-es memóriához, ha a GPU ugyanaz. Valószínűleg ez a teszt csak álom marad, mert Európába nem került az utóbbi kártyából.

Azóta történt