Hirdetés

Egy kis kedvcsináló

Nem nagyon szoktam "demózni", de most... most miért ne?
gondoltam adok egy kis ízelítőt a következő készülő cikkemből, ami amúgy elég sokára fog megjelenni, aminek az az oka, mert már van jó előre néhány cikkem betárazva, de a lényeg, hogy hamarosan lesz egy ilyen is, ennek egy részletét szeretném közzé tenni
, s mint egy jó sorozat, pont a legizgalmasabb részénél lesz vége :)

Játszuk le újra: HD 2900XT (Crossfire) vs. Geforce 8800 Ultra (SLI)

Ki ne szeretné a nagy benzinzabáló V8-as motorral rendelkező hombár amerikai autókat? A többség úgy gondolom igen. Van azokban az autókban valami megfoghatatlan, valami ami rabul ejt. Aki nem (csak) az autókért rajonganak, hanem a számítógépes hardverekért, azoknak a tetemes része rajong az ex-csúcs kategóriás VGA kártyákért. S ha párhuzamot kellene hozni a benzin zabáló amerikai autók, és a 10-15 évvel ezelőtt lévő csúcs VGA kártyák között, bizony lehetne párhuzamot találni. Hiszen mindegyik zabál de nem feltétlenül megy úgy, mint egy versenyautó. Sok esetben megalomán méretek, és a spórolás jegyei semmiképp sem fedezhetőek fel.

Természetesen én is rajongok a már letűnt korok csúcs VGA kártyáikért, és ha nem is vagyok fanatikus gyűjtő, de azért egy kicsit mégis fanatikus gyűjtő vagyok. Így az elmúlt év(tized) alatt amennyire engedte a költségvetésem, igyekeztem pár ékesebb példányt beszerezni.

Ilyen az eme tesztem főszereplői is, a HD 2900XT, és a Geforce 8800 Ultra.
ezeket a kártyákat azért is kedvelem kifejezetten, mert úgy gondolom, hogy ezek a VGA kártyák voltak a mai aktuális modern kártyáknak az első képviselő, tehát a mai modern kártyák eme cikkem főszereplőivel jelentek meg a piacon. Ez annak is köszönhető, míg korábban a GPU-k külön tartalmaztak pixel, és vertex árnyalókat, úgy addig ezeknél a kártyáknál, jelent meg elsőként az úgynevezett unfield shader rendszer, vagy magyarosabban az általános Shader rendszer, amik úgynevezett Stream processzorokat tartalmaztak, vagy ma kicsit divatosabban CUDA magoknak hívunk, igaz eleinte az Nvidia, és az AMD még némileg eltérő megoldást használt.
Fontos megjegyeznem, hogy igaziból itt beszélhetünk először hivatalosan is AMD VGA kártyákról, hiszen ez volt az első széria, ami már nem ATI néven futott, mert az ATI-t felvásárolta az AMD.
Továbbá azért is volt óriási mérföldkő a Radeon HD 2900XT, mert itt debütált elsőként a VLIW architektúra, amit egészen a Radeon 7000-es szériáig reszelgettet az AMD.
A 2007 májusában megjelent Radeon HD 2900XT-ben 64 komplex, és 256 egyszerű Shader processzor van, tehát összesen 320db. memóriából 512MB GDDR3 került felhasználásra, ám létezik 1GB-os verzió is. És ezek a memóriák akkori szemmel nézve (és mai szemmel nézve is)döbbenetes 512bites buszon kapcsolódik az R600-as nevű, 80nanométeres csíkszélességgel készült GPU-hoz. Grafikus API-ból elsőként itt volt támogatott az AMD oldaláról a Directx 10.

A cikkem másik főszereplője a Gefoce 8800 Ultra, ami szintén 2007 májusában jelent meg. Ez a kártya lényegében nem más, mint még a 2006 novemberében megjelent Geforce 8800 GTX húzott verziója, amire sokáig semmilyen válasza nem volt az AMD-nek. Amikor nagy nehezen sok-sok csúszás után piacra került a Radeon HD 2900XT, ami messze nem hozta a tőle elvártakat, gondolta az Nvidia milyen jó kis fricska lesz, ha ő pedig kiadja a még brutálisabb teljesítményű 8800 Ultrát. Jó persze hivatalosan biztosan nem ezért került a piacra az abszolút csúcs Ultra, de én ezt a teóriát szőttem a sztori mellé. Szóval 8800 Ultra. A 90 nanométeres csíkszélességgel készült G80-as GPU 128 Stream processzort tartalmaz, amely jóval kevesebbnek tűnik mint a Radeon 320 egysége, ám itt nem volt külön bontva egyszerű, és komplex felállásra, továbbá a Stream processzorok órajele a GPU órajelének a dupláján futottak. a GPU mellé 768MB GDDR3 memória lett párosítva, ami 384 bites memória buszon tudott kommunikálni a GPU-val. grafikus API-ból ahogy a Radeonnál, úgy itt is (elsőként) lett támogatott a Directx10. Emlékszem, mikor megjelent a Geforce 8-as széria, büszkén hirdették, hogy Directx 10-es support is van, csak épp hónapokig nem volt hozzá játék, ami ezt ki is használta volna.
Fontos újítása volt még a Geforce 8800 Ultrának, hogy az Nvidia hivatalosan ezeknél a kártyáknál engedélyezte a 3 utas SLI támogatását, igaz ezt később a Geforce 8800GTX is megkapta.

Ahogy fentebb már pedzegettem, a Radeon HD 2900XT nagyon nem váltotta be a hozzá fűzött reményeket. Eredetileg a Geforce 8800GTX-el egy szintre várták a teljesítményét, ám valójában a 320MB-os és a 640MB-os Geforce 8800GTS-ek szintjét hozta, persze azoknál drágább volt, és brutálisan sokat is fogyasztott. A 8800 Ultra előnye behozhatatlan volt.

Ebbe cikkbe azért vágtam bele, mert arra voltam kíváncsi, hogy vajon a korabeli játékok, és vagy a korabeli driverek (esetleges kiforratlansága) is okozhatta-e a várakozásokat alul múló teljesítményt? Így hát elővettem két Radeon HD 2900XT-t, és a megjelenés után 5 évvel későbbi driverrel, illetve a megjelenés utáni 5-8 évvel későbbi játékokkal leteszteltem.
Természetesen úgy teszt a teszt, ha a korábbi kihívóját is megkapják a Radeonok. Igaziból Geforce 8800GTX lett volna a leginkább hozzáillő a 2900XT-hez, ám abból sajnos 100%-osan működőképes egy sincs a birtokomban, pláne nem kettő. Ám 8800 Ultrából akad, így hát azok kerültek a tesztbe.

A tesztbe elég sok játékot beválogattam, a 2007-es Call Of Juarez (Dx10-es patch-el) és a 2008-as Far Cry 2 azért került be a tesztemben, mert ezek a játékok a VGA kártyákkal nagyjából egy idősek, illetve csak kicsivel újabbak. A Mafia 2 amolyan köztes pontként szerepel a régebbi, és újabb játékaim között, hiszen ez a játék 2010-ben jelent meg, illetve igyekeztem minél újabb játékokat beválogatni a tesztbe, amik még elindulnak a Radeon HD 2900XT-n és a Geforce 8800 Ultrán egyaránt, így beválogattam a 2013-as Tomb Raider, a 2013-as Metro List Light, és a szintén 2013-as Batman: Arkham Origins-et, továbbá a már 2014-ben megjelent Grid: Autosportot

Tovább a fórumba.