Hétindító: 15 év - 15 csúcskártya!

  • (f)
  • (p)
Elemzés – Írta: | 2011-05-16 12:00

Avagy vitrinem tartalmának bemutatása és tesztje egy gigantikus cikkben.

Kulcsszavak: . nvidiatesztgyűjteménygeforcegtxultra

[ Új teszt ]

Bevezető

Üdv minden érdeklődőnek!

Talán többen tudjátok, hogy elég régóta foglalkozom VGA kártyák gyűjtésével. Kezdetben vegyesen gyűjtöttem 3dfx és NVIDIA kártyákat, mindenféle korlátozás nélkül, ám hamar rájöttem, hogy az ilyen koncepció nélküli gyűjtögetés nem igazán vezet célra: sose lehet teljes a gyűjtemény. Később átálltam kizárólag 3dfx kártyák gyűjtésére, és azt hiszem elég szép mennyiséget sikerült felhalmoznom belőlük. El is érkeztem egy határhoz, ami után itthon már nem nagyon volt fellelhető olyan 3dfx kártya, amivel még nem rendelkeztem volna, a ritkább darabokat pedig külföldről kellett volna behozatni, amihez nem fűlött a fogam (meg a pénztárcám). Ez sem vált be tehát, így a 3dfx kártyák gyűjtésével is felhagytam. Ezután kisebb szünet következett, de úgy éreztem: ideje visszatérnem a "gyökereimhez", hiszen hozzám mindig is az NVIDIA kártyák álltak igazán közel. Egy viszonylag könnyen megvalósítható koncepciót határoztam meg: minden NVIDIA generációból összegyűjtöm az adott széria legerősebb kártyáját. Ez meghatároz egy pontos listát, amin végig kell haladni, és kezelhető mennyiségű kártyahalmazt eredményez, amit nem dobozokban elzárva kell tartani, hanem szépen ki lehet állítani őket egy vitrinbe. Ezek a kártyák egytől-egyig olyanok, amikről megjelenésük idején sokan álmodoztak, de csak kevesek engedhették meg maguknak. Beszerzésük mára ritkaságuk miatt kissé nehézkessé vált, főleg amiatt, hogy kizárólag működőképes darabok érdekeltek. Végül nem úsztam meg, hogy egy-két kártyát külföldről szerezzek be, de a tervem sikerült: összeszedtem az NVIDIA elmúlt 15 évének 15 csúcskártyáját.

Tudom a cikk kicsit megkésett, hiszen igazából 2010-ben volt az első NVIDIA kártya 15. születésnapja, de talán ezt a kis malőrt elnézitek nekem. Mivel ezeknek a kártyáknak nem készítettem külön honlapot (hiszen ahhoz azért kevesen vannak), de mégis be szerettem volna mutatni őket a nagyközönségnek, ezért úgy döntöttem, hogy itt a Logout-on publikálok róluk egy bemutatót a korábbi oldalaimon megszokott minőségű fotókkal, valamint a végén egy kis összehasonlító teszttel. Vágjunk is bele, haladjunk végig mind a 15 csúcskártyán, melynek során egy kis történeti áttekintést is kapunk a PC-s 3D gyorsítás fejlődéséről. Előre szólok: nem lesz rövid a cikk, így aki végigolvassa, az igazi fanatikusnak mondhatja magát :)

1995 - NV1

Az NVIDIA céget 1993-ban alapították, első termékük pedig 1995-ben jelent meg, és mára a múlt homályába veszett, csak kevesen tudják, hogy egyáltalán létezett. A hivatalos termékmegnevezést nem kapott, így csak kódnevén emlegetett NV1 komplett multimédiás szolgáltatást kínált: egyetlen kártyán tartalmazott 2D és 3D gyorsítót, hangkártyát, valamint játékportot és speciális, SEGA Saturn játékvezérlőhöz való csatlakozást. A maga idejében meglehetősen korszerűnek és sokoldalúnak mondható kártya mégsem lett sikeres, ennek fő oka pedig (meglehetősen borsos ára mellett) a 3D gyorsítás kivitelezésében keresendő. Bármilyen hihetetlen, ekkoriban, amikor a PC-s 3D grafika még igencsak gyerekcipőben járt, egyáltalán nem volt eldöntött és elfogadott dolog az a manapság teljesen alapvetésnek számító tézis, miszerint egy 3D gyorsítónak háromszögekkel kell dolgoznia. Az ezt szabványosító DirectX még nem jelent meg, az NVIDIA pedig egy - akkoriban - jobb ötletnek tűnő megoldáshoz folyamodott: a Quadratic Texture Mapping névre hallgató eljárás négyszögekkel számolt. Emiatt egy adott komplexitású modellt sokkal kevesebb kalkulációval tudott kiszámolni, vagyis a megoldás nem lett volna teljesen életképtelen, ám amikor a Microsoft a nem sokkal később megjelenő DirectX-ben a háromszögekkel való számolást nevezte meg szabványként, az NV1 sorsa megpecsételődött, hiszen senki sem akart olyan kártyát venni, ami nem kompatibilis a DirectX-el. Az NV1 3D gyorsító képességeit csak meglehetősen kevés játék képes kihasználni, ezek többnyire SEGA konzolokról portolt alkotások, hiszen a SEGA Saturn játékkonzol az NV1-hez nagyon hasonló elven állította elő a 3D-s grafikát. Így kaphattak NV1 támogatást például a Virtua Fighter, Virtua Cop, Panzer Dragon nevű játékok, valamint ide sorolható még a Papyrus-féle Nascar Racing sorozat első része is. A DirectX megjelenése után új játékokat már nem fejlesztettek rá, ami egyenlő volt a kártya halálos ítéletével. Ám azt is hozzá kell tenni, hogy maga a hardware sem volt kellően gyors ahhoz, hogy egy modernebb processzort számottevő mértékben segítsen a 3D-s grafika előállításában, a 12 MHz-es órajelen dolgozó chip teljesítménye ugyanis egyszerűen nem volt elég ehhez. Példaként az alább látható Diamond kártyámhoz mellékelt Nascar Racing játékot említeném, amit kipróbáltam egy korhű Pentium 1-es gépben, és semmivel sem volt szebb vagy gyorsabb NV1 gyorsított módban, mint software-es rendereléssel, igaz legalább elindult Windows 95 alól is, amire a software-es verzió nem volt hajlandó. Mondjuk egy gyengébb 486-os processzor esetében talán már lenne különbség. A chipnek két változata létezett: az STG2000 névre keresztelt olcsóbb változat DRAM, míg az NV1 nagyobb teljesítményű VRAM memóriamodulokat használt. Az NV1 technológiáját alkalmazó NV2 projectről nem sokat tudni: az NVIDIA a SEGA-val együttműködve eredetileg a Dreamcast konzolhoz készítette volna, de a SEGA végül elállt a projecttől, és a PowerVR-től rendelte meg a grafikus magot a Dreamcast-hez, így az NV2 sosem jelent meg.

A kártya: Diamond Edge 3D 3240

Az NV1-re épült legelterjedtebb (lényegében az egyetlen fellelhető) termékvonal a Diamond Edge 3D sorozat volt. Ezek közül sajnos csak a második legerősebb 3240-esre sikerült szert tennem. A csúcsmodell, a 3400-as csak annyiban különbözik ettől a kártyától, hogy 2 helyett 4 MB memóriát kapott, egy memóriabővítő modul segítségével, ami a kártya jobb felső sarkában található csatlakozókba illik. Ilyet manapság szinte lehetetlen szerezni, de ha valakinek mégis lenne eladó, az jelezze, mert vevő lennék rá. A kártyán első pillantásra látszik, hogy meglehetősen sok alkatrészt tartalmaz, így előállítása nem lehetett túl olcsó. Az NV1, és a hozzá tartozó RAMDAC chip mellett az integrált hangkártya vezérlőjét találjuk, melyet az Analog Devices szállított. Hangminősége felejthető. A 2 MB memóriát 4 db VRAM modul alkotja. A csatlakozók között a D-SUB kimeneten kívül a hangkártya ki-és bemeneteit, és egy RJ45-ös aljzatot találunk, ide azomban nem hálókábelt kell dugni, hanem egy adapter segítségével gameport csatlakozóvá alakítható. A SEGA gamepad csatlakozói külön kártyahelyre szerelhetőek, az ehhez szükséges tüskesort a kártya tetején láthatjuk. A nyák kidolgozása egyébként nem egy végleges kialakítású, kiforrott termék benyomását kelti, mert például utólag felforrasztott vezetékek találhatók rajta itt-ott, ami nem házi barkácsolás, hiszen az általam korábban birtokolt másik 3240-esen is ugyanott voltak.

1997 - Riva 128 ZX

Az NVIDIA első DirectX kompatibilis 3D gyorsítója az NV3 kódnevű chipre épülő Riva 128 volt. Megjelenése kisebb meglepetést okozott, hiszen az NV1 kudarca után hosszú ideig nem hallatott magáról a cég, a Riva 128-al viszont egy meglehetősen korszerű termékkel jelentkeztek. Ekkoriban még minden gyártó próbált a DirectX mellett egy saját API-t is elterjeszteni, például a 3Dfx a Glide-ot erőltette, ám az NVIDIA-nál úgy határoztak, hogy nem fejlesztenek saját környezetet, hanem kizárólag a DirectX-re fognak támaszkodni. Mint később kiderült, ez helyes döntésnek bizonyult, hiszen a Microsoft által fejlesztett és támogatott DirectX hamar kiszorította a többi egyedi API-t a piacról. A Riva 128 egyetlen, méghozzá meglehetősen kompakt magban ötvözte a 2D és 3D gyorsítót, valamint a RAMDAC-ot is, emiatt előállítása gazdaságos volt, ami jó hatással volt a rá épülő kártyák árára. Memóriabusza 128 bites volt (innen ered a termék neve is), és 4 MB (többnyire SGRAM) modult használt. Elsők között támogatta az AGP szabványt, ám természetesen létezett PCI-os változata is. Sebességre gyorsabb volt a korabeli slágertermék 3Dfx Voodoo Graphics kártyánál, ám a képminőséget tekintve erős lemaradásban volt. Egy Riva 128 3D alatt előállított képén a szűrések-elmosások szinte teljes hiányát fedezhetjük fel. Életem első 3D-s kártyája egy Diamond Viper V330 volt így jól ismerem a jelenséget, ami például a füst, vagy hasonló effektek kockásodásában jelentkezett. Na persze akkoriban még örült az ember, ha nem software-es rendereléssel kellett futtatnia a játékokat, és az ilyen apróságokon nem igazán akadtunk fenn. Később megjelent a 8 MB memóriát támogató, valamint megnövelt órajelű RAMDAC-al rendelkező Riva 128 ZX, ám ez a nagyobb felbontások támogatásán kívül érdemi előrelépést nem jelentett.

A kártya: ASUS V3000ZX Deluxe

A kártyára rápillantva rögtön látszik, hogy igencsak kis méretű, kompakt darab, pedig ez a modell az ASUS V3000-es sorozatának csúcsa, a ZX Deluxe változat, mely 8 MB memóriát és VIVO funkciót kapott. Ez azt jelenti, hogy a Riva 128 ZX chip, és a 4 db SGRAM memóriamodul mellett a video ki- és bemenet vezérléséért felelős Chrontel CH7002D-V és Philips SAA-7111A típusú chipeket is el kellett helyezni a nyákon. A hűtést egy aprócska alumínium bordára bízták, ami bőségesen elegendő, egyáltalán nem melegszik át vészesen. Dicséretes módon rugós pöckökkel rögzítették, így könnyen eltávolítható, és szemrevételezhető a Riva 128 ZX chip. Csatlakozóból a D-SUB aljzat mellett ki- és bemeneti oldalon is rendelkezésre áll S-Video és kompozit is. A jelformátum (PAL/NTSC) jumperekkel szabályozható, sőt teljesen ki is kapcsolhatjuk a TV kimenetet (hogy ennek mi értelme van, azt nem tudom).

1998 - Riva TNT

Az NVIDIA második DirectX kompatibilis 3D gyorsítójának elnevezése arra utal, hogy immár két pixel pipeline-al rendelkezik: TNT - T(wi)N T(exel). Annak ellenére, hogy bemutatása késett, és teljesítménye is kisebb lett az előzetesen ígértnél (mert a chip órajelét csak 90 MHz-re sikerült belőni, pedig már a Riva 128 is 100-on járt), a TNT mégis jó esélyekkel indult, hiszen a 3dfx ekkoriban a már meglehetősen korszerűtlen felépítésű, és csak 3D-s társkártyaként üzemelő Voodoo 2-t, valamint a nem túl nagy népszerűségnek örvendő Banshee-t kínálta, így az NVIDIA egérutat nyerhetett. Persze ebben a versenyképes sebesség mellett az is nagyban körzejátszott, hogy szolgáltatások terén túlszárnyalta konkurensét. A 128 bites memóriabuszra 16 MB SDRAM vagy SGRAM modul csatlakozhatott (igaz egyes gyártók 8 MB-os változatot is készítettek). A TNT már támogatja a 32 bites színmélységben történő renderelést, valamint a DirectX 6-ban megjelent újításokat. Kijavították a Riva 128 gyermekbetegségeit is, így a képminőség minden szempontból kifogástalan volt. Ezen kívül volt még egy terület, ahol az NVIDIA igencsak erőssé vált: a TNT-hez írt driver, mely a Detonator nevet kapta (kis szójáték ismét), kiváló stabilitásáról és gyorsaságáról volt híres, és ezzel megalapozta az NV driverek azóta is tartó pozitív megítélését. A TNT chipnek mindössze egyetlen változata létezett, hiszen ekkoriban még nem volt olyan széles a termékpaletta, mint manapság. Az olcsóbb kártyára vágyóknak a továbbra is gyártásban lévő Riva 128 ZX-et kínálta az NVIDIA.

A kártya: ASUS V3400TNT Deluxe

Az ASUS kártyája talán a legminőségibb (és egyben, valószínűleg korabeli meglehetősen borsos ára ellenére, érdekes módon az egyik legelterjedtebb) TNT-re épülő kártya. Létezett SDRAM és SGRAM memóriamodulokkal szerelt változatban is, és míg korábbi gyűjteményemben egy SDRAM-os változat szerepelt, most egy SGRAM-os kártyára sikerült szert tennem. Lényegi különbség nem hiszem hogy van a teljesítményben, hiszen mindkét kártya esetében a referencia ajánlás szerinti 110 MHz-en járnak a memóriák, ám az SGRAM modulok késleltetése elvileg jobb. A Deluxe változat természetesen VIVO funkciót is kapott, S-Video és kompozit csatlakozókkal. Ismét dicséret illeti az ASUS-t a hűtés kivitelezéséért, hiszen pöckökkel rögzítették, így roncsolás nélkül eltávolítható a kártyáról. Ezt azért emelem ki itt is (ahogy az előző oldalon a Riva 128-nál is), mert az ekkoriban elterjedt szokás még inkább az volt, hogy a hűtőt egyszerűen ráragasztották a chipre, és nem lehetett eltávolítani, ami az én szememben mindenképpen hátrányt jelent. A TNT-re aktív hűtést szerelt az ASUS, pedig a korabeli gyártók nagy része még passzív bordát alkalmazott. A ventilátor golyóscsapágyas, így megszorulásától nem kell tartani, ám idővel a csapágyazás kiszáradása miatt meglehetősen hangossá tud válni. Ez szerencsére az én kártyám esetében még csak kis mértékben következett be, így ez a V3400-as még elviselhető hangerő mellett üzemel. A nyákra pillantva látszik, hogy mérete megnövekedett a Riva 128-hoz képest, ám nem túlzsúfolt, hiszen a VIVO funkció miatt szükséges, átlagosnál nagyobb alkatrészmennyiség is kényelmesen elfér rajta. A video bemenetért továbbra is a Philips SAA-7111A, a kimenetért pedig a Chrontel CH7003B-V típusú chip felelős. A 8 db SGRAM memóriamodul is sok helyet foglal el, ám így is szépen elférnek, nem kellett egyetlen alkatrészt sem a hátoldalra száműzni. A kártyával kapcsolatban érdemes még megjegyezni, hogy a dátumkód szerint 1999 29. hetében készült, vagyis meglehetősen későn, hiszen ekkor már a TNT2-es kártyák is gyártásban voltak.

1999 - Riva TNT2 Ultra

A második generációs TNT széria elődjéhez képest nem sok újítást hozott, inkább a sebességre gyúrtak rá. Maradt a 2x1-es pipeline felépítés, és a 128 bites memóriabusz, a teljesítmény mégis érezhetően nőtt, hiszen a fejlettebb gyártástechnológiának köszönhetően nagyobb órajelek elérésére volt lehetőség. Emellett a maximálisan alkalmazható memória mennyiségét 32 MB-ra növelték, és a TNT2 volt az első NVIDIA kártya, ami támogatta a 4x-es AGP szabványt. Ezen kívül nem is volt szükség különösebb fejlesztésekre, hiszen szolgáltatások tekintetében a TNT2 még mindig a konkurens Voodoo 3 előtt járt, az S3 Savage 4 pedig sebességben nem tudta felvenni vele a versenyt. Míg az első TNT-ből mindössze egyetlen változat készült, a TNT2-es termékpaletta sokkal szélesebb volt. A felsőbb kategóriákban 3 modellt kínált az NVIDIA: A TNT2, a TNT2 Pro, és a TNT2 Ultra csak órajeleikben tértek el egymástól. Gondoltak a kevésbé tehetős vásárlókra is: nekik a TNT2 Vanta és TNT2 M64 (Model 64) kártyák készültek, melyek közös tulajdonsága a 64 bitesre butított memóriabusz volt. Emiatt ezeknek a kártyáknak a teljesítménye jelentősen elmarad a nagyobb TNT2-esekétől, többnyire az előző generációs TNT sebességét hozzák. Viszont, mivel olcsó kártyák voltak, elég szép számban fogytak. A Vantákat és az M64-eket többnyire 16 MB memóriával szerelték, de persze léteztek belőlük 32 MB-os változatok is, sőt Vanta LT néven 8 MB-os kiadás is készült. A TNT2 M64 meglehetősen sokáig forgalomban maradt, egyes noname márkák még 2002-ben is gyártottak ilyen chippel szerelt kártyát a "mindegy milyen, csak képet adjon" alapon válogató vásárlók számára.

A kártya: ASUS V3800 Ultra Deluxe

TNT2 Ultrát nagyon nehéz szerezni, hiszen újkorában méregdrága volt, így kevesen engedhették meg maguknak. Nekem egy ASUS kártyára sikerült szert tennem, ami első pillantásra az előző oldalon bemutatott TNT szakasztott másának tűnhet. Jobban szemügyre véve persze hamar észrevesszük, hogy a TNT2-esen sokkal több alkatrész található. Ez részben annak köszönhető, hogy ez a kártya támogatta először az ASUS VR100 3D-s szemüveget, az ennek vezérléséhez szükséges alkatrészeket a nyák jobb felső sarkában találjuk. A szemüveg működéséhez egy minimum 100 Hz-es képfissítési frekvenciára képes CRT monitorra volt szükség (LCD monitorokkal nem működik). A technológia azon az elven alapult, hogy a kártya a megjelenített képet frissítésenként eltolta kicsit balra, illetve jobbra, a szemüveg pedig ezzel szinkronban kitakarta a jobb, illetve a bal szemünket. Könnyen látható a megoldás hátránya: gyakorlatilag megfelezi a képfrissítési frekvenciát, vagyis egy 100 Hz-en üzemelő monitor esetén a szemüveg 50 Hz-en fog villogni közvetlenül a szemünk előtt. Ez semmiképp nem tesz jót a látásnak, sőt szédülést, fejfájást is okozhat az erre érzékenyek esetében. Jómagam mindössze egyszer próbáltam ki a szemüveget, és kb 10 percig bírtam használni. Az ASUS mégis sikeresnek ítélte meg ezt a szolgáltatást, hiszen ugyanezt a 3D szemüveget mellékelték egészen a GeForce 4-es szériáig minden Deluxe kivitelű ASUS videokártyához. A 3D-s szemüveg jack aljzata miatt fel kellett áldozni az egyik kompozit csatlakozót: a bemeneti oldalon már csak S-Video áll rendelkezésre. A 8 db SGRAM memóriamodul immár 32 MB memóriát alkot. A megnövekedett alkatrészmennyiség ellenére továbbra sem volt szükség a hátoldalra helyezni bármit is. A hűtés sem sokat változott: a borda felülete kicsit megnőtt, a golyóscsapágyas ventilátort pedig csúszócsapágyasra cserélték, ami újkorában halkabb ugyan, de később hajlamos a megszorulásra. A hűtőt eltávolítva szemrevételezhetjük a válogatott, magas órajeleket bíró TNT2 Ultra chipet. Egy darabka történelem - az első Ultra. Lesz még folytatás...

1999 - GeForce 256 DDR

Elérkeztünk az első GeForce generációhoz, mely egyben igazi mérföldkő volt a 3D gyorsítás történetében, hiszen az első Hardware-es T&L (Transform & Lightning) támogatással rendelkező chip volt, ezzel tehermentesítve a CPU-t a háromszög-koordináták számításának terhe alól. Emiatt GPU-nak (Graphics Processing Unit) is nevezték, ez az elnevezés pedig később az összes videochipre ráragadt. Emellett megduplázták a pixelfutószalagok számát, így a GF256 már 4 pipeline-al rendelkezik. A memóriabusz maradt 128 bites, viszont lehetőség nyílt DDR memóriamodulok használatára, amivel a sávszélesség a duplájára nőtt. Természetesen a DDR memóriák ára ekkoriban még igencsak borsos volt, ezért készült egy hagyományos SDR memóriákat kezelő változat is az első GeForce-ból. Ám még így sem volt túl kedvező árú termék, emiatt nem is igazán terjedt el, hiszen nem készült belőle olcsóbb, alsókategóriás változat. Ráadásul az NV10 kódnevű chip (korabeli léptékek szerint) sok hőt termelt, emiatt órajelét csak 120 MHz-re tudták belőni, ami azt eredményezte, hogy az SDR-es változat bizony nem igazán tudott egyértelmű előnyre szert tenni az előző generációs TNT2 Ultrával szemben a HW T&L-t nem támogató játékok esetében. Az első GeForce generáció egyvalamire volt jó: bebiztosította az NVIDIA technológiai elsőségét a 3D gyorsítók piacán. Említést érdemel még, hogy az NV10 alapjaira készült az első Quadro kártya a professzionális felhasználók részére.

A kártya: ASUS V6800 DDR Deluxe

Igen, újra egy ASUS kártya. Tudom, gyűjteményem első fele kissé egyhangúra sikeredett, és jómagam is szívesebben látnék itt egy referencianyákos kártyát, ám a GF256 DDR annyira ritka madár, hogy nem igazán volt lehetőségem válogatni. Az ASUS kártyája ugyanis, habár olcsónak éppen nem volt nevezhető, a legelterjedtebb modell volt ebből a generációból. Szolgáltatásai között a már unalomig ismételt VIVO funkció mellett a TNT2 szériában bevezetett 3D szemüveg támogatást, valamint a GPU hőmérsékletének és a hűtőventilátor fordulatszámának monitorozási képességét találjuk. Ez utóbbival is élen járt az ASUS, hiszen ekkoriban még nem tartalmaztak a GPU-k beépített hőszenzort, így egy külön Winbond vezérlőchipre volt szükség ehhez a funkcióhoz. A VIVO vezérlőchipjei is fejlődtek: a bemenetért a Philips SAA7113H, a kimenetért pedig a Chrontel CH7005C-T felel. Bemeneti oldalon S-Video, kimeneti oldalon pedig kompozit csatlakozó is rendelkezésre áll. A GPU hűtését ismét egy csúszócsapágyas ventilátorra bízták, mely immár háromeres kábellel csatlakozik a nyákhoz, hiszen fordulatszámmérő is van benne. A fordulatszám szabályzására viszont nem képes, állandóan maximális sebességgel jár. A hűtést eltávolítva láthatóvá válik az NV10-es GPU, mely hőelosztást segítő fémbetétet (heatspreader) kapott. Megfigyelhető rajta a "DDR" felirat is, ugyanis az eltérő memóriavezérlő miatt kétféle GF256 GPU-t kellett gyártania az NVIDIA-nak. A 32 MB memória 8 db DDR-SGRAM modulból áll, melyek közül 4 db a kártya hátoldalára került. Bár tisztelem ezt a kártyát a szolgáltatásai miatt, tény hogy meglehetősen unalmas kinézetű, így a vitrinemben szívesebben látnék mondjuk egy Creative vagy egy ELSA márkájú GF256 DDR kártyát. Ha valakinek van esetleg ilyen eladó, az kérem jelezze!

2000 - GeForce 2 Ultra

Az első GeForce meghozta a technológiai fölényt az NVIDIA-nak, ám apróbb hibái (és főleg magas ára) miatt nem lett igazán sikeres, elterjedt termék. A második generációnál igyekeztek kiküszöbölni a legtöbb csorbát, és egy igazán ütős termékpalettát létrehozni. Kezdetnek mindjárt egy csúcskártya, a GeForce 2 GTS jelent meg, mely nevét onnan kapta, hogy elsőként érte el az 1 GigaTexel-es fillrate-et (GTS = Giga Texel Shader). Ezt az órajelek növelésén kívül egy második TMU egység hozzáadásával érték el pipeline-onként, így a felépítés 4x2-es lett. Emellett a GF2 GTS-ek kizárólag DDR memóriákkal kerültek forgalomba. A GPU mégis elsősorban memória sávszél limitált lett, ezért a később megjelent emelt órajelű kiadások: a GeForce 2 Pro és a méregdrága GeForce 2 Ultra elsősorban ezen a téren erősítettek. Természetesen a középkategóriát sem hagyták érintetlenül, hiszen a vásárlók többsége nem engedheti meg magának a csúcskártyák megvásárlását. Nekik a GeForce 2 MX szériát szánta az NVIDIA, ami meglehetősen kedvező fogadtatásra talált, hiszen elérhető áron kínálta a Hardware-es T&L funkciót. Az MX-ekben 4 helyett csak 2 pipeline található, ám megmaradt a pipe-onkénti 2 TMU egység. Ezen kívül a drága DDR memóriák helyett SDR modulokat alkalmaztak rajtuk. Az eredeti utótag nélküli GeForce 2 MX-et hamar váltotta a vele azonos órajeleken járó, ám többnyire 64 bites memóriabusszal szerelt MX 200, és az emelt órajelű MX 400. A GeForce 2-es széria életciklusának vége felé, a GF3-asok megjelenésével bemutatták a GeForce 2 Titanium modellt, melyet már csökkentett csíkszélességgel gyártottak, így előállítása gazdaságosabb volt, mint a GTS-eké, órajeleit tekintve pedig majdnem az Ultra szintjét hozta.

A kártya: referencia GeForce 2 Ultra (EVGA)

Íme az újkori árát tekintve az egyik legdrágább, de mindenképpen a legritkább kártya az ebben a cikkben bemutatott sorozatból: a GeForce 2 Ultra. Ez a konkrét példány az USA-ból került Magyarországra. Az EVGA terméke valójában egy referenciakártya. Megfigyelhető rajta a hivatalos "NV green" színben pompázó referenciahűtés, ami meglehetősen vegyes képet mutat: a jó minőségű golyóscsapágyas ventilátor egy bordának alig nevezhető fémlemezt fúj, melynek hőátadó felülete minimális. Sajnos, bár rugós pöckök is rögzítik, ráragasztották a GPU-ra, méghozzá olyan erősen, hogy roncsolás nélkül nem lehetett volna eltávolítani. Ezért ez az egyetlen kártya a gyűjteményemben, aminek nem tudtam meglesni a GPU-ját, de valami ilyesmit lehetett volna látni:

A memóriák szintén ragasztással rögzített hűtőbordákat kaptak. A kimeneket között DVI, valamint TV-Out is helyet kapott. Ehhez fűződik a refnyákos nagy GF2-esek érdekessége, a TV-Out modul. Erre azért volt szükség, mert a sok alkatrész miatt már nem maradt hely a nyákon a TV-Out vezérlő chipnek, ezért külön nyáklapra helyezték (persze a nem refnyákos kártyáknál a gyártók simán el tudták helyezni ezeket az alkatrészeket külön modul nélkül is, de hát szeretjük a különleges megoldásokat). A kisebb túlzsúfoltságot a nagy mennyiségű tápellátó alkatrész okozza, melyek egy része a hátoldalra került. Ennek ellenére a kártya összhatása igényes és szép.

2001 - GeForce 3 Ti 500

Az NV20 kódnevű GPU-ra épülő GeForce 3 széria megjelenését hatalmas várakozás előzte meg, hiszen ez volt az NVIDIA első DirectX 8-at támogató terméke. A programozható pixel és vertex shaderek segítségével addig soha nem látott grafikai részletességű játékokat lehetett készíteni. Az NV20 megtartotta a GeForce 2-esek 4x2-es pipeline konfigurációját, a tranzisztorszám mégis több mint a duplájára nőtt, emiatt a fejlettebb (immár 0,15 mikronos) gyártástechnológia ellenére sem lehetett olyan magas órajeleket elérni vele, mint az előző generáció csúcskártyái esetében. A memóriabusz maradt 128 bites, és természetesen DDR memóriamodulokat alkalmaztak az összes GF3 kártyán. Az elsőnek bemutatott utótag nélküli GeForce 3 modellt hamar leváltotta a csökkentett órajelű Titanium 200, valamint az emelt órajelű Titanium 500. A GF3 széria ennél több tagot nem is számlált. A középkategóriában a GeForce 2 Ti kártyákat, az alsó szegmensben pedig továbbra is a GF2MX-eket kínálta az NVIDIA.

A kártya: Leadtek WinFast GeForce 3 Ti 500

A Leadtek Ti 500-asa első pillantásra kissé unalmas kártyának tűnhet, zöld nyákjával és szürke hűtőbordájával nem vonzza magára az ember tekintetét. Pedig ha alaposabban szemügyre vesszük, láthatjuk hogy kiváló minőségű kártya ez. Az alkalmazott hűtőborda a legnagyobb, amit GF3 kártyán valaha láttam, a többi gyártó ennél jóval kisebb hűtéseket készített. A borda egyetlen darabból áll, és rugós pöckök rögzítik a kártyára, emellett pedig a kártya felső élénél kicsit a hátoldalra is átlóg, ami pontos rögzítést eredményez, és hozzájárul ahhoz, hogy a memóriamodulokkal is tökéletesen érintkezzen. Precíz, elegáns megoldás. Az alkalmazott ventilátor lehetne nagyobb is, ám ennyi év elteltével is példás csendben teszi a dolgát. A 64 MB memória 8 db DDR modulból áll. A kártya DVI csatlakozót és TV kimenetet is kapott. Összességében elmondható, hogy a Leadtek kártyája a GF3 szériából az egyik legjobb választás volt akkoriban.

2002 - GeForce 4 Ti 4600

A negyedik GeForce generáció csúcskártyáin dolgozó NV25 kódnevű GPU lényegében a GeForce 3-asok alapját képező NV20 ráncfelvarrott változata volt. Újdonság volt az 1.3-as Pixel Shader verzió támogatása, ám ekkoriban volt némi kavarodás a DirectX verziók körül, így nem lehet teljes mértékben DirectX 8.1-esnek nevezni a GF4-eseket, hiszen az 1.4-es Pixel Shader verziót ír elő. A GPU felépítése alapvetően nem változott sokat: maradt a 4x2-es pipeline felépítés, és a 0.15 mikronos gyártástechnológia is, az órajeleket ennek ellenére sikerült kicsivel feljebb tornászni. Hogy a teljesítménytöbblet mégis jelentősebb legyen, mint amit egy puszta túlhajtással el lehet érni, a GPU kapott egy második Vertex Shader egységet. A GeForce 4 Titanium család kezdetben háromtagú volt: a csúcsot a Ti 4600 képviselte, mely eddig sosem látott méretű nyákot, és BGA tokozású DDR memóriákat kapott, mégpedig 128 MB-ot. A középső Ti 4400 csak órajeleiben tért el a csúcsváltozattól, de megkapta annak masszív felépítését, így könnyűszerrel túlhajtható volt a nagytestvér szintjére (sőt, tovább). Az igazi slágertermék mégis a legkisebb modell, a Ti 4200 lett, méghozzá kiváló ár/teljesítmény aránya miatt. A 4200-asok olcsóbb, TSOP tokozású memóriákat kaptak (64 vagy 128 MB méretben), és a nyák mérete is kisebb lett, de ennek ellenére a teljesítményük bőségesen elég volt a korabeli legújabb játékokhoz is. Az NV25-ről még annyit érdemes megjegyezni, hogy módosított változata (NV2A kódnéven) dolgozott az első generációs XBOX játékkonzolban.

Természetesen az alsóbb kategóriákban is ideje volt már új terméket bevezetni, hiszen a GF3-as szériának nem volt igazán olcsó változata, GF2-es kártyák pedig már igencsak kiöregedő félben voltak. Az NV17 kódnevű GPU-ra épülő GeForce 4 MX széria mégis inkább ez utóbbi generációhoz áll közelebb: hiányoznak belőle a Pixel és Vertex Shader egységek, tehát csak DirectX 7-es támogatással rendelkezik. Ez viszont annak idején még nem volt akkora hátrány, hiszen DX8-as játékok csak elvétve jelentek meg (és azok is elfutottak a régebbi hardware-en), DX7 alatt pedig hozták a kártyák az alsóközép kategóriában elvárható szintet, és mindemellett az árcédulájukon is barátságos összeg szerepelt. A GF4MX szériának három fő modellje volt: a csúcsot az MX 460 képviselte, amely (legalábbis a referencia ajánlás szerint) BGA tokozású memóriákat és strapabíróbb nyákot kapott. A középső modell, az MX 440 már olcsóbb termék volt, többnyire DDR-SGRAM modulokkal, vagy TSOP tokozású DDR modulokkal szerelték, a legkisebb MX 420-as pedig 64 bites memóriabusszal és SDR memóriákkal rendelkezett. Természetesen idővel megjelent számtalan butított, a referenciaajánlást be nem tartó változat (főleg a noname-ebb gyártók részéről), így összefuthatunk 64 bites memóriabuszú MX 440-el, vagy olcsó memóriákat kapott MX 460-al is. A GF4MX szériának még egy újdonsága volt: elsőként kapott GPU-ba integrált TV-Out vezérlőt, így elhagyhatók voltak a külső partnerek által gyártott chipek, ami a költségcsökkentés mellett a képminőség javulásával járt együtt.

A 8x-os AGP szabvány megjelenésével az NVIDIA elvégezte a kötelező "házi feladatot": bemutatták a GF4 széria 8x AGP-s változatait. A Ti 4200-at a (nem túl fantáziadús nevű) Ti 4200-8x, a Ti 4400-at a Ti 4800 SE, a Ti 4600-at pedig a Ti 4800 váltotta, és az alsó kategóriában is megjelent az új szabvány támogatása az MX 440-8x révén. Fontos megjegyezni, hogy a 8x-os AGP ezeknek a kártyáknak az esetében érdemi sebességnövekedéssel nem járt együtt.

A kártya: ASUS V8460 Ultra Deluxe

Akinek szőrszálhasogatni van kedve, most megjegyezheti: ez nem a GF4 széria csúcsa, hiszen "csak" egy 4600-as, aminél a 4800 (legalábbis papíron) gyorsabb volt. Viszont 4800-asból nem készített az ASUS ilyen gyönyörű, különleges hűtéssel szerelt változatot, és talán nem vagyok egyedül azzal a véleményemmel, hogy a GF4 széria csúcsát, Ti 4800 ide vagy oda, ez a konkrét kártya képviseli. Az ASUS kitett magáért, és minden földi jóval felszerelte legdrágább kártyáját. Kritika talán egyedül a nyák színét érheti: a lila nem épp a legszebb árnyalat, vagy tévedek? De ezért bőségesen kárpótol minket a gyönyörű hűtés, nomeg a Deluxe változat extra szolgáltatásai: a VIVO funkció, és (az ASUS termékek között utoljára) a VR100-as 3D szemüveg támogatása. A hűtésnek nem is igazán a hatékonysága a kiemelkedő (hiszen láthattunk ennél durvább Ti 4600 hűtést például a Leadtek jóvoltából), hanem az az elegancia, ami az összhatást jellemzi. A vörösréz hűtőblokk, az ezzel harmonizáló színű ventilátor, és az angyalszárny motívumos burkolat mind szemet gyönyörködtetőek. Kissé fájó pont, hogy a hátoldali memóriákra csak egy egyszerű rézlemez jutott. Emellett nem túl szerencsés a hűtő felfogatása, hiszen mindössze 2 db rugós pöcök rögzíti a kártyákhoz, emiatt a memóriákkal való érintkezés (főleg a hátoldalon) nem mindig tökéletes. Ennek ellenére a kártya nagyon jó tuningpotenciállal rendelkezik. A hűtés eltávolítása után megszemlélhetjük az NV25-ös GPU-t, és az akkoriban szokatlanul nagy méretű nyákot. A 128 MB memóriát 8 db BGA tokozású Samsung DDR modul alkotja, melyek közül 4 db a kártya hátoldalára került. A nyák nagyrészt a referencia ajánlást követi, az ASUS csak a 3D szemüveg vezérléséhez szükséges alkatrészeket tervezte rá. A kártya képes a GPU és a memóriák hőmérsékletét, valamint a ventilátor fordulatszámát is monitorozni, az ehhez szükséges Winbond vezérlőchip a hátoldalon látható. A csatlakozók között az analóg D-SUB, és az ekkoriban már alapkövetelménynek számító DVI mellett a már korábban említett VIVO-t, és a 3D szemüveg jack aljzatát találjuk. Gyűjteményem legszebb kártyájáról a csillogó hűtés miatt sajnos nem sikerült túl jó képeket készítenem, de azért remélem a lényeg látszik rajtuk: ez a kártya egy lenyűgöző darab. Na persze a kinézete mellett az újkori ára láttán is a földön keresgélték az állukat sokan...

2003 - GeForce FX 5950 Ultra

Nos igen... elérkeztünk ahhoz a generációhoz, amit nevezzünk... khm... nem túl sikeresnek. Az NVIDIA-val kevésbé szimpatizálók inkább hatalmas bukásnak neveznék, de én nem fogalmaznék ilyen drasztikusan. Mondjuk az én véleményem elég elfogult a témában, mivel az én szívemhez mindig is közel állt az FX széria, hiszen életem első csúcskártyája egy FX 5800 volt, ami még a Prohardver tesztlaborját is megjárta anno.

Az FX széria az NVIDIA első DirectX 9-es generációja volt. Az elnevezés eredetére többféle magyarázat lehetséges. Egyes városi legendák szerint ezen a fejlesztésen dolgoztak először a 3dfx felvásárlásakor az NVIDIA-hoz igazolt mérnökök, ezért került a széria nevébe az FX jelölés. Ennél sokkal valószínűbb (és egyszerűbb) magyarázat, hogy az elnevezés az FX széria előremutató képminőségjavító effektjeire utal. Papíron tehát minden szépnek tűnt, akkor mi volt a probléma?

Először is, az NV30 kódnevű GPU-ra épülő GeForce FX 5800 jelentős késés után futott be, és sajnos tervezésekor elkövettek pár hibát, melyek közül a legsúlyosabb a régi 4x2-es pipeline felépítés megtartása, és a 128 bites memóriabusz alkalmazása volt. Ezek a paraméterek nem voltak versenyképesek az ATI Radeon 9700-as és 9800-as modelljeivel. Ráadásul hiába tértek át a 0,13 mikronos gyártástechnológiára, a GPU, valamint az elsőként alkalmazott DDR2 memóriamodulok olyan mennyiségű hőt termeltek, melynek kezelése akkoriban komoly fejtörést okozott a mérnököknek, és lássuk be: a feladatot csapnivaló minőségben oldották meg. Az FX-Flow névre hallgató hűtési megoldás hiába alkalmaz heatpipe-okat, ha nem arra használja azokat, hogy a hőt egy nagyobb bordára vezesse, mint ami a GPU fölött elhelyezhető lett volna. A rézlemezből hajtogatott borda hőátadó felülete túl kicsi, emiatt nagy légáramlatra van szükség, melynek előállítását egy éktelen hangon süvítő, aprócska "blower" ventilátorra bízták. Ezen az sem segít, hogy a kártya 2D módban visszaveszi a ventilátor fordulatszámát, mert még úgy is nagyon erős motorhangja van. Így történhetett, hogy az FX 5800 Ultra minden idők leghangosabb videokártyájaként vonult be a történelembe, amit még az NVIDIA is elismert, és készített egy némi öniróniáról tanúskodó kisfilmet a kártyáról (az általam anno birtokolt kártyán az ABIT egyedi fejlesztésű hűtése dolgozott, ami ennél jóval halkabb volt, bár azért hallani lehetett, de ez akkoriban nem zavart).

Az alsóbb régiókban sem volt sokkal jobb a helyzet. A középkategóriában a 2x2-es pipeline felépítésű FX 5600 volt hivatott az ATI 9600-as szériáját legyőzni, míg az alsó kategóriában a legtöbb FX-es újítástól megfosztott (ám még mindig DX9-es) FX 5200 küzdött némi elismerésért (az 5200-as egyébként minden negatív kritika ellenére egész szép számban fogyott, és még ma is rengeteg található belőle a használtpiacon).

Nyilvánvaló volt, hogy azonnali tűzoltásra van szükség. Az NVIDIA mérnökei nekiláttak menteni a menthetőt, és hamarosan megérkezett a ráncfelvarrott FX széria. Az 5200-ast az FX 5500 váltotta, itt csak szimpla órajel emelésről volt szó, tehát csodát nem kell várni tőle. Az 5600 helyére érkező FX 5700 már nagyobb előrelépés volt, de az igazán nagy átalakítást a csúcskategóriában végezték. Az 5800-ast váltó FX 5900 széria a cég történetében elsőként kapott 256 bites memóriabuszt. Emiatt a memória sávszélessége jelentősen megnőtt, annak ellenére, hogy a nagyon melegedő DDR2-es memóriamodulokat némileg lassabb DDR1-esekre cserélték. Természetesen a GPU-t is feltupírozták kicsit, ám ez még mindig nem volt elég az ATI legyőzéséhez, ezért az FX széria életciklusának legvégén még bemutattak egy minden korábbinál erősebb változatot, ami az FX 5950 Ultra nevet kapta.

A kártya: MSI GeForce FX 5950 Ultra VTD-256

A csúcskategóriás FX kártyákról mindenkinek a süvítő, elviselhetetlenül hangos hűtés ugrik be elsőre, de az MSI kártyája sikeresen rácáfol ezekre az előítéletekre. A kártyán egy dupla ventilátoros, TwinFlow névre keresztelt hűtő dolgozik, amely sikeresen küzd meg a legerősebb FX által termelt hővel, mégpedig teljesen tolerálható hangerő mellett. Nem azt mondom, hogy észre sem venni amikor 3D módban felpörgeti a ventilátorokat, de több olyan kártya is szerepel ebben a cikkben, amely ennél jóval hangosabban üzemel. Az összes gyártó közül alighanem az MSI oldotta meg a legjobban a halk, mégis hatékony hűtés feladatát, pedig semmi különös módszert nem alkalmaztak: nincsenek heatpipe-ok, vagy különleges légcsatornák, van viszont egy vaskos, full vörösréz hűtőborda, melynek közepén egy viszonylag nagy méretű ventilátor dolgozik. A kártya hátoldalán szintén találhatunk egy hűtőblokkot egy sokkal kisebb (ám mégsem hangos) ventilátorral, ami a hátoldali memóriák aktív hűtéséért felel, valamint kis mértékben a GPU hűtéséhez is hozzájárul egy hővezető gumiréteg segítségével. A hűtést jó minőségű rugós pöckök rögzítik a kártyához, melyeket könnyű eltávolítani, így láthatóvá válik a fémsapkát kapott GPU, és az azt körbeölelő memóriamodulok. A 256 MB memória összesen 16 db modulból áll, melyekből 8 db a kártya hátoldalára került, ezért van szükség ott is vaskos hűtőbordára. Az MSI kártyája VIVO funkcióval is rendelkezik, melynek vezérléséért a Philips SAA7108AE jelű chip felel. A kártya jobb oldalán látható a kiegészítő tápcsatlakozó, amit valamilyen okból kifolyólag a nyákra merőlegesen szereltek fel, ami szerintem nem túl praktikus megoldás. Az MSI 5950-ese összhatását tekintve szerintem egy gyönyörű darab, a piros nyák és a vörösréz hűtők kombinációja nagyszerű látványt nyújt. Emellett a gyűjteményem legfotogénebb kártyája, öröm ránézni a róla készült képekre, de azért kicsit sajnálom, hogy nem sikerült egy referenciahűtős FX 5950 Ultrát beszereznem.

2004 - GeForce 6800 Ultra

Az FX-fiaskó után az NVIDIA-nál jól tudták: ahhoz, hogy visszaszerezzék a vásárlók bizalmát, valami igazán ütős termékkel kell előállniuk. A 6-os GeForce generáció fejlesztésekor ezért beleadtak apait-anyait, ami meg is látszott a végeredményen. Elhagyták a rosszemlékű FX megnevezést, így az új modellpaletta már csak egy négyszámjegyű típuskódot kapott. Az NV40-es kódnevű GPU-ra épülő GeForce 6800-as széria elsőként támogatta a DirectX 9c-ben bevezetett 3.0-ás Shader Modelt, emiatt technikai fölénybe került az ATI-val szemben, hiszen az aktuális Radeon generáció csak a korábbi 2.0-ás változatot támogatta. Ennek persze akkoriban kevés jelentősége volt, de a kártya időtállóságán sokat javított ez a fejlesztés. Emellett természetesen az alapjairól újratervezték az egész GPU-t, amely immár 16x1-es pipeline felépítést, és 6 vertex shadert kapott, a memóriabusz pedig természetesen 256 bites volt, és elsőként alkalmazott GDDR3-as memóriamodulokat. Az NV40 még natív AGP-s GPU volt, de később kiadták a PCI Express-es változatát is, NV45 kódnéven. Az új chip köré rögtön 3 kártyát is építettek: a csúcsot a 6800 Ultra képviselte, míg a költségérzékenyebb, ám csúcskategóriás kártyára vágyó vásárlók igényeit az órajelcsökkentésen átesett, és kisebb hűtővel szerelt 6800 GT elégítette ki. Az utótag nélküli GeForce 6800-on már ennél több butítást hajtottak végre: memóriája 256 MB GDDR3 helyett 128 MB DDR1 modulból állt, valamint a GPU-ban letiltottak 4 pixel pipeline-t, és 1 vertex shadert, így 12/5 felépítéssel került forgalomba. A tiltás software-es úton történt, így a Rivatuner nevű program segítségével aktiválhatóak voltak a letiltott részegységek, és ha az embernek szerencséje volt, akkor hiba nélkül működtek. Hogy az igazán selejtes GPU-kat is el lehessen adni, a 6800-as szériába később még érkezett egy 8 aktív pipe-al, és 4 vertex shaderrel rendelkező típus, mely a 6800 LE nevet kapta.

A hatodik GeForce generáció a középkategóriában is hatalmas változásokat hozott. Az NV43-as kódnevű GPU-ra épülő GeForce 6600 GT hatalmas népszerűségnek örvendett, mert elfogadható ára mellé kiváló teljesítmény társult. A 8 pipeline-al rendelkező GPU mellé 128 bites memóriabuszon GDDR3 memóriamodulok csatlakoznak, és a 0,11 mikronos gyártási technológiának köszönhetően a GPU órajele is elérhette az 500 MHz-et, ami magasabb volt még a 6800 Ultránál is. A 6600 GT-nek is létezett egy olcsóbb, utótag nélküli változata, mely alacsonyabb órajeleken dolgozott, és GDDR3 helyett hagyományos DDR memóriákat kapott. Az alsókategóriás 4 pipe-os GeForce 6200 kezdetben a selejtes NV43-as GPU-kra épült, így kis szerencsével a Rivatuneres trükkel 8 pipe-osra volt alakítható, később viszont már fizikailag csak 4 pipe-al gyártották őket. A 6200-as szériával kapcsolatban még egy dolgot érdemes megemlíteni: itt vezették be először a TurboCache technológiát, amely azt volt hivatott megoldani, hogy a videokártya szükség esetén a rendszermemóriához is hozzáférjen, és saját használatra foglaljon le belőle bizonyos mennyiséget. Az eredeti elképzelés az lett volna, hogy a legolcsóbb kártyák nagyon kevés, akár 16 MB memóriát kaptak volna, ám ez a megoldás nem igazán terjedt el, hiszen a témában kevésbé járatos vásárlók nagy része (akik a legolcsóbb kártyák közül válogatnak) többnyire a kártyára szerelt memória mérete alapján választanak, így a kevés fedélzeti memóriával rendelkező termékek eladhatatlanok lettek volna. A TurboCache technológiát viszont előszeretettel alkalmazták későbbi ultra-low-cost modelleken is, amolyan parasztvakítás jelleggel.

Érdekesség, hogy a 6600-as széria volt az első natív PCI Express-es fejlesztés, ám a korabeli vásárlók nagy része (főleg a középkategóriából válogató, árérzékenyebb réteg) még AGP-s rendszert használt. Emiatt szükség volt egy megoldásra, ami a PCI Express-es GPU-t alkalmassá teszi AGP-s alaplapokban való használatra. A probléma megoldására az NVIDIA kifejlesztette az aprócska HSI (High Speed Interconnect) chipet, amely képes volt az AGP és a PCI Express között "fordítani", így lehetőség nyílt AGP-s GeForce 6600-as kártyákat gyártani. Viszont a chipnek helyet kellett szorítani a kártyán, sőt hűtést is igényelt, emiatt a fenti képen látható furcsa alakú kártyák jöttek létre.

A PCI Express bevezetésével még egy újítással járt: az erre alkalmas alaplapokban lehetőség nyílt két videokártyát összekötni az SLI (Scalable Link Interface) technológia segítségével. Ennek persze semmi köze a régebben a 3dfx által a Voodoo 2-es kártyákon alkalmazott megoldáshoz, csak a név markering értékét használta ki az NVIDIA. A hatodik GeForce generáció életciklusának végén még bemutattak egy új GPU-t, amely az NV41 kódnevet kapta, natív PCI Express-es volt, és fizikailag 12 pipeline-t tartalmazott (vagyis nem lehetett 16 pipe-osra moddolni), valamint már 0,11 mikronos gyártástechnológiával készült. Erre a chipre a GeForce 6800 GS, valamint a 8 pipe-osra butított 6800 XT épült.

A kártya: referencia GeForce 6800 Ultra PCIE (Inno3D)

6800 Ultrából egy PCI Express-es változatra sikerült szert tennem, aminek örültem, mert ez a ritkább. Az Inno3D márkától sokan visszarettennek, de ez esetben nem kell megijedni: ez 100%-ban egy referenciakártya, az Inno csak a matricát ragasztotta a hátuljára. A hűtő burkolatáról Nalu, az NVIDIA által a GF6 szériához készített techdemo-ban szereplő sellőlány mosolyog ránk. A szerkezet két bővítőhelyet foglal el, ventilátora pedig elég erős motorú, emiatt viszonylag hangos. Bár a driver feltelepítése után visszaveszi a fordulatszámát (és a legextrémebb terhelés hatására sem emeli meg újra), teljesen halknak azért így sem mondanám. A burkolatot eltávolítva látszik, hogy a GPU-val érintkező borda rézből készült (ez különbség az AGP-s változathoz képest, mert az még alumínium bordát kapott). A memóriákat egy külön bordázat hűti, amiben egy heatpipe is megbújuk. A feszültségszabályzó alkatrészek is kaptak egy kisebb passzív bordát. A hűtőt eltávolítva megtekinthetjük az NV45-ös GPU-t, ami lényegében egy NV40 és egy HSI chip házasításával jött létre. Erre azért volt szükség, mert az NV40 natív AGP-s GPU, viszont a 6800-as bonyolultabb felépítése miatt nehézkes lett volna az AGP-s 6600GT-hez hasonlóan elhelyezni rajta a HSI chipet. A PCI Express-es változat órajele is magasabb egy picit: 400 helyett 425 MHz-en jár 3D-ben. A 256 MB memória 8 db Samsung GDDR3 modulból áll, ezúttal mindegyik a GPU felőli oldalra került, így a hátoldalra nem kellett hűtőbordát szerelni. A nyák felső szélén, bal oldalt találjuk az SLI híd csatlakozóját. A kártya dupla DVI csatlakozóval, és analóg TV kimenettel rendelkezik. Érdekes, hogy a rögzítőlemezen nem vágtak szellőzőrostélyokat, pedig SLI módban két egymás mellé beszorított kártya esetében biztosan jót tenne a hűtésnek, ha a ventilátor egy kis friss levegőhöz jutna a külvilágból.

2006 - GeForce 7950 GX2

A hetedik GeForce generáció az NV40-el sikeresen bemutatkozott architektúra szélesítésével jött létre. A széria elsőként érkező tagja a 7800 GTX volt, melynek G70 kódnevű GPU-ja (valamilyen okból elhagyták az eddig jól bevált kódnévgenerálási módszert, és nem NV50 lett az új chip neve) 24 pixel pipeline-t és 8 vertex shadert kapott. Természetesen a gyártástechnológia is fejlődött, így az új kártya kevésbé melegedett, emiatt egyslotos hűtéssel is beérte. A 7800 GTX-et minden idők legelegánsabb csúcskártyájának tartom: gyönyörű, halk és erős kártya volt. Érdekesség még a GTX elnevezés bevezetése, ami azzal magyarázható, hogy terveztek egy erősebb változatot is kiadni, ami a 7800 Ultra nevet kapta volna, de erre végül nem került sor.

Hamar megérkeztek az olcsóbb kiadások is: a felső kategóriába a 20 pipe-osra butított, valamint olcsóbb (és sokkal hangosabb) hűtőrendszerrel szerelt 7800 GT érkezett, amely rögtön nagy népszerűségre tett szert kiváló ár/teljesítmény aránya miatt. Sajnos ennél a generációnál már nem működött a korábbi pipeline feloldós trükk, így semmi esély nem volt GTX-et faragni a GT-ből. A középkategóriában a 12 pipe-os 7600 GT versenyzett, mely 128 bites memóriabusza ellenére nagyságrendileg a 6800-as széria teljesítményét hozta, elérhető áron. Az alsóbb szegmensekben megemlítendő még a 8 pipe-os 7300 GT, melynek DDR3 memóriával szerelt változata a kispénzű játékosok körében vált népszerűvé.

A G70-es GPU erős volt ugyan, de előállítása nagy mérete miatt sokba került, ezért ésszerű döntés volt a csíkszélesség csökkentésével faragni a költségeken. Nem is kellett sokáig várni az új G71-es GPU-ra, mely kisebb, kevesebbet fogyaszt, kevésbé melegszik, és nagyobb órajeleket bír a G70-nél. Az új chipre a 7900-as széria épült, köztük a brutális méretű heatpipe-os hűtővel szerelt 7900 GTX, amely talán a valaha gyártott legcsendesebb NVIDIA csúcskártya volt. Persze gondoltak az anyagilag kevésbé jól eleresztett vásárlókra is: a 7900 GT ezúttal nem szenvedett el pipeline csonkítást a GTX-hez képest, ám a nagyszerű hűtőt egy apró (és nagyon hangos) megoldás váltotta rajta, amit szinte kötelező volt azonnal lecserélni. Később, a selejtes chipek felhalmozódásával a 7900-as szériában is megjelent a "kötelező" 20 pipe-osra butított változat 7900 GS néven.

A G71-es GPU bevezetése még egy érdekességet hozott: megjelent az első hivatalos dupla GPU-s NVIDIA kártya a 7950 GX2 személyében. Bár egyes gyártók korábban is készítettek saját szakállukra ilyen termékeket, például a Gigabyte 6600 GT-ket, míg az ASUS 6800 GT-ket és 7800 GT-ket kötött össze, ezek inkább csak amolyan techdemo jellegű kártyák voltak, melyek az egyes gyártók technológiai fejlettségét voltak hivatottak prezentálni, és nem az üzleti siker volt a céljuk. Az NVIDIA azomban látott fantáziát az ötletben, így hivatalosan is elkezdődött a 2 GPU-s csúcskártyák kora. Ráadásul ezekből a kártyákból (a fentebb felsorolt egyedi modellektől eltérően) betehettünk egymás mellé 2 db-ot is, vagyis összesen 4 GPU dolgozhatott egyszerre, Quad SLI üzemmódban.

A koncepciót először 7900 GX2 néven mutatták be, ám ez a kártya még túlságosan nagy méretű, és drágán előállítható volt ahhoz, hogy nagyobb számban piacra dobják. Elsősorban OEM gyártók vásároltak belőle (például a DELL a csúcskategóriás XPS gépeibe), de ahhoz, hogy jobban elterjedhessen, a kártya előállítási költségének csökkentésére volt szükség. Így született meg a 7950 GX2, amely már méretét és árát tekintve is versenyképes lehetett, mint önálló termék.

A G70/G71 architektúráról érdemes még megjegyezni, hogy a Playstation 3-ban dolgozó RSX GPU alapját képezi.

A kártya: referencia GeForce 7950 GX2 (Gigabyte)

A 7950 GX2 lényegében két különálló kártyából áll, melyeket egymás fölé helyeztek, és pár csavar oldása után könnyen szétválaszthatóak egymástól. Ami első pillantásra feltűnhet, az a hűtő mérete. Bizony az aprócska légkavaró, és az alumíniumlemezből hajtogatott hűtőborda nem túl sok bizakodásra ad okot, és az előítéletek jogosak: a GPU-val érintkező rézbetét, és a lamellák alatt megbújó heatpipe ellenére a GPU-k vészesen, jócskán 100 °C fölé melegednek, mindeközben pedig a ventilátorok (főleg a beszorított, ezáltal kevesebb friss levegőhöz jutó alsó kártyáé) éktelen sivításba kezdenek. Helyszűke ide vagy oda, ennél elegánsabb hűtési megoldást érdemelt volna az újkorában méregdrága termék. A hűtő furcsa nyúlványát az indokolja, hogy az alsó kártyán (amelyen a PCI Express csatlakozó látható) itt található a GPU-k közti kommunikációért felelős vezérlőchip. Erre azért volt szükség, hogy nem SLI-képes alaplapokban is működhessen a kártya 2 GPU-s üzemmódban. A két nem túl nagy nyáklapon egyébként viszonylag szellősen helyezkednek el az alkatrészek, nyoma sincs a csúcskártyákra jellemző túlzsúfoltságnak. A GPU-k a kártya jobb szélére kerültek, körülöttük található a kártyánként 512 MB memóriát alkotó 8-8 db GDDR3 chip, melyek szintén aktív hűtést kaptak. Érdekes, hogy bár két GPU-t kell etetni, kiegészítő tápcsatlakozóból mégis csak 1 db-ot találunk a kártyán. Ez azért lehetséges, mert az órajeleket eléggé visszafogták a fogyasztás (nomeg a melegedés) csökkentése érdekében. Csatlakozók terén az akkoriban megszokottnak tekinthető választékot nyújtja a kártya: 2 db DVI, és 1 db analóg TV kimenet található rajta, vagyis hiába van 2 GPU a kártyán, nem tudunk 4 monitort meghajtani vele. Összességében a 7950 GX2 elég felemás képet mutat: egyrészt technikai különlegesség, mérnöki bravúr, és egy új korszak (a dupla GPU-s csúcskártyák korszakának) kezdete volt, másfelől viszont a spórolás jelei mutatkoznak rajra, ami egy ilyen kategóriás terméknél véleményem szerint nem megengedhető. Egy gondosabban megtervezett hűtőrendszer mindenképp ráfért volna, de a Gigabyte és az ASUS munkáját látva, nem lett volna lehetetlen feladat a két GPU egyetlen nyákra helyezése sem, ami mindenképp költséghatékonyabb és elegánsabb megoldás lett volna.

2007 - GeForce 8800 Ultra

A 8-as GeForce széria alighanem az eddigi legnagyobb változást hozta a VGA-k történetében. A DirectX 10 követelményeinek megfelelően alapjairól tervezték újra az egész GPU-t: a hagyományos pixel pipeline-ok helyét általános shaderek, úgynevezett Stream processzorok vették át. Ezek pixel és vertex shader funkciókat egyaránt el tudnak látni, így sokkal kiegyenlítettebb teljesítményt tud nyújtani a kártya minden körülmények között. A technológiai részletek iránt érdeklődőknek érdemes elolvasni a fentebb linkelt cikket, én most inkább a kártyákat mutatnám be. Elsőnek a csúcsmodell, a 8800 GTX jelent meg, mely sebességén kívül méreteivel, fogyasztásával, hőtermelésével, nameg nem utolsó sorban árával egyaránt sokkolta a közvéleményt. A kártya egy teljes értékű G80-as GPU-t kapott, melyben 128 stream processzor dolgozik. Ehhez 384 bites memóriabuszon keresztül 768 MB GDDR3-as memória csatlakozik. A kártya hossza minden addig megszokottnál nagyobb volt, és szinte teljes egészében beborította a hatalmas hűtőrendszer. A GTX mellé hamar megérkezett a 8800 GTS is, mely némileg szerényebb képességekkel rendelkezett: 96 Stream processzor volt aktív benne, és 640 MB-nyi memóriája 320 bites buszra csatlakozott. Ez a kártya is bőségesen elegendő volt a korabeli játékok maximális részletességgel való élvezetéhez. Később készült belőle egy 320 MB memóriával szerelt változat is a vékonyabb pénztárcájú vásárlók kedvéért. A 8-as GeForce széria csúcsát pedig a szintén G80 alapú 8800 Ultra jelentette, mely csupán emelt órajeleiben, és kicsit módosított hűtésében tért el a GTX-től.

Amíg a csúcskategóriában a 8800-as kártyák lenyűgözték a teljesítményükkel az embereket, addig a középkategóriába szánt 8600 GTS, valamint 8600 GT és 8500 GT már korántsem volt ekkora durranás. A csak órajelükben különböző 8600-asok 32 db, a 8500-as pedig csak 16 db Stream processzort kapott, 128 bites memóriabusz mellett. Emiatt ezek a kártyák nagyságrendekkel lassabbak voltak még a 320 MB-os 8800 GTS-nél is, így a kínálatban egy hatalmas űr keletkezett. Aztán, a 8-as széria életciklusának vége felé érkezett a következő nagy durranás: a G92 kódnevű GPU-ra épülő, 112 Stream processzoros 8800 GT és a 128 Stream processzoros "új" 8800 GTS, mindkettő 256 bites memóriabusszal és 512 MB memóriával. A kisebb csíkszélességgel készülő, emiatt olcsóbb és nagyobb órajelek elérésére képes G92-re épülő kártyák megjelenése örvendetes tény volt, ám az igencsak félresikerült termékmegnevezésekkel adtak egy hatalmas pofont az eddig jól bevált nevezéktannak. A bevezetett sémát (GT<GTS<GTX) alapjaiban rúgta fel, hogy a 8800 GT gyorsabb volt, mint a G80-as 8800 GTS-ek, az új 512 MB-os 8800 GTS pedig gyorsabb volt, mint a 640 MB-os 8800 GTS, és csaknem olyan gyors, mint a 8800 GTX. Ennek ellenére ezek a kártyák nagy népszerűségnek örvendtek kedvező áruk miatt. A selejtes G92-es GPU-kat 8800 GS néven adták el, 96 aktív Stream processzorral, 384 MB memóriával és 192 bites memóriabusszal.

A kártya: referencia GeForce 8800 Ultra (EVGA)

A 8800 Ultrára rápillantva két dolog jut az ember eszébe: ez nagyon nagy és nagyon fekete. Bizony, vége már azoknak az időknek, amikor a csúcskártyák egyslotos hűtéssel rendelkeztek, mint a 7800 GTX. A sötét dizájn pedig az NVIDIA új arculatának a része: a megváltozott céglogó mellett innentől az összes csúcskártya fekete színben pompázik. A 8800 Ultra egy igazi nagyvas, a szó szoros értelmében. Hatalmas méretéhez tekintélyes súly is párosul, az egész kártyát befedő hűtésburkolat pedig brutális megjelenést kölcsönöz a legerősebb G80 alapú GeForce-nak. Az Ultra emellett oldalra kilógó ventilátort kapott, aminek hatására kicsivel több friss levehűhöz juthat. Ennek főleg 3-way SLI rendszer kiépítésekor van szerepe, ezekből a monstrumokból ugyanis akár hármat is összeköthetünk az erre alkalmas alaplapokban. Az NVIDIA logóra hajazó mintázatú műanyag burkolatot eltávolítva láthatóvá válik a hűtőblokk. A GPU-val érintkező rézbetétről két heatpipe segít elvezetni a hőt a lamellákra. A ventilátor "blower" felépítésű, és egész halkan teszi a dolgát. Még extrém terhelésre se hangosodik fel zavaró mértékben, ilyenkor is inkább csak szélzaj hallatszik mint motorhang. A kártya egyébként tetemes mennyiségű hőt termel, melynek csak egy része távozik kifelé, hiszen a burkolaton számos nyílást vágtak a tervezők. Emiatt egy ilyen 8800-as csúcsvas alaposan képes felborítani számítógépünk hőháztartását, erre mindenképp oda kell figyelni ha ilyen kártya beszerzését tervezzük. A hűtést eltávolítva láthatóvá válik a fekete nyák, és rajta a hatalmas G80-as GPU, mely fémsapkát, és egy fém keretet is kapott (utóbbinak nem sok funkciója van, hiszen a GPU-t amúgy sem lehet lesarkazni, így inkább csak díszként szolgál). Bal oldalon találjuk az aprócska NVIO chipet, melyben a RAMDAC és a kimenetek vezérlői találhatók. Erre azért volt szükség, mert a G80-as GPU hatalmas mérete miatt nem lett volna gazdaságos még ezeket az alkatrészeket is belezsúfolni. A GPU körül látható a 768 MB memóriát alkotó 12 db GDDR3-as chip (innen gratulálnék az előző tulajnak, aki ezüsttartalmú hővezető pasztát kent rájuk, amit aztán lehetetlenség nyom nélkül eltávolítani). Jobb oldalon a nyák több mint egyharmadát elfoglalják a tápvezérlő áramkörök, melyek közül néhány komponens szintén hűtést igényel, így összeköttetésben áll a hűtőblokkal. Láthatjuk, hogy a 8800 Ultra (a GTX-hez hasonlóan) 2 db 6 tűs PCIE tápcsatlakozóból nyeri az energiát. A hátoldalon nem sok érdekesség van, talán egyedül a hűtő rögzítési pontjait lehet érdemes megfigyelni, ezeket úgy helyezték el, hogy az összes hűtendő komponenshez rendesen hozzászorítsák a blokkot. A kártya dupla DVI és analóg TV kimenetet kapott.

2008 - GeForce 9800 GX2

A 8-as GeForce-okra az ATI-nak hosszú ideig nem volt érdemi válasza, emiatt az NVIDIA kissé elkényelmesedett. Így eshetett meg, hogy a kilencedik GeForce generáció lényegében érdemi fejlesztés nélkül, puszta átnevezéssel született meg. A 9800 GTX ugyanis ugyanazt a G92-es GPU-t használja, mint a 8800 GTS-512, csak némileg emelt órajelekkel, nameg az ezt lehetővé tevő strapabíróbb, és 3-way SLI-képes nyákkal készült. A 9800 GT kifejlesztésével még ennyit se fáradoztak: ez 1:1-ben egy 8800 GT volt, még az órajeleihez sem nyúltak hozzá. Persze közben egy csíkszél csökkentésen átesett a G92, így jött létre a kicsit emelt órajelű 9800 GTX+ jelzésű modell. Itt ismét volt egy kis nevezéktani bukfenc: a 9800 GTX nem, vagy csak elhanyagolható mértékben volt gyorsabb, mint a 8800 GTX, gyengébb memóriabusza miatt főleg magasabb felbontásokban vérzett el. Nem mondhatni, hogy valódi generációváltás történt tehát. A kínálat csúcsán pedig újra egy két GPU-s monstrum állt a 9800 GX2 személyében.

A középkategóriában már értékelhetőbb fejlesztést mutatott be az NVIDIA: a 9600 GT 64 Stream processzort, és 256 bites memóriabuszt kapott, ami jóval versenyképesebb megoldás volt az előző generáció középkategóriásnak nevezett, de valójában inkább alsókategóriás 8600-as kártyáinál. Persze ezek is tovább éltek 9500 GT néven. Megemlítendő még a 9600 GSO, ami a 8800 GS átnevezésével jött létre, megtartva annak felépítését (96 Stream processzor és 192 bites memóriabusz).

A kártya: referencia GeForce 9800 GX2 (BFG Tech)

Bár a csökkentett csíkszélességgel készülő G92b GPU-k fogyasztása és hőtermelése önmagukban már nem okoz túl nagy problémát, egy dupla GPU-s kártyát építeni köréjük mégis sokkal nagyobb kihívás volt, mint az előző szendvicskártya, a 7950 GX2 esetében. A mérnökök egy különleges megoldással éltek: a hűtőblokk középre, a két kártyarész közé került, és két oldalról (értelemszerűen GPU-s oldalukkal befelé) vannak hozzá rögzítve a nyáklapok. A kártyát kívülről egy masszív fémház takarja, és óvja a sérülésektől, így lényegében egy hatalmas téglának tűnik az egész. Ezt a felületet a gyártók előszeretettel matricázzák fel, szerencsére a BFG által tervezett díszítés visszafogott és elegáns. A burkolatot lebontva (amihez a tetemes mennyiségű csavar oldásán kívül némi feszegetésre is szükség van) szétszedhetjük a kártyát. A korabeli leírások részletesen bemutatják a folyamatot, ám azt azért hozzátenném, hogy korántsem olyan drámai feladat a szétszerelés, mint ahogy itt felvázolják, igaz újkorában, amikor a kártya még méregdrága volt, valószínűleg én sem estem volna neki olyan bátran, mint most. Sajnos az előző tulaj is ezt tette, és néhány helyen eltörte a fém burkolat rögzítő füleit, de ez szerencsére kívülről nemigen látszik. A nyáklapokra ránézve rögtön látszik, hogy a G92-es GPU sokkal kisebb, mint elődje, a G80-as. Nem kapott fémsapkát sem, így vigyázni kell a lesarkazással. A két GPU egyenként 512 MB memóriával rendelkezik, amit 8-8 db GDDR3-as modul alkot. A nyáklapok jobb szélén hatalmas nyílás van vágva a hűtőventilátornak. Maga a hűtőblokk hatalmas, súlyos darab, de belső felépítéséről nem sok derült ki. Az biztos, hogy a GPU-kkal rézbetét érintkezik, és számos lapos heatpipe is található benne. Sajnos a forró levegő nagy részét a gépházon belülre teríti a kártya oldalán vágott szellőzőnyílásokon keresztül. A ventilátor hangosabb, mint a 8800 Ultráé, de azért viselhető hangerővel dolgozik. A kártya egy 6 és egy 8 tűs PCIE tápcsatlakozóból szerzi a működéshez szükséges energiát. A kimenetek között 2 db DVI és egy HDMI csatlakozót találunk, utóbbihoz digitális SPDIF hang átkötési lehetőség is van a tápcsatlakozók mellett. Megemlítendő még, hogy a kártya működés közben úgy világít mint egy karácsonyfa: számos apró SMD LED világítja meg a nyílásait. Természetesen ez a kártya is képes Quad SLI módban üzemelni, de ahhoz már igencsak izmos tápegység szükséges.

2009 - GeForce GTX 295

A tizedik GeForce generációnál megváltoztatták a 8-9-es szériánál amúgy is eléggé összekuszált nevezéktant. A kártyák nevében innentől kezdve elöl szerepel a teljesítményszintre utaló jelölés (GT, GTS, GTX...), és mögötte a generációra utaló számsor. Az új termékpalettára először jó szokás szerint a csúcsmodell érkezett, a GTX 280 személyében. Ez a termék a 240 Stream processzorral rendelkező GT200-as kódnevű GPU-ra épült. 1024 MB memóriája az ekkor már kissé elavult GDDR3 típusú modulokból állt, de kellően széles, 512 bites memóriabuszra csatlakozott, így a sávszélességgel nem volt gond. Az olcsóbb változat az eleinte 192, majd később 216 db aktív Stream processzorral, valamint 448 bites memóriabusszal és 896 MB memóriával szerelt GTX 260 volt, ami kedvező ár/teljesítmény mutatói miatt elég nagy népszerűségre tett szert. Később kiadtak egy hibrid megoldást is (280-as GPU mellé 260-as memóriabusz), mely a GTX 275 nevet kapta. A GT200-as GPU idővel átesett a szokásos csíkszél csökkentésen, az immár kicsit kevesebbet fogyasztó, és nagyobb órajelek elérésére képes GT200b GPU-ra az új egymagos csúcskártya, a GTX 285, valamint a kétmagos GTX 295 épült. Utóbbival kapcsolatban meg kell jegyezni, hogy bár teljes értékű (240 Stream processzoros) GPU-kat használt, de a GTX 260-asokra jellemző csonkolt memóriabuszt kapott, így összesen 1792 MB memóriával rendelkezett. Lényegében egy GTX 275 SLI-ről beszélhetünk tehát.

A középkategóriában a jól bevált G92-est versenyeztette az NVIDIA, immár harmadszor átnevezve: 8800 GTS-512, és 9800 GTX után GTS 250 néven hozták forgalomba gyakorlatilag ugyanazt a kártyát. Az alsóbb kategóriákba érkeztek még innovatívabb, ám teljesítmény szempontjából nem túl acélos fejlesztések a 96 Stream processzoros GT 240, és a 48 Stream processzoros GT 220 személyében. Ezek a kártyák DirectX 10.1 támogatással rendelkeztek, valamint a GT 240 elérhető volt GDDR5 memóriákkal is, ami a 128 bites memóriabusz ellenére is kellemes sávszélt biztosított neki. A "mindegy csak képet adjon" kategóriába a 16 Stream processzoros G 210 készült. Fontos még kiemelni ennél a három alsóbb kategóriás modellnél, hogy natív HDMI kimenetet, valamint saját hangkodeket kaptak, így nincs szükség átkötőkábelre ahhoz, hogy HDMI-n keresztül digitális hangot lehessen továbbítani velük.

A kártya: referencia GeForce GTX 295 rev. 1 (ASUS)

Bizony, a 9800 GX2 után ismét egy kétmagos csúcskártyát üdvözölhetünk a GTX 295 személyében. Bár a csíkszél csökkentett GT200b GPU-k fogyasztása és melegedése kis mértékben csökkent, azért még így is nagyságrendekkel rosszabb értékekkel rendelkeznek ezen a fronton, mint a 9800 GX2-re szerelt G92b, így nem kis mérnöki kihívás volt összeházasítani őket egyetlen kártyára. Ezt a feladatot először, a 9800 GX2-höz hasonló kétnyákos felépítéssel oldotta meg az NVIDIA, később azomban gazdaságossági okokból készült egy "jóárasított" egynyákos változat is, mely specifikációit tekintve megegyezik az itt látható kártyával. A gyűjteménybe mindenképp rev. 1-es modellt kerestem, mert technikailag sokkal érdekesebb utódjánál. Kívülről ránézve az a benyomásunk támadhat, hogy nem túl sokat törődtek a tervezésével. Eltűnt a 9800 GX2-t beborító masszív fémház, csak egy lukacsos, gumírozott borítású lemez maradt a helyén. Hátoldalára (mármint arra az oldalra, amit egy hagyományos kártya esetén értünk annak, hiszen ha jobban belegondolunk, ennek a kártyának két hátulja van) nem került burkolat, így szabadon maradt a sérülékeny nyákfelület. Sokan abban a tévhitben vannak, hogy ez a hűtésre is negatív hatással van, de ezek a lemezek a 9800 GX2 esetében, és itt is, csak védelmi és dekorációs célokat szolgálnak, a hőátadásban nincs szerepük. A hűtőblokk felépítése nagyon hasonlít a 9800 GX2-n látott megoldáshoz. Természetesen a GPU-kkal érintkező rézbetét megnőtt, és mintha a lamellák is nagyobbak lennének, de az alapelv ugyanaz: a GPU-k a blokk két oldalát melegítik, a hőátadó felület pedig középen található. Sajnos itt is a gépházon belülre távozik a forró levegő nagy része. A nyáklapokon sokkal nagyobb zsúfoltsággal találkozunk, mint a 9800 GX2 esetében. A megnövekedett mennyiségű tápellátó alkatrész mellett mindkét GPU-hoz kapcsolódik 1-1 NVIO chip, amit a G80-as kártyákról már ismerünk. A hatalmas méretű GPU-k fémsapka alatt rejtőznek, valamint megkapták azt a fémkeretet, amit már a 8800 Ultrán is láthattunk. Körülöttük nem kevesebb, mint 14-14 db GDDR3-as memóriamodul található. Kár, hogy a GTX 295 nem kapta meg a 280-as és 285-ös 512 bites memóriabuszát, mert így kicsit olyan érzése van az embernek, hogy egy selejtes termékért adta ki a pénzét. Márpedig a GTX 295 a maga idejében minden volt, csak olcsó nem. Kimenetek tekintetében a helyzet változatlan: két DVI és egy HDMI csatlakozó áll rendelkezésre. A felhasznált LED-ek számán csökkentettek a 9800 GX2 óta, így már csak két fényforrást találunk a hátlapi lemezen: az egyik a bekapcsolt állapotot, a másik pedig a monitor csatlakoztatását jelzi. Tápcsatlakozóból egy 6 és egy 8 tűs található a kártyán, valamint megmaradt az SLI híd csatlakozója is, hiszen ez a monstrum továbbra is Quad-SLI képes.

2010 - GeForce GTX 480

Az NVIDIA első DirectX 11-es generációja a Fermi architektúrát használja. Ezt, illetve a GF100 kódnevű GPU-ra épülő GTX 480 és 470 kártyákat sok kritika érte amiatt, hogy rengeteg olyan szolgáltatást támogatnak, amit a játékosok nem használnak ki, hanem főleg a professzionális GPGPU piac igényeit elégítik ki. Emiatt pedig a GPU fölöslegesen nagy, sok hőt termel, sokat fogyaszt, és persze ami a legfontosabb: drága. Ezeknek a véleményeknek persze van némi jogos alapjuk, de azért ne felejtsük el, hogy a GTX 480 játékos szemmel is igencsak impresszív specifikációkkal bír: 480 Stream processzor, 384 bites memóriabusz, és 1536 MB GDDR5-ös memória. A GTX 470-en az órajelek csökkentésén kívül végrehajtottak némi szokásos csonkítást: 448 db aktív Stream processzora mellé 320 bites memóriabuszt és 1280 MB memóriát kapott. A GF100-as GPU igencsak magas selejtaránya miatt később egy még tovább butított változat is megjelent: a GTX 465-ben 352 db Stream processzor volt aktív, és emellé 256 bites memóriabuszon 1024 MB memória társult. Ez a kártya nem lett túl népszerű, hiszen teljesítményéhez képest túl magas áron adták.

A drágán előállítható GTX 465 nem volt egy ütőképes középkategóriás termék, ezért szükség volt valami igazán átütő sikerre ebben a szegmensben, ami visszacsábítja a vásárlókat az NVIDIA-hoz. Erre nem is kellett sokáig várni: a GTX 460 minden szempontból beváltotta a hozzá fűzött reményeket. A GF104 kódnevű GPU-ból a eltávolították játékosok számára fölösleges szolgáltatásokat, így rengeteg tranzisztort takarítottak meg, ami jó hatással volt az előállítási költségekre. A GTX 460 két változatban létezik: mindkettő 336 db Stream processzort kapott, de míg a 1024 MB-os verzió 256 bites, addig a 768 MB-os verzió csak 192 bites memóriabusszal rendelkezik. Később megérkezett a még lejjebb pozícionált, 192 Stream processzoros és 128 bites memóriabuszú GTS 450 is, ám ez a kártya már nem aratott osztatlan sikert, a 96 Stream processzoros GT 430 pedig még kevésbé lett elterjedt.

A kártya: referencia GeForce GTX 480

Elérkeztünk a lista végéhez, gyűjteményem utolsó kártyájához, a monumentális GTX 480-hoz. Már első ránézésre is látszik, hogy itt egy igazi nagyágyúval van dolgunk: bár a 480-as csak egyetlen GPU-t alkalmaz, hűrőtendszere mégis nagyobb az előző két oldalon bemutatott kétmagos csúcskártyákon alkalmazott megoldásoknál. A GPU-ra egy hatalmas hűtőblokk illeszkedik, melyre 5 db vaskos heatpipe vezeti át a hőt. Ezek a mostanában divatos szokás szerint közvetlenül érintkeznek a GPU-val. A bordázat annyira nagy, hogy nem is volt hely külön burkolatot helyezni rá, így lényegében a kártya külsejének jelentős része is hőátadó felületként funkcionál. A többi melegedő komponens (memóriamodulok, feszültségstabilizáló áramkörök) hűtését különválasztották a GPU-tól, hogy az ne melegítse át őket fölöslegesen. Erre szükség is van, hiszen a GF100-as GPU döbbenetes mennyiségű hőt termel. Teljes terhelés hatására szó szerint hajszárító üzemmódba kapcsol a kártya: éktelen hangorkán mellett forró levegőt fúj ki nagy erővel. Persze ez csak extrém terhelés hatására történik így, az esetek többségében azért elviselhető hangerő mellett dolgozik. A ventilátor átmérője véleményem szerint lehetne nagyobb is, hiszen hely lenne rá: pl a 8800 Ultrán nagyobb átmérőjű ventilátor található, amivel a hangerő csökkenthető lett volna. A hűtést eltávolítva láthatóvá válik a fémsapka alatt rejtőző GF100-as GPU, körülötte pedig az 1536 MB memóriát alkotó 12 db GDDR5-ös memóriamodul. Érdekesség, hogy a ventilátor alatt réseket vágtak a nyákon, hogy még több friss levegőt tudjon beszívni. A tápellátásról egy 6 és egy 8 tűs tápcsatlakozó gondoskodik. Egyébként összességében szemlélve a nyákot nem tűnik sokkal extrémebb felépítésűnek a 8800 Ultra nyákjánál. A kimenetek között 2 db DVI és egy mini HDMI csatlakozó áll rendelkezésre, és természetesen kapunk két SLI csatlakozót is a 3-Way SLI üzemmódhoz. A hátoldalon nem sok érdekeset találunk, viszont észrevehető, hogy a heatpipe-ok kilógnak a kártya síkjából. Ezeket, valamint a szabadon lévő bordafelületet működés közben nem tranácsos megérinteni, mert a terhelés alatt 100 °C körüli hőmérsékletet elérő GPU által átmelegített felületek könnyen égési sérüléseket okozhatnak. Bizony, ez a kártya nem viccel: extrém teljesítményéhez extrém melegedés és extrém fogyasztás társul. Ennek ellenére tiszteletreméltó darab, hiszen a leggyorsabb 1 GPU-s kártya volt a maga idejében.

Tesztek - Bevezető

Most, hogy megismertük gyűjteményem mind a 15 tagját, ideje hogy rátérjünk arra, ami vélhetőleg többeket érdekel: az összehasonlító tesztre. Amikor a cikk ötlete először megfordult a fejemben, nem is gondoltam milyen nehézségekbe ütközik ennyi kártya leteszteléséhez azonos feltételeket biztosítani. A puszta fizikai inkompatibilitás (AGP vs PCIE) mellett az okozza a legtöbb problémát, hogy olyan programokat találjunk, amik a régebbi kártyákon is elindulnak, de az újak se ütköznek processzorlimitbe. Egy ekkora kártyahalmaznál ez gyakorlatilag lehetetlen feladat, így kénytelen voltam kompromisszumot találni: valahol ketté kell vágni a palettát. Értelemszerű lett volna ezt az AGP-PCIE váltásnál megtenni (és a felmerült problémákat figyelembe véve utólag valószínűleg már így cselekedtem volna, ha még egyszer nekivágok), de úgy döntöttem, hogy a tesztet a GeForce 3-tól indítom, vagyis a korábbi kártyák nem fognak szerepelni benne. Ez talán nem akkora érvágás, hiszen a retro kártyák egymáshoz viszonyított teljesítményét előző tesztemből elég jól le lehet szűrni.

A következő lépés a tesztkonfiguráció összeállítása volt. Olyan alaplapra volt szükségem, amelyen egyszerre található teljes értékű (nem emulált) AGP és PCIE slot is. Mint kiderült, ilyen alaplap nagyon kevés van. Olyannyira, hogy én mindössze egyet találtam: ASRock ALiveDual-eSATA2

Most talán többen a fejükhöz kaptak, és meg kell mondjam, hogy én se vagyok az ASRock alaplapok híve, de a cél szentesíti az eszközt, és be kell ismernem, hogy az alaplap a tesztek során kiválóan helytállt. Persze hazudnék, ha azt mondanám, hogy nem voltak vele problémák. Az első gond rögtön a régi processzorfoglalatból fakadt: habár megszereztem bele a legerősebb processzort, amit kezelni képes (AMD Phenom II X4 965 BE), ezt a processzort az AM2-es alaplap nem tudja teljesen kihajtani, így az erősebb kártyák esetében a processzorlimit veszélye megnőtt. További probléma volt a VGA kompatibilitással: az ASRock oldala szerint ha 4 magos processzort helyezünk az alaplapba, akkor csak nagyon limitált számú AGP-s kártyát támogat a rendszer. Persze hamar rájöttem, hogy a helyzet korántsem ennyire drámai, ugyanis egyáltalán nem magától a kártyától, hanem a drivertől függ a dolog: ha 77.xx verziójúnál régebbi drivert alkalmazunk, akkor nem fog működni a 3D gyorsítás AGP-s kártyák esetében. A dolog érdekessége, hogy kétmagos processzorral ilyen probléma nem áll fenn. Hogy ez mitől lehet, azt sajnos nem tudom, de ez volt az egyik oka, hogy hol húztam meg a tesztelt kártyák határát, ugyanis a 77.xx driverek már nem támogatják a GF3-nál régebbi kártyákat.

A másik problémával akkor szembesültem, amikor először próbáltam két GPU-s videokártyát tesztelni az alaplapban. Döbbenten vettem észre, hogy mind a három szendvicskártya (7950 GX2, 9800 GX2, GTX 295) esetében csak az egyik GPU üzemel, és a driverben nem jelenik meg az SLI beállítására szolgáló menüpont. Ez azért furcsa, mert ezekhez a kártyákhoz tudomásom szerint nem szükséges SLI kompatibilis alaplap, hanem minden PCI Express-es alaplapban kutya kötelességük két GPU-val üzemelni. Szerencsére kis kutakodás után megtaláltam a megoldást: orosz barátaink fejlesztettek egy SLI Patch nevezetű okosságot, melynek segítségével bármilyen alaplapban kikényszeríthető az SLI mód. Ezt telepítve már rendesen működtek a két GPU-s kártyák, de mindenesetre megdöbbentő, hogy ilyen megoldásokhoz kell folyamodni a rendeltetésszerű használat érdekében. Szerencsére ezzel elhárult minden akadály a tesztelés elől, lássuk hát az eredményeket. Először a kártyák fogyasztását mértem le, terhelt állapotban. A mérést egy digitális mérőműszerrel végeztem, ami a komplett gép fogyasztását méri.

Igazán szép, szinte lineárisan emelkedő grafikont kapunk. Bárcsak minden teszt ilyen egyértelmű eredményt hozott volna... A legkevesebbet értelemszerűen a GeForce 3 Ti 500 fogyasztotta, a legtöbbet pedig a GTX 480, mellyel nem kevesebb mint 473W volt a teljes rendszer fogyasztása. Ebben persze benne van a tápegység hatásfokából eredő veszteség is. Az FX 5950 Ultra kicsit megtöri a grafikon linearitását, de azt hiszem ezen senki nem lepődik meg: az FX-ek meglehetősen energiaéhes kártyák hírében álltak anno. Persze a számokat látva igencsak tanulságos, hogy mi számított soknak akkoriban, és mennyit fogyaszt egy csúcskártya manapság, amikor a csapból is a környezetvédelem fontosságának hangsúlyozása folyik.

Tesztek - Benchmarkok

Akkor hát vágjunk bele a tesztekbe. Ezen az oldalon a szintetikus benchmark programok eredményeit láthatjuk. Ezek garantáltan ugyanúgy futnak le minden kártyán, azonos követelmények elé állítva őket. A programokban mindenhol a default beállításokat, ahol pedig ilyen nincs, ott 1920x1080-as felbontást használtam.

3DMark 2001

a 3DMark 2001 meglehetősen régi program, hiszen a tesztben szereplő legidősebb kártyával egyidőben jelent meg. Ennek ellenére a processzorlimit meglepően sokáig nem jelentkezett: a 9800 GX2 volt az első kártya, amelyik belefutott. Megjegyzendő ugyanakkor, hogy a tesztnek lehetnek bizonyos részei, melyek már a lassabb kártyákkal is processzorlimitesek voltak. Az eredményeket szemlélve a 6800 Ultra kiváló teljesítménye, és ehhez viszonyítva a 7950 GX2 nem túl acélos szereplése tűnhet fel. A két kártya közötti különbséget egyetlen GPU-val is hozni kéne a 7950-nek, pedig a tesztben működött az SLI, hiszen a 9800 GX2 gyorsabb volt a 8800 Ultránál, amire 1 GPU-val nem lett volna képes. A sor végén a GTX 480 méltóságán alulinak érezte ezt a küzdelmet: valószínűleg nem kapcsolta teljes 3D módba az órajeleit, emiatt lehetett némileg lassabb a többieknél.

3DMark 03

A 2003-ban megjelent 3DMark-al kapcsolatban meg kell jegyezni, hogy tartalmaz egy DirectX 9-es tesztet is, amit a GF3 és GF4 kártyák értelemszerűen nem tudnak lefuttatni, emiatt eredményeik nem összevethetőek az újabb kártyákéval. Processzorlimitbe egyedül a GTX 480 futott, vagyis ez a 3DMark rész egy kiválóan megírt VGA tesztnek mondható. A 7950 GX2 ismét eléggé csúfosan szerepel, a 8800 Ultra ugrása viszont hatalmas. A 9800 GX2 szépen el tud húzni a 8800 Ultrától, de a GTX 295-től talán egy picit többet vártam volna.

3DMark 05

Ez a 3DMark rész már csak DirectX 9-es kártyákon indul el. A 6800 Ultra előnye az FX 5950 Ultrához mérten elég drasztikus, a 7950 GX2 viszont ismét nem hozza az elvárható szintet. A 8800 Ultrával megint hatalmas ugrás következik be, fölötte viszont alig gyorsulnak a kártyák, ami azt jelenti, hogy nagyrészt processzorlimitbe ütköztek. Nem hiába nem volt ez a 3DMark rész túl sikeres: inkább a processzor, mint a VGA sebessége befolyásolja az eredményt.

3DMark 06

A 2006-os 3DMark epizód már két SM 3.0-ás tesztet is használ, amit az FX nem képes lefuttatni, ezért ez egyszer talán elnézhető neki a csapnivaló eredmény. A 7950 GX2 végre hozza a tőle elvárható szintet: elég jelentős az előnye a 6800 Ultrához képest. A 8800 Ultra szokás szerint nagyon erős, fölötte pedig ismét alig emelkedik a grafikon, ami processzorlimitált körülményeket sejtet.

3DMark Vantage

Ez a 3DMark rész már csak DirectX 10-es kártyákkal indul. Döbbenetes, hogy a GTX 480 még itt is processzorlimitbe ütközik, alatta viszont szépen kirajzolódik a kártyák erősorrendje. a 9800 GX2 és a GTX 295 is szépen hozza a specifikációik alapján elvárható teljesítményt.

Aquamark 3

Ez a maga idejében meglehetősen népszerű benchmark program egy víz alatti világot szimulál. Elindul a régi kártyákon is, így valószínűleg DirectX 8-as shadereket használ. Ennek is köszönhető, hogy az FX egész szépen elhúz a GF4-től, ám eredményére rögtön árnyékot vet, ha a 6800 Ultrával hasonlítjuk össze. A 7950 GX2 teljesítménye megint nem az igazi, bár ebben a tesztben valószínűleg nem működött az SLI, ha a többi kétmagos kártya eredményét is figyelembe vesszük. Ráadásul a 9800 GX2 és a GTX 295 bugos képet produkált (átlátszó objektumok), emiatt az eredményük nem mérvadó. A 8800 Ultra elérte a processzorlimitet, a GTX 480 pedig ismét nem kapcsolt teljes sebességre.

X3 Reunion - Rolling Benchmark

Ez a teszt egy meglehetősen szép és hangulatos űrhajós jelenetet mutat be. Alapvetően DirectX 9-es, de a DX8-as kártyákon is elindul. Emiatt lehet, hogy az FX belassul a GF4-hez képest, hiszen sokkal komplexebb grafikát kell megjelenítenie. Persze ez nem mentség arra, hogy a 6800 Ultra több mint négyszeres eredményt produkál. Végre a 7950 GX2 is megemberelte magát, és szépen elgyorsul elődjétől. A 8800 Ultra és az afölötti kártyák már processzorlimitbe ütköztek.

Lightsmark 2007

Ez a program meglehetősen intenzív fény-árnyék hatásokat és HDR-t használ. Ebből következik, hogy minimum SM 3.0-ás kártya szükséges a futtatásához. A grafikon szépen ível felfelé, processzorlimitbe ezúttal egyik kártya sem ütközött. A 8800 Ultrát ismét dicséret illeti, a GTX 295 teljesítménye pedig megint nem túl acélos. Ha figyelembe vesszük, hogy ugyanannyi Stream processzora van, mint a GTX 480-nak (igaz 2 GPU-ra elosztva), akkor ennél többet várna tőle az ember.

Unigine Tropics

Ez a teszt egy gyönyörű tengerparti jelenetet rajzol ki, igencsak megdolgoztatva a kártyákat DirectX 9 alatt. Bár hivatalosan SM 3.0-ás kártya szükséges hozzá, a 6800 Ultrán valami miatt nem indult el (lefagyott töltés közben). A grafikon szépen emelkedik, vagyis szerencsére nem ütköztünk processzor limitbe. Az eredmények közül a 8800 Ultra hatalmas ugrása emelhető ki ismét: ez a kártya sokadszorra mutatja meg, mitől volt olyan sikeres a 8-as GeForce generáció.

Unigine Heaven

Ez a teszt már DirectX 10-es (illetve DirectX 11 módja is van, de az összehasonlíthatóság kedvéért a GTX 480-on is DX10 módban futtattam). Az SLI sajnos nem működött benne, ami rögtön kivehető a 9800 GX2 és a GTX 295 gyenge teljesítményén. A GTX 480 elemében érezhette magát, bár ez a teszt még őt is igencsak megizzasztotta, amit erős hangorkánnal adott tudomásomra.

Tesztek - Játékok

A benchmark programok után következzenek a játéktesztek. Mindenhol maximális beállításokat, és 1920x1080-as felbontást használtam, kivéve ahol ezt külön jelzem.

Half-Life 2 Episode Two

A Half-Life 2 talán a legnépszerűbb FPS játékok egyike. A GF3 és GF4 kártyákon igencsak kifogott ez a teszt, ami valószínűleg annak köszönhető, hogy nem rendelkeznek elég memóriával ehhez a játékhoz Full HD felbontásban. Meglepő lehet, hogy az FX gyorsabb volt a 6800 Ultránál, de gyorsan tegyük hozzá, hogy a Source motor nemes egyszerűséggel DX8-as kártyának ismeri fel az FX-eket, és nem is állíthatunk be DX9-es shadereket. Ebben az FX-ek köztudomásúan gyenge DX9-es teljesítménye mellett valószínűleg az is szerepet játszik, hogy a fejlesztést az ATI pénzelte. A 7950 GX2 szépen elgyorsul a 6800 Ultrától, a 8800 Ultra szintén jól szerepel, fölötte pedig már processzorlimitről beszélhetünk. A GTX 480 szerint a HL2 megintcsak nem egy "Performance 3D" alkalmazás

Unreal Tournament 3

AZ UT3 egy másik nagy népszerűségnek örvendő FPS játék. Csak DirectX 9-es kártyákon indult el, bár az FX-el inkább állóképeket renderelt, mint mozgalmas jelenetet. A 7950 GX2 most szépen helytáll, a 8800 Ultra jó szereplésén pedig már meg sem lepődünk. A GTX 295 és a GTX 480 processzorlimitbe ütközött.

Far Cry

A Far Cry volt az első DirectX 9-es játékok egyike, és megjelenésekor döbbenetesen szép grafikájú játéknak számított. A mérést 1024x768-as felbontásban végeztem (mert nagyobbat valami miatt nem engedett beállítani). A program a DX8-as kártyákon is elindul, és igazából elég szép grafikát mutat azokkal is. A grafikon szépen ível felfelé, egészen a 8800 Ultráig, ahol processzorlimitbe ütközünk. Megjegyzendő, hogy az FX képminősége inkább a DX8-as kártyákéhoz hasonlított a rengeteg "optimalizáció" miatt.

Crysis

A Far Cry utódjának tekinthető Crysis híresen rosszul optimalizált játék: még a GTX 480-al is csak 42 FPS-t produkált. A 6800 Ultra és a 7950 GX2 állókép-renderelő bajnokságát viszonylag szép fölénnyel nyeri a szendvicskártya, a 8800 Ultra fölénye viszont ismét döbbenetes. Fölötte a grafikon lineáris emelkedést mutat. Kíváncsi lennék, hogy egy GTX 590-el milyen eredmény születne... Talán meglenne a mesebeli 60 FPS is?

FEAR

Megjelenésekor szintén rettegett gépigénye volt, de azért hardware éhsége korántsem kielégíthetetlen. Főleg, hogy a DX8-as kártyákkal is elindult, igaz a GF3-as nem tudott megbírkózni a Full HD felbontás jelentette akadállyal. Ezt azomban nem lehet a szemére vetni, hiszen a GF4 és az FX is csak állóképeket renderelt, utóbbi ráadásul a DX9-es shadereket is a nyakába kapta. Fölöttük viszont szépen gyorsul a mezőny, működött az SLI is, így a kétmagos kártyák meglepően jó eredményt értek el. Azt lehet mondani, hogy ez a teszt kedvezett nekik, a GTX 295 el is érte a processzorlimitet.

STALKER Clear Sky

Ennek a játéknak a mérését saját hivatalos benchmarkjával végeztem. Ez 4 tesztjelenetet futtat le, melyek eredményét átlagolva született meg a végső eredmény. A 6800 Ultra foga beletört ebbe a megmérettetésbe: azért 1 FPS az eredmény, mert kevesebbet nem tud kijelezni a program, de igazából több másodperc is eltelt a kirenderelt frame-ek között. Ehhez képest a 7950 GX2 eredménye egész emberi, valószínűleg a memória mérete miatt gyengélkedett a 6800-as. Még szerencse, hogy a régebbi kártyákon el sem indult a program, mert nem győztem volna kivárni hogy végigfusson. A grafikon egyébként szépen emelkedik, egyedül a GTX 480 ütközött processzorlimitbe.

Call Of Juarez DX10 Benchmark

Végre egy teszt, ahol a GTX 480 kifuthatta magát. A két duplamagos monstrum is megmutatta mit tud, a 8800 Ultra itt nem igazán rúgott labdába, bár helytállása így is becsületes.

Resident Evil 5

Ezt a mérést a Resident Evil 5 demójának saját beépített benchmarkjával végeztem. Futtatásához minimum SM 3.0-ás kártyára van szükség, de a 6800 Ultrával ne reménykedjünk túl folyamatos képben. A 7950 GX2 szépet gyorsul itt is, valószínűleg elsősorban ismét a memória mérete számít. A 8800 Ultra azért csaknem rádupláz az eredményére, a két DX10-es szendvicskártya előnye viszont már korántsem ekkora. A GTX 480 ismét nem tudta kifutni magát a processzorlimit miatt.

Live For Speed

Az autós játékok sorát egy online versenyzők között meglehetősen népszerű programmal kezdjük. A mérést FRAPS-el végeztem, saját replay alapján. Az LFS grafikája nem túl komplex, így minden kártyával elindult, de az első három kártyával elég döcögősen futott. Ez a játék nem használ annyi shadert, ami ekkora különbséget indokolna az FX és a 6800 Ultra között, ezért itt inkább valami AGP vs PCIE váltásból adódó különbségre gyanakszom. A 6800 Ultra fölött aztán már nem is nagyon tud gyorsulni a mezőny a processzorlimit miatt. Hány és hány játékot szórtam ki emiatt a cikkből... ezt a grafikont is inkább csak az érdekes eredmény miatt tartottam meg.

Need For Speed Carbon

Az NFS sorozat talán legkevésbé népszerű része egyben a legrosszabbul optimalizáltak egyike is: megjelenésekor szinte minden aktuálisan kapható kártyával szaggatott. Meglepő, de elindul a DX8-as vasakon is, méghozzá nem is rossz eredménnyel, igaz jóval szegényesebb képpel (bár hozzá kell tennem, hogy nekem sokkal jobban bejött a cukormáz nélküli grafika, mint az agyon shaderezett, irreálisan csillogó útfelület). Így eshet meg, hogy míg a GF3 és GF4 kártyákon egész jól játszható a játék, addig a DX9-es vasakon egyenesen kínszenvedés, pedig a tesztelést csak 1024x768-as felbontásban tudtam elvégezni, mert wide felbontásokat nem támogat a játék. A megváltást csak a 8800 Ultra hozza meg, és ez nem mérési hiba, ugyanis emlékszem, hogy anno 2006 végén 7950 GX2-ről 8800 GTX-re váltva én is milyen hatalmas gyorsulást tapasztaltam a játékban. Fentebb a 9800 GX2 kiugró eredménye tűnhet fel, de ehhez hozzá kell tenni, hogy bizonyos effekteket ez a kártya nem rajzolt ki valami miatt.

Need For Speed Shift

A Shift volt az a rész, ami visszahozta az NFS széria becsületét, ám ezt biztosan nem a PC-s verzió optimalizálásával érték el. Maximális beállítások ide vagy oda, a játék egyedül a GTX 480-al fut megfelelő sebességgel. Leginkább a kétmagos kártyák szereplése megdöbbentő, mert bár a 7950 GX2 szépen elgyorsult a 6800 Ultrától, de a 9800 GX2, és főleg a GTX 295 szereplése elég gyenge, pedig az SLI működött. A játék nem indult el SM 3.0-nál régebbi kártyákon, de talán jobb is, hiszen élvezhető sebességet amúgy sem kaptunk volna velük.

XPAND Rally

Ez egy picit régi, ám egész szép grafikájú arcade Rally játék, mely azomban inkább védelmi rendszeréről híresült el. A tesztelt felbontás 1024x768 volt. Az AGP-s kártyák itt is gyengélkedtek, akárcsak az LFS-ben, hiszen a grafika nem annyira komplex, ami a 6800 Ultra ilyen mértékű előnyét indokolná az FX-el szemben. 200-220 FPS körül pedig már processzorlimitről beszélhetünk, amiből viszont a GTX 480 érdekes módon ki tudott törni. Nem igazán tudom, hogy ez mitől lehet, csak egy tippem lenne: talán a GTX 480 saját hangcodec-e kevésbé terheli le a processzort, mint az alaplapi integrált hangkártya.

STCC

Ez a játék inkább az élethű szimulációról, mint a szép grafikáról szól, ennek ellenére elég jól megdolgoztatja a kártyákat. Az FX-en is elindult, de inkább csak becsületből, hiszen értékelhető sebességet nem kapunk vele. Az SLI jól működött ebben a tesztben, legalábbis a 7950 GX2 eredménye ezt mutatja, a 9800 GX2 és a GTX 295 mégsem volt képes kimagasló ereményt elérni. Vagy itt is a hangcodec-probléma játszana szerepet?

Tom Clancy's HAWX

A tesztelt játékok sorát egy repülőszimulátorral zárjuk. Ebben a tesztben nem működött az SLI, emiatt a 8800 Ultra kiugró eredményt ért el, a GTX 480 pedig alighanem processzorlimitbe ütközött.

Összegzés, végszó

Nos, ennyi tesztre futotta. Biztos sokakban felmerült, hogy talán nem pont így kellett volna végezni a tesztet. Ha újrakezdeném, valószínűleg én is máshogy csinálnám, mindazonáltal szerintem azért ebből is levonhatunk bizonyos következtetéseket. Ha arra a kérdésre keressük a választ, hogy melyik generáció volt a legnagyobb ugrás az elődjéhez képest, akkor azt hiszem nyugodtan kijelenthetjük, hogy a GF8 széria volt az. A 8800 Ultra nemcsak az első DX10-es csúcskártya volt, de teljesítményével porba alázta az összes korabeli konkurensét, az elődeiről nem is beszélve. Sebessége még a mai napig is elegendő lehet, bár a legújabb játékok maximális részletességgel való futtatásához valószínűleg már kevés. A másik nagy ugrás a 6800 Ultra volt, de ez inkább az FX széria gyenge szereplésének volt köszönhető. Dicséret illeti a GTX 480-at is, hiszen abban a pár tesztben, ahol nem ütközött processzorlimitbe, elég jelentős előnyre tudott szert tenni. Ugyanakkor a kétmagos kártyák jól szemléltették hátrányaikat: azokban a tesztekben, ahol az SLI nem működött, egyetlen működő GPU-val lassabbak, mint az adott széria egymagos csúcskártyája. A 9800 GX2 konkrétan a 8800 Ultra szintje alá lassul, de a GTX 295 sem brillírozik túlzottan, ráadásul ez a kártya még működő SLI-vel is okozott negatív meglepetéseket, miként a 7950 GX2 is. És akkor még nem is szóltunk az SLI beüzemelésével kapcsolatos nehézségekről, bár az alighanem egyedi probléma volt nálam.

Végezetül mit is mondhatnék? Van egy vitrinem tele csúcskártyákkal, melyekre öröm ránézni, és kiváló díszei a szobának. Ugyanakkor egy letűnőfélben lévő kor emlékei, hiszen a konzolok előretörésével a PC-s 3D gyorsítás egyre inkább háttérbe szorul. Gondoljunk csak bele: a 8800 Ultra G80-as GPU-ja idén már 5 éves fejlesztés, mégis tökéletesen elég szinte bármire. Hova lett az a robbanásszerű fejlődés, ami a kezdeti éveket jellemezte? Persze lehet vitatkozni róla, hogy ez jó vagy rossz, de az már egy másik írás témája lenne.

Köszönöm a figyelmet mindenkinek, aki elolvasta a cikkemet, remélem hasznos és érdekes időtöltés volt, amit nem bántatok meg.