2024. március 28., csütörtök

Gyorskeresés

Útvonal

Cikkek » IT-ipar rovat

GeForce FX (1. rész)

  • (f)
  • (p)
Írta: |

Nvidia GeForce FX - Erős marketing, gyenge teljesítmény

[ ÚJ TESZT ]

Nvidia GeForce FX

A GeForce FX (kódnevén NV3x) az Nvidia cég grafikus kártya termékvonala.

Specifikáció

Az NVIDIA GeForce FX sorozata a GeForce vonal ötödik generációja. A GeForce 3-mal az NVIDIA bevezette a programozható shader egységeket a 3D megjelenítési képességek közé, egyidőben a Microsoft DirectX 8.0 kiadásával. A hármas sorozatot követő GeForce 4 Titanium a GeForce 3 optimalizált verziója volt, amely már DirectX 8.1 kompatibilis volt. A valós idejű 3D grafikus technológia folyamatos fejlesztéseként a DirectX 9.0 kiadása elhozott egy további finomítást a programozható pipeline technológiában a Shader Model 2.0 megérkezésével. A GeForce FX sorozattal az Nvidia letette az asztalra az első generációs SM 2.0 hardver implementációját.

Az FX DDR, DDR2 vagy GDDR3 memóriával volt párosítható, 130 nm gyártási technológiával készült, és a Shader Model 2.0/2.0A követelményeknek megfelelő vertex és pixel shaderekkel rendelkezett. Az FX sorozat teljes mértékben megfelelt és kompatibilis volt a DirectX 9.0b verzióval. A GeForce FX tartalmazott még egy továbbfejlesztett VPE-t (Video Processing Engine), amelyet elsőként a GeForce4 MX tartalmazott. Legfőbb újítása a per pixel video-deinterlacing volt — egy képesség, amellyel elsőként a ATI Radeon rendelkezett, de csak kismértékben volt használatos a Microsoft DirectX-VA és VMR (video mixing renderer) API-k beéréséig. További képessége volt többek között a javított anizotropikus szűrési algoritmus, amely bár nem volt szögfüggetlen (szemben a versenytárs Radeon 9700/9800 sorozattal), de jobb minőséget ígért, azonban valamilyen szinten kihatott a teljesítményre. Bár az NVIDIA csökkentette a szűrés minőségét a meghajtókban egy időre, a cég végül újra megemelte a minőséget, és a mai napig ez a képesség maradt az egyik erőssége a GeForce FX családnak. (Mindazonáltal ezt az anizotropikus szűrési módszert elhagyta az Nvidia a GeForce 6 sorozattal teljesítménybeli okok miatt.)

Marketing

Habár ez az ötödik nagyobb revíziója a GeForce grafikus kártyák sorozatának, mégsem GeForce 5-ként lett piacra dobva. Az FX (effects=effektek) a névbe azért került, hogy illusztrálja a legújabb konstrukció főbb továbbfejlesztéseinek és képességeinek erejét, valamint virtuálisan megkülönböztesse az FX sorozatot, mintegy azt sugallva, hogy ez valami nagyobb dolog a korábbi konstrukciók revíziójánál. A névben szereplő FX azt a tényt is jelképezte, miszerint a GeForce FX volt az első GPU, amely a korábban felvásárolt 3DFX és az Nvidia saját mérnökeinek egyesített erőfeszítéseinek eredményeképpen jött létre. Az NVIDIA törekedett arra, hogy kihangsúlyozza a kártya számos új shaderjének moziszerű effekteket létrehozó fejlett képességeit.

A GeForce FX reklámkampánya felhasználta a Dawn nevű tündéres demo-t is, amely számos veterán munkája volt, akik a Final Fantasy: The Spirits Within számítógépes animációs filmen is dolgoztak. Az NVIDIA ezt mint ''A moziszerű számítás hajnala'' aposztrofálta, amíg a kritikusok szerint ez volt a legerősebb eset, amely a nemiség varázsát a grafikus kártyák eladásának szolgálatába állította. Talán még mindig ez a legjobban ismert NVIDIA demo.

Késések

Az NV30 projekt három fő ok miatt késett. Az egyik ok az NVIDIA azon döntése, melynek folyományaként kiadta a GeForce 3 (NV 20) optimalizált verzióját, a GeForce 4 Ti (NV 25) kártyákat, míg az ATI törölte az ellene szánt optimalizált chipet (R250), és helyette a Radeon 9700-ra fókuszált.

A második ok az NVIDIA elkötelezettsége a Microsoft iránt az Xbox konzol grafikus processzorának (NV2A) szállításában. Az Xbox vállalkozás elvonta a legtöbb NVIDIA mérnököt, de nem csak az NV2A kezdeti tervezési ciklusa alatt, hanem a későbbi termékrevíziók miatt is, amelyekre szükség volt a hackerek elriasztása miatt.

Végül, az NVIDIA átállása a 130 nm gyártási folyamatra nem várt nehézségeket okozott. Az NVIDIA nagyra törően a TSMC akkor korszerű (de nem bejáratott) Low-K dielektrikus 130 nm technológiáját választotta. Miután a szilikon wafer minták abnormálisan magas hibaarányt mutattak és alacsony áramköri teljesítményt, az NVIDIA arra kényszerült, hogy újratervezze az NV30-at az általános és hagyományos (FSG) 130 nm eljárásra. (Az NVIDIA gyártási problémái a TSMC-nél arra ösztönözte a céget, hogy egy második beszállítót keressen. Az NVIDIA az IBM-et választotta számos jövőbeni GeForce chip gyártásához, hangoztatva az IBM gyártási technológiájának elsőbbségét. Érdekes módon az NVIDIA elkerülte az IBM Low-K eljárását.)

Csalódás - a hardver analízise

GeForce FX5800 Ultra (forrás: TechPowerUp)

A hardver rajongók látták, hogy a GeForce FX sorozat kiábrándító módon nem teljesíti az elvárásokat. Az NVIDIA agresszíven reklámozta a kártyát 2002. nyarán és őszén, szembeszállva az ATI Technologies őszi kiadású erőteljes Radeon 9700 kártyájával. Az ATI nagyon sikeres Shader Model 2 kártyája több hónappal előbb érkezett, mint az NVIDIA első NV30 kártyája, a GeForce FX 5800.

Amikor az FX 5800 végül megjelent, a hardver elemzők számára kiderült a tesztek és kutatások után, hogy az NV30 nem bizonyul méltó ellenfélnek a Radeon 9700 R300 magjának. Ez főleg akkor volt igaz, amikor a pixel árnyékolás bevonásra került. Ezen kívül az 5800 nagyjából 30% memória sávszélesség hátrányban volt a szűk 128 bites memóriabusz miatt, míg az ATI és más cégek a 256 bit felé mozdultak. Ehelyett az NVIDIA az új, korszerű GDDR-2 memóriatípust tervezte használni, mivel azzal sokkal magasabb órajelek elérése vált lehetővé. Mindazonáltal nem tudott elég magas lenni a 256 bites busz sávszélességének eléréséhez.

Az NV30 közvetlen ellenfele, az R300 mag 8 pixel kiszámolására volt képes órajelenként a 8 futószalaggal. Az NV30 a várakozások és a kezdeti pletykák szerint szintén 8 pipeline-os chip lett volna, azonban megjelenése után kiderült, hogy ugyanúgy, mint a GeForce 4 Titanium sorozat, 4 pixel pipeline-nal, és futószalagonként 2 textúrázó egységgel rendelkezik. Ez drámaian meghatározta a pixel fillrate-jét a legtöbb játékban. Ennek ellenére, a játékokban, amelyek nagymértékben használtak stencil árnyékokat (például a Doom3), az NV30 8 pixelt tudott kiszámolni órajelenként az árnyék megjelenítési műveletnél. Ez segített a teljesítményben ezekben a ritka megjelenítési szituációkban. Szerencsére az NVIDIA 130 nm gyártástechnológia használata lehetővé tette, hogy sokkal magasabbra emeljék az órajelet az ATI 150 nm R300-asához képest. Ez biztosította az NVIDIA számára, hogy valamennyire csökkentsék a különbséget. Mégis, az ATI jobb architekturális hatékonysága miatt az FX 5800 sok esetben jóval alulmaradt az idősebb Radeon 9700-zal szemben.

A kezdeti GeForce FX (az 5800) verzió az első kártyák egyike, amely nagyméretű, két bővítőhelyes hűtési megoldással volt szerelve. A ''Flow FX'' elnevezésű hűtő megdöbbentő volt az ATI 9700 sorozatának kisméretű hűtéséhez hasonlítva. Ráadásul nagyon hangos volt, ezt a játékosok és fejlesztők egyaránt reklamálták. Új vicces megnevezést is kapott: „Dustbuster” (kb. „Porszívó”), és azon grafikus kártyákat, amelyek hangosnak találtatnak, ezen ok miatt gyakran a GeForce FX 5800 kártyákhoz hasonlítják.

Tekintettel az NV3x sorozat sokat reklámozott Shader Model 2 és a hozzá kapcsolódó marketing szerinti ''moziszerű effektek'' képességeire, a valós teljesítmény sokkolóan gyenge volt: szerencsétlen tényezők kombinációja megakadályozta az előzetes várakozások beteljesülését.

Először is, a chipek mixelt pontosságú programozási metódusra lettek tervezve, a 64 bites „FP16” módot olyan szituációkban használva, ahol nem volt szükség nagy pontosságú matematikára a képminőség megőrzése érdekében, és a 128 bites „FP32” módot akkor, amikor abszolút fontos volt a megjelenített kép minősége. Az ATI R300 alapú kártyái nem profitáltak a részleges pontosságból semmilyen módon, mivel ezek a chipek tisztán a DirectX 9 által megkövetelt minimum 96 bites „FP24” teljes precizitású módra lettek tervezve. Egy olyan játék számára, amely az FP16 módot használta, a programozónak kellett meghatároznia a kódba épített „útmutatásokkal”, hogy mely effektek alkalmazzák az alacsony precizitást. Mivel az ATI-nak nem származott előnye az alacsony precizitásból, és az R300 sokkal jobban teljesített általánosságban shader téren, valamint jelentős ráfordítást igényelt a shaderek beállítása az alacsony pontosságú munkára, az NV3x hardver általában arra volt kényszerítve, hogy mindvégig teljes precizitással fusson.

Az NV30, NV31 és NV34 más hátránnyal is rendelkezett: keveredtek bennük a DirectX 7 fixált funkciójú T&L egységei, a DirectX 8 egész számú pixel shaderei, valamint a DirectX 9 lebegőpontos pixel shaderei. Az R300 chipek ezeket a régebbi funkciókat a tisztán Shader Model 2 hardverjükkel emulálták, lehetővé téve ezzel azt, hogy az SM2 hardver sokkal több tranzisztort használhasson az SM2 teljesítményre ugyanazon tranzisztorszám mellett, mint az ellenfél. Az NVIDIA hardver mixtúrája viszont hátrányba került SM2 program futtatása esetén, mivel a chip csak egy része tudta ezeket a számításokat végezni.
Az NV3x chipek olyan számítási architektúrát alkalmaztak, ami erősen támaszkodott a grafikus kártya meghajtójában helyet kapó shader fordító hatékonyságára. A shader kód megfelelő utasításai drámaian tudták javítani a chip shader számítási hatékonyságát. A fordító program fejlesztése hosszú és bonyolult feladat, mely hatalmas kihívás volt az NVIDIA számára, és a gyártó próbált úrrá lenni rajta az NV3x életciklusának legnagyobb része alatt. Az NVIDIA számos útmutatót kiadott GeForce FX-optimalizált kód készítéséhez, valamint együttműködött a Microsofttal, hogy létrehozzanak egy speciális shader modellt „Shader Modell 2.0A” néven, amely optimális kódot generált a GeForce FX számára. Az NVIDIA ezen kívül sokat vitatott módon újra szerette volna írni a játékok shader kódját, kényszerítve a játékot, hogy inkább az ő shader kódjait használja. Az NVIDIA mérnökei át tudták volna szabni a kód aritmetikus struktúráját és beállítani a precizitását, így optimálisan tudott volna futni a hardverjükön. Mindazonáltal egy ilyen kód gyakran alacsony képminőséget eredményezett volna.
Később mégis kiderült, hogy még a részleges precízió, a Shader Modell 2.0A használata és a shader kód kicserélés ellenére is a GeForce FX teljesítménye a shader-intenzív alkalmazásokban alulmaradt az ellenfelekkel szemben. A GeForce FX viszont versenyképes maradt az OpenGL alkalmazásokban, ami két ténynek tudható be: egyrészt a legtöbb OpenGL alkalmazás gyártó-specifikus kiterjesztéseket használ, másrészt az NVIDIA OpenGL meghajtóinak minősége általánosan felette volt a versenytársakénak abban az időben.
Bár FX sorozat szerény siker volt, az elkésett bemutatkozás és a hibái miatt az NVIDIA átengedte a piacvezető pozíciót az ATI Radeon 9700-nak. A piaci igény okán és az FX tökéletlensége, mint méltó utód miatt, az NVIDIA meghosszabbította az idősödő GeForce 4 életciklusát, gyártásban tartva a 4-es sorozatot az FX mellett még egy ideig.

Folytatás:
GeForce FX (2. rész)

A fenti írás nagyrészt a Wikipedia GeForce FX angol nyelvű szócikkének tükörfordítása.

Mélyebb technikai információért javaslom megtekinteni rudi PH-s VGA-guru oldalát: [link]

Azóta történt

Hirdetés

Copyright © 2000-2024 PROHARDVER Informatikai Kft.