Hirdetés

2024. május 8., szerda

Gyorskeresés

Hozzászólások

(#1) zuchy


zuchy
őstag

Érdekes. Nv-nek muszáj lesz egy olyan fizikai szabványt kitalálnia, ami nem hardverfüggő. Máskülönben elsüllyed a Physix a süllyesztőben. Nagy esélye van az a havoknak fölé kerekedni, hiszen Open CL-re épül. A fejlesztőknek pedig ez kell. :)

PC-STYLE.hu

(#2) Abu85 válasza zuchy (#1) üzenetére


Abu85
HÁZIGAZDA

Igazából itt csak dönteni kell, hiszen nem nagy munka az OpenCL és a Compute Shader támogatása. Ez egyébként érdekes lehet, mert ha kiterjesztik a Physx-et, akkor még nem mondtak le a PC-s VGA piacról. Ha marad CUDA only, akkor sajna a kivonulás a terv. :(

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#3) Bici válasza Abu85 (#2) üzenetére


Bici
félisten

Én már egy kicsit előre gondolkodva arra vagyok nagyon kiváncsi, hogy ha a Larrabee megjelenik, és sikere lesz - márpedig az intel megoldja, hogy az legyen, ha nem is eleinte, de pár éven belül tuti - akkor az AMD mit fog felhozni ellene, helyesebben az mennyire lesz vele szemben versenyképes... :U Olyan erőviszonyok lesznek, mint a procik terén?

Ezzel a vonallal egyébként az nV tudna versenyezni? A GPGPU vonalat nem lehet a szoftver renderre is alkalmassá tenni?

[ Szerkesztve ]

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#4) Abu85 válasza Bici (#3) üzenetére


Abu85
HÁZIGAZDA

Az AMD-nek is lesz majd Larrabee-hez hasonló rendszere, de csak majd 2014 körül. Az Intel azért adja ki ilyen hamar a Larrabee-t, mert egy DX futószalaghoz kötött rendszerrel sem lenne versenyképes. Ennek megfelelően előredolgozik. Mindenesetre a Larrabee-ben csak a textúrázás lesz fix funkciós, így a DX futószalagon a konkurens rendszerekhez viszonyítva nagy lesz és lassú. Az első modell nulladik generációs lesz tehát csak a fejlesztőknek szól, hogy tanulják a rendszer működését.

Ez a jövő zenéje, hogy az NV mit tud majd, de a platformosodás miatt kevés az esélye a versenyzésre.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#5) zuchy


zuchy
őstag

Igen, én is azt hallottam, hogy a Larrabee csak bemutatóba lesz, majd ami utána jön valszeg jobb lesz.

(#2) Abu85:
Képesek megtenni Nv-ék, hogy nem teszik függetlenné a Physix-et. :(
Nem lenne jó, ha kiszállna, mert akkor meg az AMD árak elszállnának.
De lehet, hogy a háttérben nagyban dolgoznak egy x86 vagy x64-es CPU-n Csak hát a licenszek... Ez az egyetlen esélye van szerintem Nv-nek.

[ Szerkesztve ]

PC-STYLE.hu

(#6) Bici válasza Abu85 (#4) üzenetére


Bici
félisten

Ok, értem. Köszi! :)

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#7) schwartz válasza Abu85 (#4) üzenetére


schwartz
addikt

A platformosodasnak mi haszna? Ha procit vagy vga-t akarok, megveszem. Es olyat amilyet szeretnek. Ne nyomjak mar le a torkomon egyben a kettot. :((

If he dies, he dies.

(#8) gfefe


gfefe
őstag

Ez fejtse már ki nekem vki, hogy mit takar ezen mondat :U

"az NVIDIA GPGPU API-ja már most is halottnak tekinthető, a megrendítő ütést pedig a DirectX 11-ben megjelenő Compute Shader fogja bevinni"

Vmi olyasmit hallottam, hogy csupán a dx10.1 lesz használható 11 alatt vagy mi...

várom a választ :R

DOWNLOAD ██████████████ 105%

(#9) Abu85 válasza schwartz (#7) üzenetére


Abu85
HÁZIGAZDA

Minek GPU a szoftver rendernek? A távolabbi jövőben teljesen más lesz a fejlesztési szempont a procik is kb. a Cell-hez fognak hasonlítani.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#10) Abu85 válasza gfefe (#8) üzenetére


Abu85
HÁZIGAZDA

A CUDA az az NV saját GPGPU API-ja. Ám jött az OpenCL és év végén jön a Compute Shader. Ezek ugyanúgy GPGPU API-k, csak gyártófüggetlenek. Ezért tekinthető a CUDA halottnak, mert van független alternatíva, és emellett az NV piaci részesedése is rohamléptekben csökken.
Persze a CUDA más piacokon még jó szolgálatot tehet, de a PC-s VGA piacon sok sansza már nincs.

A DX11 a DX10-re épül. Ez azt jelenti, hogy a DX11-es kód három erőforrást kreálhat. DX11, DX10.1 és DX10 kompatibiliset (a kártyának megfelelően ugye). Ergo a DX11 kód DX10-ig visszamenőleg fut a hardvereken. A specifikus programkódok azonban csak azon a kártyán futnak le amik támogatják.
Ez a DX10.1-ig való kompatibilitás azért terjedt el, mert DX10.1 számos látványbeli és teljesítménybeli pluszt vezetett be. Ennek megfelelően a DX11 a DX10.1-es kódnál csak minimálisan lesz szebb és valószínűleg nem lesz gyorsabb. Ám a DX10 kódnál sokkal szebb lesz és átlag 20-40%-kal gyorsabb. (persze most elméletben tételezzük fel, hogy az erőforrrás ugyanarra a teljesítményre képest).

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#11) schwartz válasza Abu85 (#9) üzenetére


schwartz
addikt

Az sem biztos, hogy majd elterjed. Kinek fog kelleni ha eleinte lassu lesz? (foleg ha hosszu atmeneti idoszakkal is tarsul)

If he dies, he dies.

(#12) Abu85 válasza schwartz (#11) üzenetére


Abu85
HÁZIGAZDA

Carmack és Sweeney már a szoftver renderben gondolkodik ... Voxel Space, Ray-Casting, fully programable raszter, esetleg Ray-Tracing. Az ID Tech 6 és az Unreal Engine 4 már ilyen motor lesz.

Mellesleg erről már írtam a PH-s cikkben. A DX futószalag kifújt, fejleszthetőségi lehetőség kvázi nincs. Újítani kell, és egyelőre a fejlesztők saját futószalagot akarnak írni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#13) nixx-21 válasza zuchy (#5) üzenetére


nixx-21
senior tag

annyira csaknem szállnak el az árak, addig a VIA ,S3 is erősödhet eleget plusz az intel is be fog lépni a piacra :K
meglássuk ez tényleg még a jövő zenéje

Ati VGA tulajok baráti klubja topik.  Dєsιɢnєd ву Λρρʟє ιn Cαʟιғoяnια.(*) powered by: Nvidia

(#14) Loha válasza Abu85 (#9) üzenetére


Loha
veterán

És ha úgy tesszük fel a kérdést, hogy minek a CPU a szoftverrenderhez?
Azért az sztem elgondolkodtató, hogy ha a VGA-kra nem lesz szükség a szoftverrenderhez, akkor minden kezd bele a vezető CPU gyártó VGA fejlesztésbe.

Cell is frankó dolog, csak még mindig nem tudják a játékfejlesztők kihasználni, és ez nem biztos, hogy egyhamar változni fog.

(#15) gfefe válasza Abu85 (#10) üzenetére


gfefe
őstag

Köszönöm a bőséges válaszadást :R

DOWNLOAD ██████████████ 105%

(#16) Abu85 válasza Loha (#14) üzenetére


Abu85
HÁZIGAZDA

Mire itt a szoftver addigra átalakulnak a CPU-k is. A Larrabee sok tekintetben CPU ... sőt inkább CPU, mint GPU. A távolabbi jövőben többféle mag lesz a CPU-ban. Kifejezetten egy-egy feladatcsoporthoz fejlesztve. A Cell-t ezért hoztam fel példaként, mert némileg előrevetíti a jövőt. Persze a PS3-nak az a baja, hogy nagyon a jövőbe mutat, így a jelenlegi helyzetben kihasználatlan, mire pedig eljutunk a megfelelő használathoz addigra rég lesz PS4.

Nagyon fontos, hogy amikor a szoftver renderről beszélünk, akkor 2014 körüli időpontban kell gondolkodni.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#17) Loha válasza Abu85 (#16) üzenetére


Loha
veterán

Igen a Larrabee inkább CPU mint GPU, de ennek könnyen lehet az a magyarázata, hogy ennyire futotta első körben. Sztem az is elképzelhető, hogy a mostani VGA-tól rövidebb út vezet a szoftverrenderhez ideális architektúrához, mint a CPU-któl.

(#18) LordX válasza Abu85 (#9) üzenetére


LordX
veterán

Hogy mi?

A Cell jelenleg egy kétmagos központi proci + n db vektorprocesszor. Nahmost pontosan ugyanez van egy aktuális PC-ben: 1-2-4 magos CPU + 1-2-4 db GPU. A változás max az lesz, hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára (meg más lesz a busz, de az irreveláns programozás szempontjából)

(#19) TESCO-Zsömle válasza Loha (#14) üzenetére


TESCO-Zsömle
félisten

Ha szabad ezt a kérdést szgép-szerkezetileg megválaszolnom, akkor azt kell mondjam, hogy CPU tovább lesz, mint VGA. A VGA nem más, mint egy gyorsítókártya, mely azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak.
Amint a processzor(ok) teljesítménye elegendő lesz, hogy újra "ők" számolják ezen számításokat, a VGA, mint olyan, értelmét veszti.

Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért?? :U

LordX: A dolog lényege, hogy akárhány GPU-t pakolsz a CPU-ba, az attól még CPU marad. Vagy ha nagyon "ragaszkodsz",lehet UPU (United Process Unit).

De ez már csak játék a szavakkal.

Az eredeti elképzelés szerint a CPU-nak kell számolnia mindent. És ha ehhez n+1-féle PU-t (Process Unit) kell belepakolni, ám legyen.

[ Szerkesztve ]

Sub-Dungeoneer lvl -57

(#20) Bcy+


Bcy+
tag

Parasztosan le egyszerűsítve nem kerek aki nv kártyát vesz ? :U :B

||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||

(#21) Loha válasza TESCO-Zsömle (#19) üzenetére


Loha
veterán

azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak. Én ezt inkább úgy fogalmaznám meg, hogy a VGA egy grafikai számításokra optimalizát rendszer, mint a GPU, mint a hozzá csatolt relative kevés, de nagyon gyors ram. A CPU pedig általános számításokra van optimalizálva, a hozzá tartozó sok, de lassabb ramal együtt. Ha a PC egy csak játékra szánt eszköz lenne, akkor valószínüleg egybeolvadna a GPU és a CPU, ahogy a konzoloknál is láthatjuk, hogy közös gyors, de kevéske ramot használnak, mert játékokhoz ez az ideális, de általános (nem csak játék) feladatokra sokkal jobb szétválasztott rendszer.

(#22) schwartz válasza LordX (#18) üzenetére


schwartz
addikt

A változás max az lesz, hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára

En is csak igy latom az ertelmet.

If he dies, he dies.

(#23) schwartz válasza TESCO-Zsömle (#19) üzenetére


schwartz
addikt

Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért?? :U

Ugyan mar... Ott az alaplapi VGA. Ugyanezt ne nyomjak mar le a torkomon mas borben... Kulonben is, hogy lesznek piacra dobva? Kis teljesitmenyu CPU resz joarertekmutatos vga-val? :U Ha grafikai teljesitmeny is kell megveszed az 500W TDP-s csucs Godzillat?

[ Szerkesztve ]

If he dies, he dies.

(#24) Bici


Bici
félisten

(#18) LordX:
"hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára"

Szerintem nem sima egybeköltöztetés lesz, mert ennek én alig látom értelmét, hiszen ettől még nem lesz szoftver-renderre alkalmas a cucc. Biztos vagyok benne, hogy a mai GPU-k annyira át fognak alakulni, hogy a CPU-ba költöztetés teljesen egyértelmű lesz.
A cél végülis az hogy x86 utasításokkal lehessen egy GPU erejű egységet programozni, nem? Ehhez nem elég a GPU-t belerakni a prociba... szerintem. :U

(#23) schwartz: Ezen már én is gondolkodtam. Mitől lesz egy későbbi proci elfogadható fogyazstású? Lehet, hogy át fog alakulni a mai felépítés, és a proci fog fogyasztani annyit, mint ma egy CPU+GPU páros. Összességében ugyanannyi. Ha megoldható a hűtés emberi áron, akkor no problemo.

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#25) Balu77


Balu77
őstag

Ez az egész kicsit hasonlít a 3Dfx történetére. Ott megvolt a glide, aztán az ms directx egyszerűen lesöpörte az asztalról az egységesített szabványával.

Úgy látom miután lefutott a havok vs cuda a kör, jön szerintem a DX11 és a havok közti verseny. De hogy melyik lessz a farok és melyik a kutya, még nem tudni. Az is lehet hogy még pár érdekesség bekerül a levesbe, majd kiderül!

izé

(#26) Abu85 válasza Loha (#17) üzenetére


Abu85
HÁZIGAZDA

A szoftver renderhez a maximális programozhatóság az ideális. Eleve nem beszélhetünk kötött futószalagról. A Larrabee és a Cell az ideális a szoftver renderhez ... a GPU-k nem elég jók, mert rengeteg fix funkciós egységgel dolgoznak még mindig.

LordX: A CPU-ba épített GPU csak az első lépés. 2011-re már az Intel és az AMD is ilyen rendszereket árul. A szoftver rendering motorok 2014 körül lesznek.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#27) Loha válasza Abu85 (#26) üzenetére


Loha
veterán

Igen a GPU-kban sok a fixfunkciós egység, a CPU-knak pedig nem megfelelő a felépítése.
Intel szerint is az ideális felépítés pont a mostani GPU-k és CPU-k között van. Intel elindult a GPU-k irányába, a GPU-k pedig megindultak a "maximális programozhatóság" felé, meglátjuk ki ér oda elöbb :)
Te továbbra is tartom az álláspontom, hogy mivel a PC nem csak játékgép, ezért a nagyteljesítményű VGA-k továbbra is maradni fognak, különálló "GPU"-val és saját rammal.

(#28) Cyberpunk válasza Bcy+ (#20) üzenetére


Cyberpunk
félisten

Miért ne lenne normális? Ma még leszámítva azt az egy két játékot ami kihasználja a DX10.1-et abszolút nem érvágás hogy valakinek nV-s kártyája van. Sőt :U Ha meg már kevésnek bizonyul addigra a többség úgy is már rég lefogja váltani.

Egyébkén szerintem is jó dolog hogy el akarják hagyni a DX-et. Így talán játszhatnánk más rendszeren is nem csak a Winfoson.

"You said you'd always be there for me.... but you're not..."

(#29) LordX válasza Bici (#24) üzenetére


LordX
veterán

Soha nem fogsz GPU-szerű egységet x86-al programozni, mert az x86 egy alapvetően skalár utasításkészlet, nem vektor-/mátrixprocesszorokra tervezték. Persze van pár MIMD kiegészítése (MMX, SSEx), de ettől még nem lesz vektor-/mátrix utasításkészlet.

A jelenlegi GPU-knak van egy jól működő utasításkészlete, felesleges feltalálni a spanyol viaszt, és beleizzadni az x86-ba ugyanazt, a kompatibilitás megtartásának szükségessége miatt borítékolhatóan gyengébben.

Amúgy is újra kell tanulni programozni a rendszert (avagy jó fordítót írni), akkor meg már mindegy hogy egy x86 v2 vagy x86 + más.

(#30) Bici válasza LordX (#29) üzenetére


Bici
félisten

A Larrabee is x86-al programozható... :U

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#31) VIC20 válasza LordX (#18) üzenetére


VIC20
őstag

"A változás max az lesz, hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára"

A micsodájára???
Nem is tudtam, hogy a CPU-k körében is terjed a mellnagyobbítás... :DDD

(#32) Abu85 válasza Bici (#30) üzenetére


Abu85
HÁZIGAZDA

Meg az új AVX utasításkészlettel. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#33) Bici válasza Abu85 (#32) üzenetére


Bici
félisten

Ja, igen, tényleg.
Kiváncsi vagyok, hogy az avx hogy viszonyiul az sse5-höz. Sajna a wiki leírásból túl sok nem derült ki számomra. :B Annyi leesett, hogy nem ugyanarra való a kettő.

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#34) orbano válasza Cyberpunk (#28) üzenetére


orbano
félisten

Igen, az ideális út a kettő között van. Jelenleg kb. ilyen proci a Cell, ezért is említette Abu szerintem.

[ Szerkesztve ]

A vér nem válik VAZZE!™

(#35) Jim Tonic válasza Abu85 (#12) üzenetére


Jim Tonic
nagyúr

Ha így lesz, hülye megoldás. Izomból kell majd megoldani egy olyan feladatot, amit egy célhardver negyed annyi tranzisztorral, hővel, fogyasztással megoldana.
Számomra úgy tűnik az Intel úgy akarja behozni a lemaradását, hogy ideiglenesen egy másik vonalat erőltet a világra, és azon a csatamezőn akarja letudni a háborút, ahol a legerősebb, az X86 fronton. Kicsit hasonlít az Nvidia megoldásaihoz.
Aztán majd beleharap a saját farkába, ahogy az Atommal is tette. Nem azt sikerült vele elérnie, amit akart, nem került bele mobileszközökbe, nem nyírta ki az ARM-ot, viszont nem tudja eladni olyan árréssel, mint a mobilprocesszorait.

A szoftveres renderelés képességeiről annyit, hogy egy amúgy erőteljes proci elfekszik egy HD video lejátszásán, egy szerény képességű videokártya meg nevetve viszi.
Ha ezt játékoknál akarják megoldani, olyan erőforrás-pazarlásról beszélhetünk, ami tökéletesen ellentmond a számítástechnika "zöld" fejlődésének.

[ Szerkesztve ]

Alcohol & calculus don't mix. Never drink & derive.

(#36) schwartz válasza Balu77 (#25) üzenetére


schwartz
addikt

Abban az idoben a D3D sehol sem volt a Glide vagy az OpenGL mellett. A 3dfx-et a rossz management tette tonkre.

If he dies, he dies.

(#37) Jim Tonic válasza schwartz (#36) üzenetére


Jim Tonic
nagyúr

Nem ennyire egyszerű. A 3dfx halálát a TNT2 ill. a 32bites színmélység támogatásának hiánya okozta. A Geforce 256 ellen meg egyszerűen elkéstek egy évet a Voodoo IV-gyel. Szép nagy saller volt a nyílt forráskódú társadalomnak.

Alcohol & calculus don't mix. Never drink & derive.

(#38) Abu85 válasza Jim Tonic (#35) üzenetére


Abu85
HÁZIGAZDA

És akkor most hozzunk létre egy másik futószalagot, amire megint 2-3 év mire kiforr egy hardver? A fejlesztők nagyfokú szabadságot akarnak. Ezt egyelőre a Larrabee-től lehet remélni. Eleve 48, de inkább 64 magos termékről beszélünk. Erő lesz bőven. Ha a Cell-t már erőműnek nevezzük, akkor a Larrabee-re nemtom milyen szó az ideális.
A legjobb ha hagyják a fejlesztőket a saját útjukat járni ...

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#39) Jim Tonic válasza Abu85 (#38) üzenetére


Jim Tonic
nagyúr

Igen, még az is okosabb megoldásnak tűnik.
A nagyfokú szabadság, nagyfokú kompatibilitás, azaz kötöttségek nélküli rendszer. Programozói szempontból kafa, de ez egyben jó nagy pocsékolás is.
Szerinted mit eszik majd egy Larrabee? Ha nem játszol, mire mész vele egy irodában?

Alcohol & calculus don't mix. Never drink & derive.

(#40) schwartz válasza Jim Tonic (#37) üzenetére


schwartz
addikt

A 3dfx-el szemben az NV csak GPU-kat ertekesitett. Nem nehez kitalani melyik volt a jobb dontes.

If he dies, he dies.

(#41) Bici válasza Jim Tonic (#37) üzenetére


Bici
félisten

Szerintem a 3dfx végét a hardveres T&L hiánya okozta, és ebből adódott az alacsonyabb sebesség.
Úgy emlékszem, hogy:
A 32 bites színmélység akkoriban sem volt túl nagy előny, mert az nV karik 32 biten lassabbak voltak a voodoo kariknál, 16 biten meg rondább volt a kép.
A voodoo 20 biten dolgozott, és azt konvertálta le 16-ra, ami szebb képet eredményezett, mint az nV 16 bites képe, csak lassabb volt.

(#39): Szerintem majd akkor mondjunk véleményt róla, ha majd látjuk a Larrabee-t.
Jópár hónapja valami olyan pletyit olvastam, hogy a Larrebee egy teszt változata 2Tflops-ot tud 300W mellett. Ez jobb, mint a GT200 ~1Tflops/225W-os eredménye.
Persze kérdés, hogy igaz-e. És ha igen, mennyit fog változni a végleges változatig.

[ Szerkesztve ]

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#42) mephi666 válasza Bici (#41) üzenetére


mephi666
nagyúr

jaja... a t&l hiánya miatt lett pl a legerősebb voodoo5 is gyengébb a gef-eknél :S pedig brutális értékekkel rendelkezett már az is... volt akkor egy kis kavarodás: javában fejlesztették már a rampage-et, ami olyan t&l támogatással volt megáldva, hogy dx8 szinten lesöpörte volna a többi kártyát... asszem a legütősebb gef4-ek vették volna fel vele a versenyt később... ekkor volt veszteséges a 3dfx a voodoo4-5 gyenge szereplése miatt és ha nem hagyják, hogy az nv felvásárolja a céget, hanem valahogy kiadják a rampage-et, akkor más lenne most szerintem a piac felállása... csak hát túl sok a "ha" :( r.i.p. 3dfx... imádtam a voodoo-imat... az előző módon részletezett "16bit"-ben is sokkal szebb volt, mint a d3d-kártyák... azoknál 16bitben szellemképesek meg ocsmányak pl az effektek :S

"Kis lépés az emberiségnek... hosszú lépést a férfiaknak..." ++++++++++++++ BattleTag: mephiHUN#2258 ++++++++ A kígyó veszélyes állat mert harap, de a takarítónő még veszélyesebb, mert ő Maris

(#43) arty


arty
veterán

akkoriban a 32bit valoban egy marketingfogás volt (kvázi felezte a teljesítményt), ráadásul a 16bit hátrányait a tnt trágya 16 bites képével "demozták" ... működött :)

ettől függetlenül a 3dfx is rengeteg hibát követett el és végül megérdemelt volt a "haláluk" (max 256x256os texturák támogatása voodoo3ban? idiotizmus)

[ Szerkesztve ]

"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."

(#44) Bici válasza arty (#43) üzenetére


Bici
félisten

Ráadásul a v3 dx-ben elég gyengusz volt.
A VSA100 (v4/v5) már inkább dx/OpenGL kari volt, de kopmatibilis maradt a glide-al is.
Nekem volt V5-ös karim. A 800-1000Mhz közötti procik idején jelent meg, ha jól emlékszem (sok helyen még 550-es procival tesztelték), de az 1.4-es Tualatinból 2,4-es P4-be átrakva jelentősen gyorsult a kari.
Azt mondták az okosok akkoriban, hogy megfelelően erős procival lenyomhatja a GF2-t is, ami a megjelenésekor alaposan elverte a v5-öt.

[ Szerkesztve ]

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#45) Jim Tonic válasza mephi666 (#42) üzenetére


Jim Tonic
nagyúr

A Rampage belekerült az FX5900-ba, jó nagy semmit ért az a kártya. :)

Alcohol & calculus don't mix. Never drink & derive.

(#46) D1Rect


D1Rect
félisten

Akkor általánosságban elmondható, hogy jelenleg a havok a jobb(fejlesztés szempontjából)?

(#47) mephi666 válasza Jim Tonic (#45) üzenetére


mephi666
nagyúr

hát az fx széria sem az erejéről volt híres mindent összevetve :S ha utána az nvidia elszúrta volna a 6os szériát, akkor lettek volna igazán bajban... de azok a kártyák elég gyilkosra sikerültek abban az időben... :)
mind1... én akkor is sajnálom a 3dfx-et... :(

"Kis lépés az emberiségnek... hosszú lépést a férfiaknak..." ++++++++++++++ BattleTag: mephiHUN#2258 ++++++++ A kígyó veszélyes állat mert harap, de a takarítónő még veszélyesebb, mert ő Maris

(#48) schwartz válasza Jim Tonic (#45) üzenetére


schwartz
addikt

Miert pont az FX5900-ba? Nem ugy volt, hogy "kukaztak" mindent az NV-nel? Pl. a T-buffer sem koszont vissza sehol. Bar lehet rosszul tudom...

[ Szerkesztve ]

If he dies, he dies.

(#49) Xmas


Xmas
tag

Vajon mit fog szólni az Oracle az APEX név használatához?

(#50) WonderCSabo


WonderCSabo
félisten

Kár, h. nem a Havokot támogatja az Nvidia, az sokkal elterjedtebb. Most meg az a konkurenciája...

Copyright © 2000-2024 PROHARDVER Informatikai Kft.