Hirdetés

2024. május 29., szerda

Gyorskeresés

Hozzászólások

(#1) diegho


diegho
nagyúr

No lassan de biztosan csak befejezem az irományt. Majd még javítom a hibákat.

(#2) mokus1 válasza diegho (#1) üzenetére


mokus1
addikt

Jó teszt de én 2 dolgot hiányoltam.Jó lett volna látni a 3 kártya adatait egy táblázatban.És miért volt a 8800gt? :R

(#3) #41133696 válasza diegho (#1) üzenetére


#41133696
törölt tag

Helló!

Jó az írás, de érdekelne, hogy Company of Heroes beépített benchmarkjával mi a különbség a 256MB-os és a 512MB-os HD 3850-es között pl?

Itthon a családi gépben nekünk is HD 3850-es van (256-os), de nem tudom pl 939-es 4200+-os X2-es procihoz érdemes, e HD3870-est venni?

Amúgy egy tesztet majd igyekszem eszközölni, mert a régebbi írásomban nem volt mérés.

(#4) rumkola


rumkola
veterán

Az utcsó 2 grafikon picit fura, ezen kívül korrekt és egyértelmű a teszt. Respect!

[ Szerkesztve ]

(#5) #41133696


#41133696
törölt tag

Illetve érdekes lehetne, a HD 3850-es 1GB-os verziója valamint a HD 3850 X2 is illetve, hogy milyen a HD 3850 AGP-n ?

Remélem, egyszer valaki ezeket is teszteli majd ;)

[ Szerkesztve ]

(#6) Chaser válasza #41133696 (#3) üzenetére


Chaser
titán

Ha alapon van a procid, még a 3850-es is bőven sok neki...

Használtat nem érdemes új árral hasonlítani, ennyi erővel a használt 4670 se 21k, viszont az új MSI 256 megás 3850 15-17k, szóval jelenleg ő a bestbuy..sztem:)

_tejesen'® joálapotpan'™_-_Hamarosan a hiányból is hiány lesz...by Samus

(#7) #41133696 válasza Chaser (#6) üzenetére


#41133696
törölt tag

Hát ez az, de a 256 MB miatt nem éri meg lecserélni egy 512MB-os-ra?

Szerk, nade van olyan AGP-s alaplap például ahol nem proci limites a HD 3850-es?

[ Szerkesztve ]

(#8) PH-User


PH-User
addikt

Üdv! Köszi a tesztet, de szerintem elírtad: "Call of Duty 4 World at War", szerintem ez Call of Duty 5 World at War. :R

''Amíg szól a zene muszáj felkelni és táncolni.''

(#9) Gordiann


Gordiann
őstag

És akkor 500-an lehurrogtak, amikor kifogásolni mertük az előző tesztnél használt 256-os 3850-et........heh :(((

A jó kis érvelés, hogy a 256-os van elterjedve....meg hogy nem is számít igazán sehol...

[ Szerkesztve ]

(#10) diegho válasza PH-User (#8) üzenetére


diegho
nagyúr

hú köszi, lett volna cod4 is, de technikai problémák adódtak.

A GRID-ről annyit, hogy tényleg ennyit számít csak a 4x és 8x ati kártyáknál, nem tudom mitől van ez.

A kártyákról a táblázat majd holnap belekerül, meg kép is a dobozokról, de most kész vagyok, nincs energiám megírni a táblázatot.

(#11) PH-User válasza diegho (#10) üzenetére


PH-User
addikt

Nincs mit, éppen COD-ozás közben futottam át gyorsan a tesztet. :)

''Amíg szól a zene muszáj felkelni és táncolni.''

(#12) tzsolesz


tzsolesz
nagyúr

Nagyon jó lett, köszi szépen. :R :R
Én már láttam használtan 13K-ért 3850-est. :Y

Érdekes hogy azt megemlíted, hogy a 8800GT mennyi használtan, viszont azt nem hogy a 3850 mennyi. :U Mindjárt más a kép sztem, de ez csak mellékes. :K

Jah, és úgy látom, hogy a GRID-nél sajnos nem ment az AA a 8800GT-én, legalább is a 8xAA az nem ment neki. Na meg ezek után ki tudja hol nem ment még neki.... :F

[ Szerkesztve ]

(#13) Pala válasza tzsolesz (#12) üzenetére


Pala
veterán

"Én már láttam használtan 13K-ért 3850-est."

Én 10-ért váltam meg az enyémtől. :)

[ Szerkesztve ]

(#14) Pala


Pala
veterán

Amúgy jó a teszt.
Talán érdemes lett volna megnézni még a kártyákat Stalkerrel és valamilyen Unreal Engine 3-mat használó játékkal. Előbbiben a 4670, utóbbiban a 3850 jelentősen jobban teljesít vetélytársánál.

(#15) diegho válasza tzsolesz (#12) üzenetére


diegho
nagyúr

grid-nél szerintem ment az AA, semmivel nem volt rondább a kép, mint a radeonoknál. 256-os kártyát lehet látni 13-ért, de 512-est szerintem nem osztogatnak ennyiért, aki ennyiért adja az meg szimplán marha

(#16) tzsolesz válasza Pala (#13) üzenetére


tzsolesz
nagyúr

Akkor most mi is a bestbuy??? :F

(#17) Pala válasza tzsolesz (#16) üzenetére


Pala
veterán

Kinek mi.... :)
Szerintem mindkét kártya jó vétel. Viszont 3850-ből a 256-os már nem igazán nyerő.

(#18) Dr. Romano válasza tzsolesz (#16) üzenetére


Dr. Romano
veterán

20k-ért egy 4850 szerintem már annak mondható! :D

Ez....e...ee...ez egy.... ez egy FOTEL???

(#19) luw2win válasza PH-User (#8) üzenetére


luw2win
őstag

Nem Call of Duty 5 World at War hanem csak simán Call of Duty: World at War
Bár ez már csak szőrszálhasogatás :)

[ Szerkesztve ]

.“Azért nem jut olyan sok ember sehova az életben, mert a hátsó kertben keresgélik a négylevelű lóheréket.”

(#20) Abu85


Abu85
HÁZIGAZDA

A Crysis Warhead-on kívül egyik tesztelt játék sem használ Streaming textúrázást. Még szép, hogy jobb az 512MB-os változat ezekben az esetekben.
A mi cikkünkben a S.T.A.L.K.E.R. és a GRID tesztekben világos, hogy a 256 MB miatt nem szerepelt jól a HD3850 ... ezt mi sem tagadtuk, de a többi teszt eredményét tekintve nincs eltérés a memóriamennyiség közt.
A HD3850 és a HD4670 viszonya érdekes. A HD4670 jobb branching hatékonysággal rendelkezik, a HD 3850 viszont kétszer annyi fragmentet interpolál órajelenként. Az az igazság, hogy mindkét dolog fontos ... nem igazán lehet eldönteni, hogy melyik fícsőr éri meg jobban, viszont az Unreal Engine 3 nagyon épít az interpolálási teljesítményre, így a sok UE3-as (jövőben megjelenő) gamát nézve talán érdemes a HD3850 mellett maradni, amíg el nem fogynak a készletek.

DX10 karival már lényegtelen az AA, csak a Multisample Access-sel lehet Z és Color infót mintavételezni ... Ehhez pedig DX10.1 támogatás kell. A S.T.A.L.K.E.R. Clear Sky és a Far Cry 2 fejlesztői is azért adták be a derekukat, mert egyszerűen nem lehetséges teljes funkcionalitású AA DX10 alatt. Most már lehet tudni, hogy aki Deferred Renderinget használ a programjában az DX10.1-re fog átállni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#21) tzsolesz válasza Dr. Romano (#18) üzenetére


tzsolesz
nagyúr

Lehet, de kíváncsi vagyok hogy milyen mennyiségű 25K-ós használt 8800GT van a piacon most. Kielégíti a jelenlegi VGA-t vásárló közösséget??

Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb....

Ez mind fontos tényező amikor az ember VGA-t vásárol. Én szeretem a kis 4670-esem, ráadásul DX10-ben nekem jobban megy mint a fenti tesztben az FC2. Tökéletesen játszható 1280x1024-ben High-on minden, és 2xAA-val. :R :R

(#22) Pala válasza tzsolesz (#21) üzenetére


Pala
veterán

"Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb...."

Na én pont ezek miatt nem veszek soha használt vga-t. Eddig is csak egyetlen egyszer történt ilyen (amit egyébként nem bántam meg, semmi gond nem volt vele), de jobb a tudat, hogy a boltból frissen hazahozott kártyának én vagyok az első tulajdonosa (remélhetőleg:) ). Nekem ez megér pár plusz ezrest, nem tudom ki hogy van vele.

(#23) tzsolesz válasza Pala (#22) üzenetére


tzsolesz
nagyúr

Osztom, osztom.... :R

Nem kéne 8800GT még használtan sem... inkáb egy új 9800GT, de akkor már inkább egy ropogós 4850. :DDD

(#24) Pala válasza tzsolesz (#23) üzenetére


Pala
veterán

Én beruháztam az utóbbira. Itt a fórumon érdemes nézelődni a bazárosok között, némelyiküknél még most a válság idején is kedvező áron lehet hozzájutni.

(#25) Sweet Lou 6


Sweet Lou 6
addikt

Pedig nyár elején még gondolkodtam hogy a 256-ost vagy az 512-est vegyem 3850esből
Úgy látom jobb, hogy az utóbbi mellett döntöttem :D
Ja és köszönjük a tesztet, jó lett :C

sweetlou6.wordpress.com

(#26) diegho


diegho
nagyúr

No, a 8800GT-t azért írtam, mert jelenleg ez az a kártya ami használtan hasonló árban van, mint a két tesztalany újonnan, viszont annyival gyorsabb, hogy AA mellett is el lehet vele játszani a mai játékokkal is, akinek pedig AA kell nem igazán tud olcsóbban, vagy akár ezen az áron jobb kártyát venni.

(#27) -bh-


-bh-
aktív tag

végre vki letesztelte/leírta.. grat! jó ki teszt lett :R (bár még UT3 engine-t és 1-2 nem nV-s gámát is tesztelhettél volna...de így is látni, h mekkora is a "differencia")

"Boldogok a trollok, mert övék a világ hálója."

(#28) sakeee82 válasza tzsolesz (#23) üzenetére


sakeee82
aktív tag

A 9800GT az egy 8800GT átcímkézve és kissebb fogyasztással megáldva...

(#29) tzsolesz válasza sakeee82 (#28) üzenetére


tzsolesz
nagyúr

tudom, azért írtam, mert a 9800GT-t legalább még újan is lehet kapni.

(#30) pengegyerek


pengegyerek
aktív tag

Hali nagyon jó ez a teszt. Azért jó lenne ha valaki egy régebbi gyengébb VGA- val is tesztelne pl: Nvidia 8800 GTS 320 vs. HD 4670 vagy ennél gyengébb mert jó lenne tudni így tesztekből is, hogy mennyit fejlődtek a videókarik egy 8800 GTS- hez képest DX 10- ben is.

"Aki pálinkát iszik a temetőbe kiviszik ki pálinkát nem iszik azt is oda temetik."

(#31) Kris87


Kris87
aktív tag

Jó kis teszt, bár (nekem) a tuning hiányzik belőle, szívesen megnéztem volna úgyis a grafikonokat.

(#32) Gyuri27


Gyuri27
félisten

Nos a konkluzió szerintem sántit. Az, hogy az ati kártyák új árát nézzük az 8800-nak meg a használtat lol szvsz. [link] [link] itt ugye láthatjuk a 3850-4670 viszonyát. Árak: 3850, 3850 512, 4670, 3870. 8800gt 256 , 8800gt oc . Szóval szerintem így helyes és így megnézhető mennyi teljesitményt kapunk a pénzünkért.
Általad emlitett 8800gt pl használtan [link], de a 2 ill 3 év garit nem tudom a 8 hónaphoz hasonlitani sehogysem. Ezt meg csak úgy halkan jegyzem meg mint egy árban az új 8800gt-vel [link]. Persze annak amelyik nem a 4850-l van egy árban. :DDD

[ Szerkesztve ]

Amd - Radeon - Ryzen

(#33) Geza26 válasza Gyuri27 (#32) üzenetére


Geza26
senior tag

Ezek szerint ár-minőség arányban a 4670 és a 3870 van partyban egymással, a többi rosszabb ezeknél? Akkor érdemesebb venni most 4670-et, mert kevesebbet fogyaszt, későbbi VGA cserénél könnyebb lesz eladni szerintem, mint a 3870-et!

Jól gondolom :F

Géza

(#34) gbors válasza diegho (#15) üzenetére


gbors
nagyúr

Jó lett, én sem gondoltam, hogy ennyire közel van a két kártya. Mondjuk érdekes lenne megnézni, hogy a 4670 mit kezdene a 3850 sávszéljével - de aligha lesz belöle gDDR5... Amúgy sztem a GRIDnél fel van cserélve a 4xAA és a 8xAA grafikon :)

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#35) Kobaljov válasza #41133696 (#5) üzenetére


Kobaljov
senior tag

Nemrég a Tom's Hardware-en próbálták ki a régebbi procikat újabb kártyákkal, érdemes lehet elolvasni (volt egy korábbi része is, csak egymagos procival) + a havi videokártya/ár áttekintéseikben szokott szerepelni AGP-s kategória is ill. a legvégén egy összehasonlítható és kereshető táblázat a videokártyákra sok generációra visszamenőleg

A 4670-esre én is fenem már a fogam, de még várok kicsit, hogy kijönnek-e végre belőle gyárilag (garancia) passzív hűtős változatok (pl. amilyen a Sapphire 3850 Ultimate volt), mert csak alkalmanként menne rajta régebbi, 1280x1024-es játék, a legtöbbször csak sima netezős használat meg videók, és közben nem szívesen hallgatnék egy kis ventit. Az eddig kijöttekből talán az Asus hűtése a legkomolyabb (Artic Cooling?), ha nem lesz passzív 1-2 hónapon belül, akkor az marad (bár a newegg-en arról is voltak negatív vásárlói tapasztalatok).

+ itt is tesztelték nemrég a 4670 pár változatát, épp ma akadtam rá

[ Szerkesztve ]

(#36) Geza26 válasza Kobaljov (#35) üzenetére


Geza26
senior tag

A HIS IceQ megoldása nem halkabb, mint a többi ventilátoros?

[ Szerkesztve ]

Géza

(#37) Kobaljov válasza Geza26 (#36) üzenetére


Kobaljov
senior tag

Igen, az még annak tűnik, de árban ahogy néztem jóval drágább (most a depo-n az 512M 27K, az 1 GB 35K, de csak egy cég kínálatában van)

(#38) Taranti


Taranti
senior tag

Jó a teszt, és az látszik, hogy jelenleg a hd3870 éri meg legjobban :DD , csak most irreálisan drága. (Talán próbálkozni kellett volna 3850==>3870 tuninggal, de sztem így is látszik.)

Amúgy én is új mellett tenném le a voksomat, persze [link] ki lehet fogni jót is viszonylag olcsón.

Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.

(#39) barnam_ válasza Kobaljov (#37) üzenetére


barnam_
nagyúr

ipon-ban olcsóbb is egy kicsivel a HIS IceQ mint az Asus.

(#40) Kobaljov válasza barnam_ (#39) üzenetére


Kobaljov
senior tag

Köszi, ez normálisabb árnak tűnik, nem tudom miért nem hozta fel a depo, az ipon árait is szokta listázni. Újabb esélyes az aktív hűtéses verzióra ha nem lesz más.

(#41) FeRRaR1


FeRRaR1
őstag

Jó teszt, de magasabb felbontásban is tesztelhetted volna :)

(#42) diegho válasza Gyuri27 (#32) üzenetére


diegho
nagyúr

kérlek mutass másik kártyát a 8800GT-n kívül amivel lehet AA-t használni a mai játékokban és alig drágább, mint a 4670, ha mutatsz letesztelem. 3870-et ne mond, mert az szintén alkalmatlan erre.

(#43) diegho válasza FeRRaR1 (#41) üzenetére


diegho
nagyúr

mivel ezek a kártyát erre készültek, ezért ezen a felbontáson teszteltem, aki magasabb felbontást akar úgyse vesz ilyen kártyát, ha mégis, akkor majd rájön, hogy hülyeséget csinált. A 8800gt már jó 1680*1050-hez is, de az ati-k elvéreznek teljesen. Ráadásul crt-t használok, mert még mindig nem létezik olyan LCD amit használni tudnék és 100k alatt van.

(#44) Gyuri27 válasza diegho (#42) üzenetére


Gyuri27
félisten

Ne idegesits már légyszi. Az új árakat nézzük, hiszen az ati kártyák új árát vetted a gt meg használt. Ha meg az új árát nézzük van az ati tarsolyában. :K [link] tessék olvasni való (az aa is használva van).

[ Szerkesztve ]

Amd - Radeon - Ryzen

(#45) diegho válasza Gyuri27 (#44) üzenetére


diegho
nagyúr

Azért egy kis agytréningre elmehetnél, mert látom nagyon nehéz a felfogásod. Miért nézzem az új árát? A legtöbb ember 20-25k között akar használható VGA-t vásárolni nálam. Hiába vesz meg használtan 16k-ért egy 3850-et, ha az alkalmatlan az AA-ra, viszont 25k-ból már kap használt 8800gt-t ami alkalmas rá, ráadásul 1680*1050-ben is használható. Ugyebár azt írtam, hogy akinek AA kell az inkább vegye a használt 8800gt-t. Nem tudom mi nem érthető ezen, de ha nem tetszik csinálj magadnak tesztet ott okoskodhatsz, innen meg kirakatlak, ha nem fejezed be.

(#46) Gyuri27 válasza diegho (#45) üzenetére


Gyuri27
félisten

Lol. Ez egy fórum. Kirakatsz? Szintén lol (miért?).
"ráadásul 1680*1050-ben is használható" [link] nem úgy nézki, hogy a gt 1600x1200-s felbontáson oly nagyon elhúz. De igazad van. Érdemes 25k-ért használtan venni egy vga-t ami ugyanott kevés mint a 16k-s új 3850. :DDD Vagy fless nem tud tesztelni.

[ Szerkesztve ]

Amd - Radeon - Ryzen

(#47) diegho válasza Gyuri27 (#46) üzenetére


diegho
nagyúr

Mivel folyamatosan okoskodsz simán töröltethetem a hozzászólásaid innen, mert semmi témához fűződőt nem mondasz. Nem tudom hányszor használtál a tesztelt kártyák közül akár egyet is a saját gépedben, de ahogy priviben kérdezgettél a nyáron, kétlem, hogy bármelyiket is. Majd, ha a saját tapasztalataid tudod megosztani és nem csak linkelgetsz teszteket, akkor beszélhetünk róla. Pont az ilyen okoskodók miatt húzódott el ez a teszt eddig, pedig már szeptember közepén megcsinálhattam volna, de reménykedtem, hogy talán némi intelligencia szorul belétek ennyi idő alatt, de tévedtem... ha proci tesztet csináltam volna, akkor meg oda jönnél magyarázni, hogy hú, az intel nagyon nem éri meg stb.

(#48) Padisah válasza Gyuri27 (#46) üzenetére


Padisah
tag

Ahogy nézegetem az általad belinkelt Prohardveres teszteket játéktól függően 200%-30%-kal jobb 1600x1200-as felbontásban a 8800GT 512 MB-os verziója a HD3850 512 MB-os verziójánál, úgyhogy nem értem a problémád.

[ Szerkesztve ]

Az a baj a világgal, hogy az okosok kételkednek, míg a hülyék tökéletesen biztosak a dolgukban.

(#49) rumkola válasza Padisah (#48) üzenetére


rumkola
veterán

Én sem értem, mivel volt mindkét VGA nálam. A 8800GT mérföldekkel gyorsabb mindenben mint a 3850. :K
Aki mást mond, az vagy elvakult vagy életében nem próbálta ki mindkettőt...

[ Szerkesztve ]

(#50) tzsolesz válasza rumkola (#49) üzenetére


tzsolesz
nagyúr

De 8800Gt helyett meg van már 4830 szvsz. Már láttam 29K-ért vacsora újan. Így hát megint nincs létjogosultsága neki.... :U

(#51) diegho


diegho
nagyúr

új képek feltéve, kártyák adatai szintén, grid képek javítva, minden konklúzió törölve.

(#52) Gyuri27 válasza Padisah (#48) üzenetére


Gyuri27
félisten

Nem mondta senki, hogy nem gyorsabb! A probláma ott volt, hogy ati kártyák új árát nézzük a jelentös drágulás után, mig a gt-t használtan nézzük alig vagy 0 garival.
Ha az új árakat nézzük 3850 512 vs 8800gt esetében akkor árban is megvan a 30% difi. Ennyit akartam mondani. Ezért nem volt jó a konkluzió 25-t használt vga-t vagy 25-t vatta ujjat még ha kicsit lassabb is (mondjuk egy 3870 gddr4 annyival azért nem lassabb).

rumkola: válaszoltam.

tzsolesz: :K

diegho: állásról kérdesztelek ha jól emlékszem. Nem értem hogy jön ide? Az, hogy egy privát beszélgetés egyáltalán hogy jön ide pláne nem értem. Ezt fölhozni és úgy beállitani mint ha szakmairól beszéltünk volna és én akkor sík hülyének bizonyultam enyhén szólva is gusztustalan. Tehát lehet, hogy én szerinted okoskodom (bár nem hiszem), de gusztustalan nem voltam mint te.
További szép napot.

[ Szerkesztve ]

Amd - Radeon - Ryzen

(#53) rumkola válasza tzsolesz (#50) üzenetére


rumkola
veterán

Akkor vedd azt, nem tudom miért kell itt görcsölni.
:)

(#54) Abu85 válasza diegho (#45) üzenetére


Abu85
HÁZIGAZDA

Nem látod a problémát ... a 8800GT nem támogat Multisample Access-t, így Deferred Rendering mellett nem tud AA-t számolni. Lehet akármilyen gyors AA mellett mélységinformációk nélkül null shadert fog futtatni. Ezért rakták bele a Far Cry 2-be és a STALKER Clear Sky-ba a DX10.1 támogatást ... a jövőre megjelenő játékok többségében nem lehet AA-t számoltatni DX10.1 támogatás nélkül.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#55) Abu85 válasza diegho (#42) üzenetére


Abu85
HÁZIGAZDA

Először olyan játékok kellenének ahol tényleg hibátlanul működik az AA. A tesztben a Crysis Warhead-ben például csak Edge detect Shader nélkül lehet AA-t számolni, tehát mondhatjuk, hogy a játék nem támogatja az élsimítást. A Far Cry 2-ben csak a DX10.1-es módban fut az összes fázis. A Geforce kártyák egy fázissal kevesebbet dolgoznak, ráadásul nem tudnak a textúrákból mélységinfót mintavételezni, tehát az AA mellett jobb a DX10.1-es Radeonok képminősége. :)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#56) gbors válasza Abu85 (#55) üzenetére


gbors
nagyúr

bennem azért vannak kételyek, hogy a "hibátlanul" működő AA mennyire fontos. nézd meg a tesztben is szereplő GRID-et, halál jól néz ki, és a 4xAA-t szinte meg sem érzi - és DX9-es. kicsit túl van lihegve ez az AA dolog, végső soron az élsimítás is egy a sok postprocessing effekt közül, ha értelmes kompromisszumokkal csinálja valaki, akkor jól fog kinézni, és nem kell hozzá atomerőmű sem.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#57) gbors válasza diegho (#51) üzenetére


gbors
nagyúr

btw., a GRID-et hol mérted?

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#58) diegho válasza gbors (#57) üzenetére


diegho
nagyúr

destruction derby és próbáltam a mezőny közepében lökdösődni, sok gumifüst-el stb.

(#59) Abu85 válasza gbors (#56) üzenetére


Abu85
HÁZIGAZDA

A GRID-ben nincs is probléma az AA-vel.
Más játékokra gondoltam ... UE3 motoros cuccok, Assassin's Creed (patchelt), Cryengine 2 motoros játékok, STALKER SOC/CS, Far Cry 2 és némely YETI Engine alapú játék (LOST, GRAW, GRAW2 ... )
Szóval van itt probléma bőven. :DDD

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#60) diegho válasza Abu85 (#54) üzenetére


diegho
nagyúr

már csak az a kérdés, hogy aki most vesz 25 alatt kártyát, az most akar élvezhetően játszani, vagy jövőre akar AA mellett 20fps-t?

(#61) Májsztró válasza Chaser (#6) üzenetére


Májsztró
addikt

én mindenképpen tudom ajánlani az 512-es 3850-et ... azzal nincsen baj , ez tuti. bár lehet hogy a 256-os verzióval sincs , de engem pl megnyugtat hogy 512 ram van rajta :))

(#62) Abu85 válasza diegho (#60) üzenetére


Abu85
HÁZIGAZDA

Multisample Access-sel gyakorlatilag minimális teljesítmény deficit. Ezért reklámozza az AMD, hogy a HD3000 és a HD4000 karikkal teljesen működő AA-t lehet előállítani gyakorlatilag minden Deferred Rendering motorra 3-5%-os teljesítményveszteség mellett.

Én úgy gondolom, hogy a felhasználó érdeke, hogy ne kelljen a látványjavítókhoz kompromisszumokat kötni. Pl. ha bekapcsolom a Crysis Warhead-ban az AA-t, akkor a motor ne kapcsolja le az Edge Detect-et, vagy ha bekapcsolom az AF-et, akkor ne kelljen kikapcsolnom a POM-ot. Ezekre a problémákra van a DX10.1, amit az NVIDIA valamiért nem kíván elhozni nekünk ... Nyilván a G80 architektúra nem hatékony a további versenyre, a DX10.1 beépítése további 200 millió tranzisztor, ami az így is nagy méretet tekintve baromi nagy probléma.

Igazából nem igazán értem az NV mit akar ... folyamatosan nyilatkozza, hogy nemsokára bevetésre kész az 55nm-es G200 ... jó, és ha kész lesz akkor mi lesz? Továbbra is baromi nagy a chip, és továbbra is baromi drága lesz előállítani. A 40nm-es fejlesztet verzió meg 2009 Q2-re lesz itt ... kb. ekkorra érkezik az RV870 40nm-en. Most mindenki azt nézi, hogy 40nm lesz itt is ott is, így eltűnik a gyártási költség hátránya. Kérem szépen ... dehogy tűnik el. Az RV870 közel azonos teljesítményt sokkal alacsonyabb tranzisztorszámmal hozza ki, egyszerűen hatékonyabban fejleszthető az R600 architektúra. Ezzel továbbra is jóval olcsóbban tud, majd az AMD chipet gyártani. Az első támadási lehetőség a G300 lesz ... ott dől el minden. Ha új architektúra lesz akkor van esély javítani, ha a G200 átszabása, akkor ennyi volt a zöldeknek a VGA piacon ... a Larrabee előlép első számú konkurensé.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#63) rumkola válasza Abu85 (#62) üzenetére


rumkola
veterán

Amíg a júzerek több mint fele XP-t használ, és az általad állított dolgok ATI-val még DX 10.1 alatt sem hoznak semmiféle gyorsulást, sőt mindenféle bugokkal, képminőségbeli romlással és lassulással járnak addig számomra ez az egész csak szócséplés. Gyönyörű szakszavakat használsz, de lassan 2 év eltelt már és még mindig semmi nem valósult meg ezekből a jóslatokból.Ez kb. olyan, mint amikor a politikus azt mondja a népnek, hogy jövőre majd jobb lesz. Csak az a baj, hogy már 20 éve mondják... Én is beszívtam 2x, hogy jaj de jó lesz majd nekem (3850,4850), aztán közben mégsem.

Jelen pillanatban még mindig a 280-as a leggyorsabb, legkompromiszum mentesebb egychipes vga a piacon. :B

[ Szerkesztve ]

(#64) Abu85 válasza rumkola (#63) üzenetére


Abu85
HÁZIGAZDA

Nem hiszem, hogy bárkinek jó, hogy az itt említett programokban nincs AA. Ez minden csak nem a felhasználó érdeke. Nekem a userek érdekeit kell néznem egyes értékeléseknél, a cégek érdekei hidegen hagynak. Sajnos manapság a legtöbben azt tapasztalják, hogy csak az AMD akarja visszahozni az AA-t a játékokba, és ezért van az a nagy NV ellenesség.

Az legtöbb tehetősebb embert nem érdekli, hogy egychipes vagy kétchipes VGA-t vesznek ... látják, hogy a tesztben a HD 4870 X2 bucira aláz mindent és ha van pénz rá akkor arra költenek. Az AMD is ezért húzta a HD 4850 X2 piacra dobását, mert nem számított rá, hogy állandó hiánycikk lesz a HD 4870 X2. Még az eredeti árat is megemelték 80 dollárral.

Az NV-nek én azt tudnám javasolni, hogy döntsék el mit akarnak ... ha szeretnének maradni a PC-s VGA piacon, akkor nyomjanak annyi pénzt a szegmense amennyit két éve, ha meg nem akkor felesleges fárasztani a népet az ígérgetésekkel. Egy szót nem szólnék, ha a G80 architektúrában lenne annyi potenciál, hogy versenyre kellhessen az R600 alapjaival, de egyszerűen ez a chipstruktúra a G200-zal nem ütőképes. 55nm-en és 40nm-en sem lesz az. :W

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#65) rumkola válasza Abu85 (#64) üzenetére


rumkola
veterán

Természetesen egyetértek veled, mindenki szeretne AA-t, viszont nem értem az általad felsorolt játékok címeit és mennyiségét.
NV kártyával talán csak néhány UE3 játék alatt nincs AA (drverből ezeknél is kikényszeríthető), de XP alatt ATI-val sem működik ezeknél. A vicc az egészben az, hogy van olyan UE3 cím, ahol simán van NV-vel XP alatt is AA. Mellesleg most felsoroltál kb. 10 címet amik mellé én felsorolhatnék több ezret aminél semmi gond az AA-val NV-n (és igen, a Far Cry 2 is ezek közé tartozik).

Én pont azt látom, hogy az AMD fáraszt az örökös ígérgetéseikkel és az általuk említett dolgokból semmi sem vált eddig valóra (800 ill. 1600 séderrel telepakolt GDDR5-ös VGA, DX 10.1-es támogatás már egy éve - amihez nulla darab szoftver van, stbstb.).
Amíg a szoftver fejlesztők nem fognak az ATi alá dolgozni, amíg a júzerek nem váltanak vistára addig ez mind-mind csak papíron létező dolog marad.
A fejlesztők pedig mint tudjuk, nem fognak valami olyat építeni a szoftvereikbe ami plusz munkával jár és nem mellesleg inkompatibilis lenne az NV-vel. Sajnos (vagy nem sajnos) ez a piac.

Az X2 (bármelyik oldalról) és bármilyen CF vagy SLI megoldás pedig igazi nemnormális gyökérség. Mi sem bizonyítja jobban, hogy anno aki 3870x2-őt vagy hasonló NV-t vett, az fél éven belül fele áron sokkal jobb egychipes VGA-t vehet....

A Tropics demóról mi a véleményed?

[ Szerkesztve ]

(#66) gbors válasza Abu85 (#59) üzenetére


gbors
nagyúr

Assassin's Creedben is teljesen jó az AA - DX9 alatt.

Egyébként ezzel a posttal azt akarod mondani, hogy a GRID (és az AC) nem használ semmilyen deferred technikát, vagy azt, hogy az említett engine-ek írói olyan bénák, hogy csak a DX10.1-ben biztosított új feature-ök segítségével képesek normális sebességű és minőségű élsimítást hozni? :D

Az UE3 motor amúgy kilóg egy kissé, ott a HQ postprocessing (vagy melyik játékban mi a neve) részben kiváltja az AA-t - nekem a Bioshock alatt egyáltalán nem is hiányzott...

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#67) Abu85 válasza rumkola (#65) üzenetére


Abu85
HÁZIGAZDA

A kényszerített AA az félmegoldás, ami ezt eredményezi. Persze erre a problémára a Catalyst AI állítgatása megoldást jelent, csak az új problémákat vett fel. Ördögi kör ... Normálisan támogatott AA kell a játékokba, a fenti félmegoldásokkal nem jutunk előbbre.

Amúgy a 8.3 óta engedélyezve van a Catalyst alatt is az AA override az Unreal Engine 3 gamákra.
A hivatalos nyilatkozat értelmében azonban az AMD nem garantálja, hogy tökéletes és hibamentes lesz az eredmény, mivel a motor nem támogatja az MSAA eljárásokat. Mondjuk ezt az NV sem garantálja csak nem jelentették ki a dolgot, mert nekik probléma, ha az emberek rájönnek, hogy normális AA csak DX10.1-gyel lehetséges.

A Far Cry 2-őn sincs normális AA DX10 alatt, mert kimarad a mélység mintavétel az átlátszóság infót hordozó textúrák mögül. Ezért lett beépítve a DX 10.1 mód, hogy ezt a problémát megoldják a fejlesztők. A sebességelőny pedig ez esetben azért marad el a DX10.1-es kártyákon, mert a mélység infó szerzést egy utólagos fázis irányítja, ez egy plusz fázist jelent majd a DX10.1-es Radeonoknak. Ezért nem fogjuk soha tesztelni AA mellett a Far Cry 2-őt, mert a fejlesztők rosszul írták meg a rendert, így a Geforce DX10-ben egy fázis előnyben van, ha ők is lenyomnák azt a fázist akkor -30% lenne sebességben a teljesítmény, csak a driver nem engedi a mélység infó mintavételt, mert úgy sem lenne eredménye.

Az Unigine motor elég jól fejlődik, csak a srácnak most sikerült eljutnia addig, hogy az AMD és az NV figyelmet szenteljen a motorjának a driver oldalról is. Ez majd megnöveli a licenszelők számát is. A press release alatt pedig szépen megmutatja, hogy mi a különbség a DX10 és a DX10.1 mód között, ha a kártya nem képes mélységinfót szerezni.
kepdx10 , kepdx10.1

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#68) Abu85 válasza gbors (#66) üzenetére


Abu85
HÁZIGAZDA

De az AC-ben a DX9 módban az Animusnál más a deferred render fázisok keverése, ott nem kell az AA-hoz a Color infón kívül más. DX10-ben már kell a Z subsample is, így ott hiányzik az AA. Az DX10 a Deferred Shading alkalmazásánál egységesített keverési eljárásokat használ ... tulajdonképpen, ha csúnyán fogalmazunk az AC esetében DX10 miatt nincs AA. Erre jött a javítás a DX10.1-ben, amit a fejlesztők használtak, de ki is vettek időzítési problémák végett (amit pár perc lett volna javítani :DDD ).

A GRID az nem téma, oda elég a color infó.

Az UE3 az spéci eset, mert az a motor Deferred Shadowing. Esetenként durván szopni lehet vele az AA-nál ... linkeltem shotokat a problémáról.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#69) diegho válasza Abu85 (#68) üzenetére


diegho
nagyúr

amúgy megmondom én neked, hogy miért nem töri magát az nv. Még mindig túl sok az xp használó ráadásul a vista közel sem olyan jó, hogy megérné áttérni rá. Az nvidia szerintem akkor csinálja jól, ha jövőre kezd bele egy új architektúra fejlesztésbe, mert a win 7-ig nincs igazán nagy szükség a dx 10.1-re.

(#70) Abu85 válasza diegho (#69) üzenetére


Abu85
HÁZIGAZDA

Én inkább pénzkérdést látok a dolgok mögött. Az a baj, hogy az NV a PC-s GPU üzletág fejlesztésébe közel sem pakol most annyi pénzt, mint a GF8800 idejében. Inkább a HPC rendszerek, a Tegra és a CUDA fejlesztésére koncentrálnak.

Jövő nyárra itt a Win 7, szóval ... öngyilkosság jövőre elkezdeni a DX11-re való átállást. Az NV-nek ez nem olyan egyszerű, mint az AMD-nek. Ők az R600-at úgy építették fel, hogy több generációig hetékonyan fejleszthető legyen. Ezért bukták be az első évet, de megérte, mert még jövőre ... sőt talán még 2011-ben is lehet ezekre az alapokra építkezni.
A G80 alapjai a G200-nál kifújtak, a G300-nak mindenképp új architektúra kell, vagy vége az egésznek. Persze ha azt nézzük, hogy mennyi pénzt vontak el az üzletágtól, akkor még az is elképzelhető, hogy ez így volt tervezve. Nyilván az Intel belépésével az NVIDIA nem kívánatos konkurencia lesz a piacon. A legvalószínűbb forgatókönyv szerint az NV ezt tudja és időszakosan gondolkodik, tehát bőven elképzelhető, hogy azért nincs DX10.1 támogatás, mert nem éri meg a befektetett összeget, mivel a PC-s GPU piac lapátra kerül és a HPC, SOC rendszerekben gondolkodnak a zöldek, amik a CUDA felületre támaszkodnak. Ezeket az elméleti terveket alátámasztja a Mental Ray és az Ageia felvásárlása.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#71) Taranti válasza rumkola (#63) üzenetére


Taranti
senior tag

Na, itt a lényeg, a hsz. első felével teljesen egyetértek. Én is xp-t használok, és nem tervezem vistára váltani. A hd3870-em dx9 alatt meg (eddig még) mindenre elegendő. Persze itt tmondhattam volna 9600gt-t is... És nem mellesleg a nagy játéknevek (ha-ha) jó része bughalmaz!

Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.

(#72) tzsolesz


tzsolesz
nagyúr

No csak a Grid-ben a 8xAA nem nagyon hatja meg az ATI karikat, míg az NV-ét pofán vágta kicsit. Ez jelent valamit. Ez mitől lehet??? :F :U

(#73) ollie válasza diegho (#69) üzenetére


ollie
MODERÁTOR

Az XP ideje igencsak lejárt, ugyanis a mai játékoknak már igencsak szűkös az a 2 giga ram, amit alkalmazásonként allokálni képes a 32 bites változat (64 bitest meg nem használ az, aki jót akar magának, a 3GB kapcsoló meg csak a PRO esetén működik). Szóval ha valaki a közeljövőben is megfelelő sebességgel akarja futtatni az új játékait, az kénytelen lesz átérni a Vistara.

***

(#74) rumkola válasza ollie (#73) üzenetére


rumkola
veterán

A vista 2 éves és jövőre pedig váltja a win7 vagy miatököm. Ennek fényében vicces a jóslatod. Jelen pillanatban a piacon lévő több ezer játékból talán kettő gyorsabb vista alatt 4gb rammal, mint xp alatt 2gb-al.

A DX10-nek NULLA a létjogosultsága, ez több száz tesztből és a sok user beszámolóból már kiderült. Mellesleg egy 10GB+ oprendszer - nálam - nagyon erősen vicc kategória, bár az utóbbi hetek hírei szerint most már a microsoft is ezen az állásponton van.
A vistára természetesen sok jót lehet mondani, csak azt nem, hogy a játékok gyorsabbak vele, mint nélküle.

(#75) diegho válasza ollie (#73) üzenetére


diegho
nagyúr

mire át kell térni, már lesz win 7, pont ezért siet a microsoft, hogy mire szükség lesz rá, legyen egy normális oprendszerük.

(#76) gbors válasza Abu85 (#68) üzenetére


gbors
nagyúr

a force-olt AA-nak abszolút nem vagyok a híve (kivéve az Oblivion-nál - de azt tudod, hogy miért :D ) - ezen nem is érdemes beszélni az UE3 esetén. azt viszont nem értem, hogy miért nem írtak egy saját edge detect szűrőt az árnyékokhoz - egy csak árnyékokból álló plane-hez nem lehet túl nagy művészet, főleg, hogy az árnyékszámítás "mellékhatásaként" ismertek is az élek...

a color/depth dolgot értem, nem tudtam eddig, hogy van ilyen különbség - és a unigine-es képek elég meggyőzőek. csak ebből nekem az jött le, hogy a 9600GT-men vagy maradok XP-n, vagy lelkes rajongója leszek a -dx9 switch-nek - de ha a Far Cry 2-ből indulok ki, akkor ugyanez lenne a helyzet, ha Radeonom lenne... :(((

PS: diegho, szólj, ha már nagyon offnak érzed a fentieket :D

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#77) diegho válasza gbors (#76) üzenetére


diegho
nagyúr

felőlem itt kiélhetitek magatokat :D

(#78) ollie válasza rumkola (#74) üzenetére


ollie
MODERÁTOR

Meglátjuk mi lesz jövőre. Mind a Vista, mind az XP csúszott éveket.

***

(#79) tzsolesz


tzsolesz
nagyúr

Nem értem ezt a Windows 7 mizériát. :U Most miért kell ezzel jönni itt. Előbb Vistát kellene használni, nem? akinek már az is szar, az a halálba fogja kívánni a W7-et.... :Y

Na már most ha az emberek még a vistát sem használják, kérdem én mikor fogják használni a windows 7-et??? Megmondom KB. 3-4 év múlva. Úgy ahogyan a Vista is csak most kezd már teret hódítani. Én már 1.5 éve Vistát használok, és a környezetemben is a USER-ek 60-70%-a használja.

A fejlesztőknek meg előbb normális DX10-es játékokat kellene gyártaniuk, nem hogy a DX11-ről egyáltalán álmodozni. A DX11 kb 5 év múlva fog teret hódítani szerintem. Most jöjjenek az igazi DX10-es játékok. Remélem 2009, és 2010-ben már lesz belőlük részünk rendesen. :R :R

(#80) diegho válasza tzsolesz (#79) üzenetére


diegho
nagyúr

azért a win 7 és a vista nem említhető egy lapon, a win 7 sokkal felhasználóbarátabb lesz.

(#81) tzsolesz válasza diegho (#80) üzenetére


tzsolesz
nagyúr

Mondták ezt a vistáról is. De remélem hogy neked lesz igazad.... :U

(#82) ollie válasza diegho (#80) üzenetére


ollie
MODERÁTOR

Csakúgy, mint a Vista felhasználóbarátabb az XP-nél.

***

(#83) diegho válasza ollie (#82) üzenetére


diegho
nagyúr

szerintem semmiben nem felhasználóbarátabb, sőt... de ebbe nem fogunk itt belemenni, köszi.

(#84) Abu85 válasza diegho (#80) üzenetére


Abu85
HÁZIGAZDA

Hát a kiszivárgott beta alapján a Win 7 az gyakorlatilag SP2-es Vista lesz. ;) Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog kihasználni, illetve az új Aero felületet elvileg átírták DX10.1-be. :W
Az igazi előrelépés, hogy csak 64bit-es verzió lesz belőle. Ez fontos, mert a mostani driverek a 32bit-es kernelhez készülnek, így a 64bit-es Vistával csak a szopás megy. A 32bit-es Vista az SP1-gyel már teljesen jó.

Mellesleg jövőre több olyan játékot is kapunk ami only DX10 (Stormrise), vagy a DX10 renderből lett készítve a butított DX9 mód (a Far Cry 2 is ilyen már). Utóbbi eset fennállása mellett gyorsabb lesz a Vista alatt ... nem is kevéssel. Sőt a Battleforge DX9 és DX10.1 módot fog csak tartalmazni és utóbbi sokkal szebb és gyorsabb lesz - legalábbis a fejlesztők szerint.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#85) tzsolesz válasza Abu85 (#84) üzenetére


tzsolesz
nagyúr

Hát a kiszivárgott beta alapján a Win 7 az gyakorlatilag SP2-es Vista lesz. ;) Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog

Na tessék nekünk új oprendszer..... :W

(#86) Taranti válasza Abu85 (#84) üzenetére


Taranti
senior tag

No, éppen ez az. Vistát CSAK játékra nem rakok fel, munkára (mindennapokra) meg teljesen jó nekem az xp. Lehet, hogy ez fog változni a win7-tel?

Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.

(#87) tzsolesz


tzsolesz
nagyúr

Azt szeretném még kérdezni, hogy Vista alatt mennyiben lenne más helyzet?
Másképpen fogalmazva, vajon melyik kártya élvezne előnyt a fentiek közül? :F

Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom. :D

[ Szerkesztve ]

(#88) diegho válasza tzsolesz (#87) üzenetére


diegho
nagyúr

Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom.

mivel 2000 óta csak counter-strike-ot játszok és fix 100fps-re lőve (amúgy 2-3-4000 lenne) ezért nem tudok nyilatkozni gyorsulásról, vagy bármiről. Most már source-ozok is, de sp2-vel nem játszottam.

(#89) rumkola válasza tzsolesz (#87) üzenetére


rumkola
veterán

SP3 semmit nem gyorsít, miért is tenné? Nem más mint SP2+azóta megjelent frissítések egyben...

(#90) tzsolesz válasza diegho (#88) üzenetére


tzsolesz
nagyúr

Jaah, nem szóltam. :DD

rumkola: Akkor jól sejtettem. :U

[ Szerkesztve ]

(#91) SirRasor


SirRasor
őstag

Azt hiányolom picit, hogy melyik mennyi wattot kajál. Gyanítom, hogy a 8800 GT-nek jóval magasabb étvágya van, mint a 4670-nek.

Make Love not war!

Copyright © 2000-2024 PROHARDVER Informatikai Kft.