No lassan de biztosan csak befejezem az irományt. Majd még javítom a hibákat.
Gyorskeresés
Legfrissebb anyagok
Általános témák
LOGOUT.hu témák
- [Re:] [Parci:] Milyen mosógépet vegyek?
- [Re:] [callmeakos:] Szabad e használt OLED televíziót venni?
- [Re:] [Luck Dragon:] Asszociációs játék. :)
- [Re:] [attilasd:] A laposföld elmebaj: Vissza a jövőbe!
- [Re:] [Mr Dini:] Mindent a StreamSharkról!
- [Re:] [ubyegon2:] Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] USB to S/PDif konverter a modern RIAA, elektroncsövekkel
- [Re:] [magmakocka:] PSX/PS2 CD/DVD tokhoz jó minőségű borító elkészítése
- [Re:] Android másképp: Lineage OS és társai
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
Hozzászólások
mokus1
addikt
Jó teszt de én 2 dolgot hiányoltam.Jó lett volna látni a 3 kártya adatait egy táblázatban.És miért volt a 8800gt?
#41133696
törölt tag
Helló!
Jó az írás, de érdekelne, hogy Company of Heroes beépített benchmarkjával mi a különbség a 256MB-os és a 512MB-os HD 3850-es között pl?
Itthon a családi gépben nekünk is HD 3850-es van (256-os), de nem tudom pl 939-es 4200+-os X2-es procihoz érdemes, e HD3870-est venni?
Amúgy egy tesztet majd igyekszem eszközölni, mert a régebbi írásomban nem volt mérés.
rumkola
veterán
Az utcsó 2 grafikon picit fura, ezen kívül korrekt és egyértelmű a teszt. Respect!
[ Szerkesztve ]
#41133696
törölt tag
Illetve érdekes lehetne, a HD 3850-es 1GB-os verziója valamint a HD 3850 X2 is illetve, hogy milyen a HD 3850 AGP-n ?
Remélem, egyszer valaki ezeket is teszteli majd ;)
[ Szerkesztve ]
Chaser
titán
Ha alapon van a procid, még a 3850-es is bőven sok neki...
Használtat nem érdemes új árral hasonlítani, ennyi erővel a használt 4670 se 21k, viszont az új MSI 256 megás 3850 15-17k, szóval jelenleg ő a bestbuy..sztem
_tejesen'® joálapotpan'™_-_Hamarosan a hiányból is hiány lesz...by Samus
#41133696
törölt tag
Hát ez az, de a 256 MB miatt nem éri meg lecserélni egy 512MB-os-ra?
Szerk, nade van olyan AGP-s alaplap például ahol nem proci limites a HD 3850-es?
[ Szerkesztve ]
PH-User
addikt
Üdv! Köszi a tesztet, de szerintem elírtad: "Call of Duty 4 World at War", szerintem ez Call of Duty 5 World at War.
''Amíg szól a zene muszáj felkelni és táncolni.''
Gordiann
őstag
És akkor 500-an lehurrogtak, amikor kifogásolni mertük az előző tesztnél használt 256-os 3850-et........heh
A jó kis érvelés, hogy a 256-os van elterjedve....meg hogy nem is számít igazán sehol...
[ Szerkesztve ]
diegho
nagyúr
hú köszi, lett volna cod4 is, de technikai problémák adódtak.
A GRID-ről annyit, hogy tényleg ennyit számít csak a 4x és 8x ati kártyáknál, nem tudom mitől van ez.
A kártyákról a táblázat majd holnap belekerül, meg kép is a dobozokról, de most kész vagyok, nincs energiám megírni a táblázatot.
PH-User
addikt
Nincs mit, éppen COD-ozás közben futottam át gyorsan a tesztet.
''Amíg szól a zene muszáj felkelni és táncolni.''
tzsolesz
nagyúr
Nagyon jó lett, köszi szépen.
Én már láttam használtan 13K-ért 3850-est.
Érdekes hogy azt megemlíted, hogy a 8800GT mennyi használtan, viszont azt nem hogy a 3850 mennyi. Mindjárt más a kép sztem, de ez csak mellékes.
Jah, és úgy látom, hogy a GRID-nél sajnos nem ment az AA a 8800GT-én, legalább is a 8xAA az nem ment neki. Na meg ezek után ki tudja hol nem ment még neki....
[ Szerkesztve ]
Pala
veterán
"Én már láttam használtan 13K-ért 3850-est."
Én 10-ért váltam meg az enyémtől.
[ Szerkesztve ]
Pala
veterán
Amúgy jó a teszt.
Talán érdemes lett volna megnézni még a kártyákat Stalkerrel és valamilyen Unreal Engine 3-mat használó játékkal. Előbbiben a 4670, utóbbiban a 3850 jelentősen jobban teljesít vetélytársánál.
diegho
nagyúr
grid-nél szerintem ment az AA, semmivel nem volt rondább a kép, mint a radeonoknál. 256-os kártyát lehet látni 13-ért, de 512-est szerintem nem osztogatnak ennyiért, aki ennyiért adja az meg szimplán marha
tzsolesz
nagyúr
Akkor most mi is a bestbuy???
Pala
veterán
Kinek mi....
Szerintem mindkét kártya jó vétel. Viszont 3850-ből a 256-os már nem igazán nyerő.
Dr. Romano
veterán
20k-ért egy 4850 szerintem már annak mondható!
Ez....e...ee...ez egy.... ez egy FOTEL???
luw2win
őstag
Nem Call of Duty 5 World at War hanem csak simán Call of Duty: World at War
Bár ez már csak szőrszálhasogatás
[ Szerkesztve ]
.“Azért nem jut olyan sok ember sehova az életben, mert a hátsó kertben keresgélik a négylevelű lóheréket.”
Abu85
HÁZIGAZDA
A Crysis Warhead-on kívül egyik tesztelt játék sem használ Streaming textúrázást. Még szép, hogy jobb az 512MB-os változat ezekben az esetekben.
A mi cikkünkben a S.T.A.L.K.E.R. és a GRID tesztekben világos, hogy a 256 MB miatt nem szerepelt jól a HD3850 ... ezt mi sem tagadtuk, de a többi teszt eredményét tekintve nincs eltérés a memóriamennyiség közt.
A HD3850 és a HD4670 viszonya érdekes. A HD4670 jobb branching hatékonysággal rendelkezik, a HD 3850 viszont kétszer annyi fragmentet interpolál órajelenként. Az az igazság, hogy mindkét dolog fontos ... nem igazán lehet eldönteni, hogy melyik fícsőr éri meg jobban, viszont az Unreal Engine 3 nagyon épít az interpolálási teljesítményre, így a sok UE3-as (jövőben megjelenő) gamát nézve talán érdemes a HD3850 mellett maradni, amíg el nem fogynak a készletek.
DX10 karival már lényegtelen az AA, csak a Multisample Access-sel lehet Z és Color infót mintavételezni ... Ehhez pedig DX10.1 támogatás kell. A S.T.A.L.K.E.R. Clear Sky és a Far Cry 2 fejlesztői is azért adták be a derekukat, mert egyszerűen nem lehetséges teljes funkcionalitású AA DX10 alatt. Most már lehet tudni, hogy aki Deferred Renderinget használ a programjában az DX10.1-re fog átállni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
tzsolesz
nagyúr
Lehet, de kíváncsi vagyok hogy milyen mennyiségű 25K-ós használt 8800GT van a piacon most. Kielégíti a jelenlegi VGA-t vásárló közösséget??
Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb....
Ez mind fontos tényező amikor az ember VGA-t vásárol. Én szeretem a kis 4670-esem, ráadásul DX10-ben nekem jobban megy mint a fenti tesztben az FC2. Tökéletesen játszható 1280x1024-ben High-on minden, és 2xAA-val.
Pala
veterán
"Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb...."
Na én pont ezek miatt nem veszek soha használt vga-t. Eddig is csak egyetlen egyszer történt ilyen (amit egyébként nem bántam meg, semmi gond nem volt vele), de jobb a tudat, hogy a boltból frissen hazahozott kártyának én vagyok az első tulajdonosa (remélhetőleg ). Nekem ez megér pár plusz ezrest, nem tudom ki hogy van vele.
tzsolesz
nagyúr
Osztom, osztom....
Nem kéne 8800GT még használtan sem... inkáb egy új 9800GT, de akkor már inkább egy ropogós 4850.
Pala
veterán
Én beruháztam az utóbbira. Itt a fórumon érdemes nézelődni a bazárosok között, némelyiküknél még most a válság idején is kedvező áron lehet hozzájutni.
Sweet Lou 6
addikt
Pedig nyár elején még gondolkodtam hogy a 256-ost vagy az 512-est vegyem 3850esből
Úgy látom jobb, hogy az utóbbi mellett döntöttem
Ja és köszönjük a tesztet, jó lett
sweetlou6.wordpress.com
diegho
nagyúr
No, a 8800GT-t azért írtam, mert jelenleg ez az a kártya ami használtan hasonló árban van, mint a két tesztalany újonnan, viszont annyival gyorsabb, hogy AA mellett is el lehet vele játszani a mai játékokkal is, akinek pedig AA kell nem igazán tud olcsóbban, vagy akár ezen az áron jobb kártyát venni.
-bh-
aktív tag
végre vki letesztelte/leírta.. grat! jó ki teszt lett (bár még UT3 engine-t és 1-2 nem nV-s gámát is tesztelhettél volna...de így is látni, h mekkora is a "differencia")
"Boldogok a trollok, mert övék a világ hálója."
sakeee82
aktív tag
A 9800GT az egy 8800GT átcímkézve és kissebb fogyasztással megáldva...
tzsolesz
nagyúr
tudom, azért írtam, mert a 9800GT-t legalább még újan is lehet kapni.
pengegyerek
aktív tag
Hali nagyon jó ez a teszt. Azért jó lenne ha valaki egy régebbi gyengébb VGA- val is tesztelne pl: Nvidia 8800 GTS 320 vs. HD 4670 vagy ennél gyengébb mert jó lenne tudni így tesztekből is, hogy mennyit fejlődtek a videókarik egy 8800 GTS- hez képest DX 10- ben is.
"Aki pálinkát iszik a temetőbe kiviszik ki pálinkát nem iszik azt is oda temetik."
Kris87
aktív tag
Jó kis teszt, bár (nekem) a tuning hiányzik belőle, szívesen megnéztem volna úgyis a grafikonokat.
Gyuri27
félisten
Nos a konkluzió szerintem sántit. Az, hogy az ati kártyák új árát nézzük az 8800-nak meg a használtat lol szvsz. [link] [link] itt ugye láthatjuk a 3850-4670 viszonyát. Árak: 3850, 3850 512, 4670, 3870. 8800gt 256 , 8800gt oc . Szóval szerintem így helyes és így megnézhető mennyi teljesitményt kapunk a pénzünkért.
Általad emlitett 8800gt pl használtan [link], de a 2 ill 3 év garit nem tudom a 8 hónaphoz hasonlitani sehogysem. Ezt meg csak úgy halkan jegyzem meg mint egy árban az új 8800gt-vel [link]. Persze annak amelyik nem a 4850-l van egy árban.
[ Szerkesztve ]
Amd - Radeon - Ryzen
Geza26
senior tag
Ezek szerint ár-minőség arányban a 4670 és a 3870 van partyban egymással, a többi rosszabb ezeknél? Akkor érdemesebb venni most 4670-et, mert kevesebbet fogyaszt, későbbi VGA cserénél könnyebb lesz eladni szerintem, mint a 3870-et!
Jól gondolom
Géza
Jó lett, én sem gondoltam, hogy ennyire közel van a két kártya. Mondjuk érdekes lenne megnézni, hogy a 4670 mit kezdene a 3850 sávszéljével - de aligha lesz belöle gDDR5... Amúgy sztem a GRIDnél fel van cserélve a 4xAA és a 8xAA grafikon
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Kobaljov
senior tag
Nemrég a Tom's Hardware-en próbálták ki a régebbi procikat újabb kártyákkal, érdemes lehet elolvasni (volt egy korábbi része is, csak egymagos procival) + a havi videokártya/ár áttekintéseikben szokott szerepelni AGP-s kategória is ill. a legvégén egy összehasonlítható és kereshető táblázat a videokártyákra sok generációra visszamenőleg
A 4670-esre én is fenem már a fogam, de még várok kicsit, hogy kijönnek-e végre belőle gyárilag (garancia) passzív hűtős változatok (pl. amilyen a Sapphire 3850 Ultimate volt), mert csak alkalmanként menne rajta régebbi, 1280x1024-es játék, a legtöbbször csak sima netezős használat meg videók, és közben nem szívesen hallgatnék egy kis ventit. Az eddig kijöttekből talán az Asus hűtése a legkomolyabb (Artic Cooling?), ha nem lesz passzív 1-2 hónapon belül, akkor az marad (bár a newegg-en arról is voltak negatív vásárlói tapasztalatok).
+ itt is tesztelték nemrég a 4670 pár változatát, épp ma akadtam rá
[ Szerkesztve ]
Geza26
senior tag
A HIS IceQ megoldása nem halkabb, mint a többi ventilátoros?
[ Szerkesztve ]
Géza
Kobaljov
senior tag
Igen, az még annak tűnik, de árban ahogy néztem jóval drágább (most a depo-n az 512M 27K, az 1 GB 35K, de csak egy cég kínálatában van)
Taranti
senior tag
Jó a teszt, és az látszik, hogy jelenleg a hd3870 éri meg legjobban , csak most irreálisan drága. (Talán próbálkozni kellett volna 3850==>3870 tuninggal, de sztem így is látszik.)
Amúgy én is új mellett tenném le a voksomat, persze [link] ki lehet fogni jót is viszonylag olcsón.
Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.
barnam_
nagyúr
Kobaljov
senior tag
Köszi, ez normálisabb árnak tűnik, nem tudom miért nem hozta fel a depo, az ipon árait is szokta listázni. Újabb esélyes az aktív hűtéses verzióra ha nem lesz más.
FeRRaR1
őstag
Jó teszt, de magasabb felbontásban is tesztelhetted volna
diegho
nagyúr
kérlek mutass másik kártyát a 8800GT-n kívül amivel lehet AA-t használni a mai játékokban és alig drágább, mint a 4670, ha mutatsz letesztelem. 3870-et ne mond, mert az szintén alkalmatlan erre.
diegho
nagyúr
mivel ezek a kártyát erre készültek, ezért ezen a felbontáson teszteltem, aki magasabb felbontást akar úgyse vesz ilyen kártyát, ha mégis, akkor majd rájön, hogy hülyeséget csinált. A 8800gt már jó 1680*1050-hez is, de az ati-k elvéreznek teljesen. Ráadásul crt-t használok, mert még mindig nem létezik olyan LCD amit használni tudnék és 100k alatt van.
Gyuri27
félisten
Ne idegesits már légyszi. Az új árakat nézzük, hiszen az ati kártyák új árát vetted a gt meg használt. Ha meg az új árát nézzük van az ati tarsolyában. [link] tessék olvasni való (az aa is használva van).
[ Szerkesztve ]
Amd - Radeon - Ryzen
diegho
nagyúr
Azért egy kis agytréningre elmehetnél, mert látom nagyon nehéz a felfogásod. Miért nézzem az új árát? A legtöbb ember 20-25k között akar használható VGA-t vásárolni nálam. Hiába vesz meg használtan 16k-ért egy 3850-et, ha az alkalmatlan az AA-ra, viszont 25k-ból már kap használt 8800gt-t ami alkalmas rá, ráadásul 1680*1050-ben is használható. Ugyebár azt írtam, hogy akinek AA kell az inkább vegye a használt 8800gt-t. Nem tudom mi nem érthető ezen, de ha nem tetszik csinálj magadnak tesztet ott okoskodhatsz, innen meg kirakatlak, ha nem fejezed be.
Gyuri27
félisten
Lol. Ez egy fórum. Kirakatsz? Szintén lol (miért?).
"ráadásul 1680*1050-ben is használható" [link] nem úgy nézki, hogy a gt 1600x1200-s felbontáson oly nagyon elhúz. De igazad van. Érdemes 25k-ért használtan venni egy vga-t ami ugyanott kevés mint a 16k-s új 3850. Vagy fless nem tud tesztelni.
[ Szerkesztve ]
Amd - Radeon - Ryzen
diegho
nagyúr
Mivel folyamatosan okoskodsz simán töröltethetem a hozzászólásaid innen, mert semmi témához fűződőt nem mondasz. Nem tudom hányszor használtál a tesztelt kártyák közül akár egyet is a saját gépedben, de ahogy priviben kérdezgettél a nyáron, kétlem, hogy bármelyiket is. Majd, ha a saját tapasztalataid tudod megosztani és nem csak linkelgetsz teszteket, akkor beszélhetünk róla. Pont az ilyen okoskodók miatt húzódott el ez a teszt eddig, pedig már szeptember közepén megcsinálhattam volna, de reménykedtem, hogy talán némi intelligencia szorul belétek ennyi idő alatt, de tévedtem... ha proci tesztet csináltam volna, akkor meg oda jönnél magyarázni, hogy hú, az intel nagyon nem éri meg stb.
Padisah
tag
Ahogy nézegetem az általad belinkelt Prohardveres teszteket játéktól függően 200%-30%-kal jobb 1600x1200-as felbontásban a 8800GT 512 MB-os verziója a HD3850 512 MB-os verziójánál, úgyhogy nem értem a problémád.
[ Szerkesztve ]
Az a baj a világgal, hogy az okosok kételkednek, míg a hülyék tökéletesen biztosak a dolgukban.
rumkola
veterán
Én sem értem, mivel volt mindkét VGA nálam. A 8800GT mérföldekkel gyorsabb mindenben mint a 3850.
Aki mást mond, az vagy elvakult vagy életében nem próbálta ki mindkettőt...
[ Szerkesztve ]
tzsolesz
nagyúr
De 8800Gt helyett meg van már 4830 szvsz. Már láttam 29K-ért vacsora újan. Így hát megint nincs létjogosultsága neki....
diegho
nagyúr
új képek feltéve, kártyák adatai szintén, grid képek javítva, minden konklúzió törölve.
Gyuri27
félisten
Nem mondta senki, hogy nem gyorsabb! A probláma ott volt, hogy ati kártyák új árát nézzük a jelentös drágulás után, mig a gt-t használtan nézzük alig vagy 0 garival.
Ha az új árakat nézzük 3850 512 vs 8800gt esetében akkor árban is megvan a 30% difi. Ennyit akartam mondani. Ezért nem volt jó a konkluzió 25-t használt vga-t vagy 25-t vatta ujjat még ha kicsit lassabb is (mondjuk egy 3870 gddr4 annyival azért nem lassabb).
rumkola: válaszoltam.
tzsolesz:
diegho: állásról kérdesztelek ha jól emlékszem. Nem értem hogy jön ide? Az, hogy egy privát beszélgetés egyáltalán hogy jön ide pláne nem értem. Ezt fölhozni és úgy beállitani mint ha szakmairól beszéltünk volna és én akkor sík hülyének bizonyultam enyhén szólva is gusztustalan. Tehát lehet, hogy én szerinted okoskodom (bár nem hiszem), de gusztustalan nem voltam mint te.
További szép napot.
[ Szerkesztve ]
Amd - Radeon - Ryzen
rumkola
veterán
Akkor vedd azt, nem tudom miért kell itt görcsölni.
Abu85
HÁZIGAZDA
Nem látod a problémát ... a 8800GT nem támogat Multisample Access-t, így Deferred Rendering mellett nem tud AA-t számolni. Lehet akármilyen gyors AA mellett mélységinformációk nélkül null shadert fog futtatni. Ezért rakták bele a Far Cry 2-be és a STALKER Clear Sky-ba a DX10.1 támogatást ... a jövőre megjelenő játékok többségében nem lehet AA-t számoltatni DX10.1 támogatás nélkül.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Abu85
HÁZIGAZDA
Először olyan játékok kellenének ahol tényleg hibátlanul működik az AA. A tesztben a Crysis Warhead-ben például csak Edge detect Shader nélkül lehet AA-t számolni, tehát mondhatjuk, hogy a játék nem támogatja az élsimítást. A Far Cry 2-ben csak a DX10.1-es módban fut az összes fázis. A Geforce kártyák egy fázissal kevesebbet dolgoznak, ráadásul nem tudnak a textúrákból mélységinfót mintavételezni, tehát az AA mellett jobb a DX10.1-es Radeonok képminősége.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
bennem azért vannak kételyek, hogy a "hibátlanul" működő AA mennyire fontos. nézd meg a tesztben is szereplő GRID-et, halál jól néz ki, és a 4xAA-t szinte meg sem érzi - és DX9-es. kicsit túl van lihegve ez az AA dolog, végső soron az élsimítás is egy a sok postprocessing effekt közül, ha értelmes kompromisszumokkal csinálja valaki, akkor jól fog kinézni, és nem kell hozzá atomerőmű sem.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
btw., a GRID-et hol mérted?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
diegho
nagyúr
destruction derby és próbáltam a mezőny közepében lökdösődni, sok gumifüst-el stb.
Abu85
HÁZIGAZDA
A GRID-ben nincs is probléma az AA-vel.
Más játékokra gondoltam ... UE3 motoros cuccok, Assassin's Creed (patchelt), Cryengine 2 motoros játékok, STALKER SOC/CS, Far Cry 2 és némely YETI Engine alapú játék (LOST, GRAW, GRAW2 ... )
Szóval van itt probléma bőven.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
diegho
nagyúr
már csak az a kérdés, hogy aki most vesz 25 alatt kártyát, az most akar élvezhetően játszani, vagy jövőre akar AA mellett 20fps-t?
Májsztró
addikt
én mindenképpen tudom ajánlani az 512-es 3850-et ... azzal nincsen baj , ez tuti. bár lehet hogy a 256-os verzióval sincs , de engem pl megnyugtat hogy 512 ram van rajta
Abu85
HÁZIGAZDA
Multisample Access-sel gyakorlatilag minimális teljesítmény deficit. Ezért reklámozza az AMD, hogy a HD3000 és a HD4000 karikkal teljesen működő AA-t lehet előállítani gyakorlatilag minden Deferred Rendering motorra 3-5%-os teljesítményveszteség mellett.
Én úgy gondolom, hogy a felhasználó érdeke, hogy ne kelljen a látványjavítókhoz kompromisszumokat kötni. Pl. ha bekapcsolom a Crysis Warhead-ban az AA-t, akkor a motor ne kapcsolja le az Edge Detect-et, vagy ha bekapcsolom az AF-et, akkor ne kelljen kikapcsolnom a POM-ot. Ezekre a problémákra van a DX10.1, amit az NVIDIA valamiért nem kíván elhozni nekünk ... Nyilván a G80 architektúra nem hatékony a további versenyre, a DX10.1 beépítése további 200 millió tranzisztor, ami az így is nagy méretet tekintve baromi nagy probléma.
Igazából nem igazán értem az NV mit akar ... folyamatosan nyilatkozza, hogy nemsokára bevetésre kész az 55nm-es G200 ... jó, és ha kész lesz akkor mi lesz? Továbbra is baromi nagy a chip, és továbbra is baromi drága lesz előállítani. A 40nm-es fejlesztet verzió meg 2009 Q2-re lesz itt ... kb. ekkorra érkezik az RV870 40nm-en. Most mindenki azt nézi, hogy 40nm lesz itt is ott is, így eltűnik a gyártási költség hátránya. Kérem szépen ... dehogy tűnik el. Az RV870 közel azonos teljesítményt sokkal alacsonyabb tranzisztorszámmal hozza ki, egyszerűen hatékonyabban fejleszthető az R600 architektúra. Ezzel továbbra is jóval olcsóbban tud, majd az AMD chipet gyártani. Az első támadási lehetőség a G300 lesz ... ott dől el minden. Ha új architektúra lesz akkor van esély javítani, ha a G200 átszabása, akkor ennyi volt a zöldeknek a VGA piacon ... a Larrabee előlép első számú konkurensé.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
rumkola
veterán
Amíg a júzerek több mint fele XP-t használ, és az általad állított dolgok ATI-val még DX 10.1 alatt sem hoznak semmiféle gyorsulást, sőt mindenféle bugokkal, képminőségbeli romlással és lassulással járnak addig számomra ez az egész csak szócséplés. Gyönyörű szakszavakat használsz, de lassan 2 év eltelt már és még mindig semmi nem valósult meg ezekből a jóslatokból.Ez kb. olyan, mint amikor a politikus azt mondja a népnek, hogy jövőre majd jobb lesz. Csak az a baj, hogy már 20 éve mondják... Én is beszívtam 2x, hogy jaj de jó lesz majd nekem (3850,4850), aztán közben mégsem.
Jelen pillanatban még mindig a 280-as a leggyorsabb, legkompromiszum mentesebb egychipes vga a piacon.
[ Szerkesztve ]
Abu85
HÁZIGAZDA
Nem hiszem, hogy bárkinek jó, hogy az itt említett programokban nincs AA. Ez minden csak nem a felhasználó érdeke. Nekem a userek érdekeit kell néznem egyes értékeléseknél, a cégek érdekei hidegen hagynak. Sajnos manapság a legtöbben azt tapasztalják, hogy csak az AMD akarja visszahozni az AA-t a játékokba, és ezért van az a nagy NV ellenesség.
Az legtöbb tehetősebb embert nem érdekli, hogy egychipes vagy kétchipes VGA-t vesznek ... látják, hogy a tesztben a HD 4870 X2 bucira aláz mindent és ha van pénz rá akkor arra költenek. Az AMD is ezért húzta a HD 4850 X2 piacra dobását, mert nem számított rá, hogy állandó hiánycikk lesz a HD 4870 X2. Még az eredeti árat is megemelték 80 dollárral.
Az NV-nek én azt tudnám javasolni, hogy döntsék el mit akarnak ... ha szeretnének maradni a PC-s VGA piacon, akkor nyomjanak annyi pénzt a szegmense amennyit két éve, ha meg nem akkor felesleges fárasztani a népet az ígérgetésekkel. Egy szót nem szólnék, ha a G80 architektúrában lenne annyi potenciál, hogy versenyre kellhessen az R600 alapjaival, de egyszerűen ez a chipstruktúra a G200-zal nem ütőképes. 55nm-en és 40nm-en sem lesz az.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
rumkola
veterán
Természetesen egyetértek veled, mindenki szeretne AA-t, viszont nem értem az általad felsorolt játékok címeit és mennyiségét.
NV kártyával talán csak néhány UE3 játék alatt nincs AA (drverből ezeknél is kikényszeríthető), de XP alatt ATI-val sem működik ezeknél. A vicc az egészben az, hogy van olyan UE3 cím, ahol simán van NV-vel XP alatt is AA. Mellesleg most felsoroltál kb. 10 címet amik mellé én felsorolhatnék több ezret aminél semmi gond az AA-val NV-n (és igen, a Far Cry 2 is ezek közé tartozik).
Én pont azt látom, hogy az AMD fáraszt az örökös ígérgetéseikkel és az általuk említett dolgokból semmi sem vált eddig valóra (800 ill. 1600 séderrel telepakolt GDDR5-ös VGA, DX 10.1-es támogatás már egy éve - amihez nulla darab szoftver van, stbstb.).
Amíg a szoftver fejlesztők nem fognak az ATi alá dolgozni, amíg a júzerek nem váltanak vistára addig ez mind-mind csak papíron létező dolog marad.
A fejlesztők pedig mint tudjuk, nem fognak valami olyat építeni a szoftvereikbe ami plusz munkával jár és nem mellesleg inkompatibilis lenne az NV-vel. Sajnos (vagy nem sajnos) ez a piac.
Az X2 (bármelyik oldalról) és bármilyen CF vagy SLI megoldás pedig igazi nemnormális gyökérség. Mi sem bizonyítja jobban, hogy anno aki 3870x2-őt vagy hasonló NV-t vett, az fél éven belül fele áron sokkal jobb egychipes VGA-t vehet....
A Tropics demóról mi a véleményed?
[ Szerkesztve ]
Assassin's Creedben is teljesen jó az AA - DX9 alatt.
Egyébként ezzel a posttal azt akarod mondani, hogy a GRID (és az AC) nem használ semmilyen deferred technikát, vagy azt, hogy az említett engine-ek írói olyan bénák, hogy csak a DX10.1-ben biztosított új feature-ök segítségével képesek normális sebességű és minőségű élsimítást hozni?
Az UE3 motor amúgy kilóg egy kissé, ott a HQ postprocessing (vagy melyik játékban mi a neve) részben kiváltja az AA-t - nekem a Bioshock alatt egyáltalán nem is hiányzott...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Abu85
HÁZIGAZDA
A kényszerített AA az félmegoldás, ami ezt eredményezi. Persze erre a problémára a Catalyst AI állítgatása megoldást jelent, csak az új problémákat vett fel. Ördögi kör ... Normálisan támogatott AA kell a játékokba, a fenti félmegoldásokkal nem jutunk előbbre.
Amúgy a 8.3 óta engedélyezve van a Catalyst alatt is az AA override az Unreal Engine 3 gamákra.
A hivatalos nyilatkozat értelmében azonban az AMD nem garantálja, hogy tökéletes és hibamentes lesz az eredmény, mivel a motor nem támogatja az MSAA eljárásokat. Mondjuk ezt az NV sem garantálja csak nem jelentették ki a dolgot, mert nekik probléma, ha az emberek rájönnek, hogy normális AA csak DX10.1-gyel lehetséges.
A Far Cry 2-őn sincs normális AA DX10 alatt, mert kimarad a mélység mintavétel az átlátszóság infót hordozó textúrák mögül. Ezért lett beépítve a DX 10.1 mód, hogy ezt a problémát megoldják a fejlesztők. A sebességelőny pedig ez esetben azért marad el a DX10.1-es kártyákon, mert a mélység infó szerzést egy utólagos fázis irányítja, ez egy plusz fázist jelent majd a DX10.1-es Radeonoknak. Ezért nem fogjuk soha tesztelni AA mellett a Far Cry 2-őt, mert a fejlesztők rosszul írták meg a rendert, így a Geforce DX10-ben egy fázis előnyben van, ha ők is lenyomnák azt a fázist akkor -30% lenne sebességben a teljesítmény, csak a driver nem engedi a mélység infó mintavételt, mert úgy sem lenne eredménye.
Az Unigine motor elég jól fejlődik, csak a srácnak most sikerült eljutnia addig, hogy az AMD és az NV figyelmet szenteljen a motorjának a driver oldalról is. Ez majd megnöveli a licenszelők számát is. A press release alatt pedig szépen megmutatja, hogy mi a különbség a DX10 és a DX10.1 mód között, ha a kártya nem képes mélységinfót szerezni.
kepdx10 , kepdx10.1
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Abu85
HÁZIGAZDA
De az AC-ben a DX9 módban az Animusnál más a deferred render fázisok keverése, ott nem kell az AA-hoz a Color infón kívül más. DX10-ben már kell a Z subsample is, így ott hiányzik az AA. Az DX10 a Deferred Shading alkalmazásánál egységesített keverési eljárásokat használ ... tulajdonképpen, ha csúnyán fogalmazunk az AC esetében DX10 miatt nincs AA. Erre jött a javítás a DX10.1-ben, amit a fejlesztők használtak, de ki is vettek időzítési problémák végett (amit pár perc lett volna javítani ).
A GRID az nem téma, oda elég a color infó.
Az UE3 az spéci eset, mert az a motor Deferred Shadowing. Esetenként durván szopni lehet vele az AA-nál ... linkeltem shotokat a problémáról.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
diegho
nagyúr
amúgy megmondom én neked, hogy miért nem töri magát az nv. Még mindig túl sok az xp használó ráadásul a vista közel sem olyan jó, hogy megérné áttérni rá. Az nvidia szerintem akkor csinálja jól, ha jövőre kezd bele egy új architektúra fejlesztésbe, mert a win 7-ig nincs igazán nagy szükség a dx 10.1-re.
Abu85
HÁZIGAZDA
Én inkább pénzkérdést látok a dolgok mögött. Az a baj, hogy az NV a PC-s GPU üzletág fejlesztésébe közel sem pakol most annyi pénzt, mint a GF8800 idejében. Inkább a HPC rendszerek, a Tegra és a CUDA fejlesztésére koncentrálnak.
Jövő nyárra itt a Win 7, szóval ... öngyilkosság jövőre elkezdeni a DX11-re való átállást. Az NV-nek ez nem olyan egyszerű, mint az AMD-nek. Ők az R600-at úgy építették fel, hogy több generációig hetékonyan fejleszthető legyen. Ezért bukták be az első évet, de megérte, mert még jövőre ... sőt talán még 2011-ben is lehet ezekre az alapokra építkezni.
A G80 alapjai a G200-nál kifújtak, a G300-nak mindenképp új architektúra kell, vagy vége az egésznek. Persze ha azt nézzük, hogy mennyi pénzt vontak el az üzletágtól, akkor még az is elképzelhető, hogy ez így volt tervezve. Nyilván az Intel belépésével az NVIDIA nem kívánatos konkurencia lesz a piacon. A legvalószínűbb forgatókönyv szerint az NV ezt tudja és időszakosan gondolkodik, tehát bőven elképzelhető, hogy azért nincs DX10.1 támogatás, mert nem éri meg a befektetett összeget, mivel a PC-s GPU piac lapátra kerül és a HPC, SOC rendszerekben gondolkodnak a zöldek, amik a CUDA felületre támaszkodnak. Ezeket az elméleti terveket alátámasztja a Mental Ray és az Ageia felvásárlása.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Taranti
senior tag
Na, itt a lényeg, a hsz. első felével teljesen egyetértek. Én is xp-t használok, és nem tervezem vistára váltani. A hd3870-em dx9 alatt meg (eddig még) mindenre elegendő. Persze itt tmondhattam volna 9600gt-t is... És nem mellesleg a nagy játéknevek (ha-ha) jó része bughalmaz!
Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.
tzsolesz
nagyúr
No csak a Grid-ben a 8xAA nem nagyon hatja meg az ATI karikat, míg az NV-ét pofán vágta kicsit. Ez jelent valamit. Ez mitől lehet???
Az XP ideje igencsak lejárt, ugyanis a mai játékoknak már igencsak szűkös az a 2 giga ram, amit alkalmazásonként allokálni képes a 32 bites változat (64 bitest meg nem használ az, aki jót akar magának, a 3GB kapcsoló meg csak a PRO esetén működik). Szóval ha valaki a közeljövőben is megfelelő sebességgel akarja futtatni az új játékait, az kénytelen lesz átérni a Vistara.
***
rumkola
veterán
A vista 2 éves és jövőre pedig váltja a win7 vagy miatököm. Ennek fényében vicces a jóslatod. Jelen pillanatban a piacon lévő több ezer játékból talán kettő gyorsabb vista alatt 4gb rammal, mint xp alatt 2gb-al.
A DX10-nek NULLA a létjogosultsága, ez több száz tesztből és a sok user beszámolóból már kiderült. Mellesleg egy 10GB+ oprendszer - nálam - nagyon erősen vicc kategória, bár az utóbbi hetek hírei szerint most már a microsoft is ezen az állásponton van.
A vistára természetesen sok jót lehet mondani, csak azt nem, hogy a játékok gyorsabbak vele, mint nélküle.
diegho
nagyúr
mire át kell térni, már lesz win 7, pont ezért siet a microsoft, hogy mire szükség lesz rá, legyen egy normális oprendszerük.
a force-olt AA-nak abszolút nem vagyok a híve (kivéve az Oblivion-nál - de azt tudod, hogy miért ) - ezen nem is érdemes beszélni az UE3 esetén. azt viszont nem értem, hogy miért nem írtak egy saját edge detect szűrőt az árnyékokhoz - egy csak árnyékokból álló plane-hez nem lehet túl nagy művészet, főleg, hogy az árnyékszámítás "mellékhatásaként" ismertek is az élek...
a color/depth dolgot értem, nem tudtam eddig, hogy van ilyen különbség - és a unigine-es képek elég meggyőzőek. csak ebből nekem az jött le, hogy a 9600GT-men vagy maradok XP-n, vagy lelkes rajongója leszek a -dx9 switch-nek - de ha a Far Cry 2-ből indulok ki, akkor ugyanez lenne a helyzet, ha Radeonom lenne...
PS: diegho, szólj, ha már nagyon offnak érzed a fentieket
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
diegho
nagyúr
felőlem itt kiélhetitek magatokat
Meglátjuk mi lesz jövőre. Mind a Vista, mind az XP csúszott éveket.
***
tzsolesz
nagyúr
Nem értem ezt a Windows 7 mizériát. Most miért kell ezzel jönni itt. Előbb Vistát kellene használni, nem? akinek már az is szar, az a halálba fogja kívánni a W7-et....
Na már most ha az emberek még a vistát sem használják, kérdem én mikor fogják használni a windows 7-et??? Megmondom KB. 3-4 év múlva. Úgy ahogyan a Vista is csak most kezd már teret hódítani. Én már 1.5 éve Vistát használok, és a környezetemben is a USER-ek 60-70%-a használja.
A fejlesztőknek meg előbb normális DX10-es játékokat kellene gyártaniuk, nem hogy a DX11-ről egyáltalán álmodozni. A DX11 kb 5 év múlva fog teret hódítani szerintem. Most jöjjenek az igazi DX10-es játékok. Remélem 2009, és 2010-ben már lesz belőlük részünk rendesen.
diegho
nagyúr
azért a win 7 és a vista nem említhető egy lapon, a win 7 sokkal felhasználóbarátabb lesz.
tzsolesz
nagyúr
Mondták ezt a vistáról is. De remélem hogy neked lesz igazad....
Csakúgy, mint a Vista felhasználóbarátabb az XP-nél.
***
diegho
nagyúr
szerintem semmiben nem felhasználóbarátabb, sőt... de ebbe nem fogunk itt belemenni, köszi.
Abu85
HÁZIGAZDA
Hát a kiszivárgott beta alapján a Win 7 az gyakorlatilag SP2-es Vista lesz. Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog kihasználni, illetve az új Aero felületet elvileg átírták DX10.1-be.
Az igazi előrelépés, hogy csak 64bit-es verzió lesz belőle. Ez fontos, mert a mostani driverek a 32bit-es kernelhez készülnek, így a 64bit-es Vistával csak a szopás megy. A 32bit-es Vista az SP1-gyel már teljesen jó.
Mellesleg jövőre több olyan játékot is kapunk ami only DX10 (Stormrise), vagy a DX10 renderből lett készítve a butított DX9 mód (a Far Cry 2 is ilyen már). Utóbbi eset fennállása mellett gyorsabb lesz a Vista alatt ... nem is kevéssel. Sőt a Battleforge DX9 és DX10.1 módot fog csak tartalmazni és utóbbi sokkal szebb és gyorsabb lesz - legalábbis a fejlesztők szerint.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
tzsolesz
nagyúr
Hát a kiszivárgott beta alapján a Win 7 az gyakorlatilag SP2-es Vista lesz. Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog
Na tessék nekünk új oprendszer.....
Taranti
senior tag
No, éppen ez az. Vistát CSAK játékra nem rakok fel, munkára (mindennapokra) meg teljesen jó nekem az xp. Lehet, hogy ez fog változni a win7-tel?
Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.
tzsolesz
nagyúr
Azt szeretném még kérdezni, hogy Vista alatt mennyiben lenne más helyzet?
Másképpen fogalmazva, vajon melyik kártya élvezne előnyt a fentiek közül?
Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom.
[ Szerkesztve ]
diegho
nagyúr
Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom.
mivel 2000 óta csak counter-strike-ot játszok és fix 100fps-re lőve (amúgy 2-3-4000 lenne) ezért nem tudok nyilatkozni gyorsulásról, vagy bármiről. Most már source-ozok is, de sp2-vel nem játszottam.
rumkola
veterán
SP3 semmit nem gyorsít, miért is tenné? Nem más mint SP2+azóta megjelent frissítések egyben...
tzsolesz
nagyúr
Jaah, nem szóltam.
rumkola: Akkor jól sejtettem.
[ Szerkesztve ]
Mai Hardverapró hirdetések
prémium kategóriában
- Gyönyörű autómatricák azonnal gyors országos kiszállítással! PH-soknak 30% kedvezmény!
- Asus K95VJ, 18,4" FHD, I7-3630QM 8x3,40 GHz, 16GB DDR3, 250GB SSD+1TB HDD, 1GB VGA ,WIN 10, Számla,
- Asus R751L, 17,3" FHD, I7-4510U, 8GB DDR3, 1TB HDD, 2GB VGA ,WIN 10, Számla, garancia
- IdeaPad 1 15ALC7 15.6" FHD Ryzen 5 5500U 16GB 512GB NVMe SSD (PCIe 4.0) gar
- Asus N73S, 17,3" FHD, I7-2670QM 8x3,10 GHz, 16GB DDR3, 250GB SSD,500GB HDD, 2GB VGA ,WIN 10, Számla,