- D1Rect: Nagy "hülyétkapokazapróktól" topik
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Gurulunk, WAZE?!
- Geri Bátyó: B550 szűk keresztmetszet, de mi és miért?
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- gban: Ingyen kellene, de tegnapra
- sziku69: Szólánc.
- hcl: Kelj fel komám, ne aludjál
- bambano: Bambanő háza tája
-
LOGOUT
AMD Radeon™ HD 7950 / 7970 topic
Új hozzászólás Aktív témák
-
Őket nem láttam, vagy átsiklottam felettük, tény, hogy léteznek, de azért a zöldek sokszor (nagyon sokszor) realitást áthágva mondják a szöveget, jóval kevesebb azért az, hogy "csak amd-t veszek, fujj nvidia", mint fordítva, miközben mindkét oldalon akadhatnak problémák.
Drukker-ellendrukker mindig is létezni fog, csak azért szakmai fórumokon maradjunk már a tényeknél, és nem az elfogult hülye dumáknál, ami csak jobb esetben származik némi tapasztalatból. -
Colos1
őstag
Én pedig többször megfigyeltem - bár már 1 éve nem futtattam, de előtte sokat szórakoztam vele - , hogy amikor jelenetváltások történnek, akkor a lemezolvasás sokszor megakad. A következő futáskor pedig vajsíma az átmenet.
Azóta látom, már a 4-es verziónál jár, lehet, hogy ennél már javították.
-
HSM
félisten
Próbáltad az általam készített driverrel is [link]?
Természetesen, ha gyárilag nem vállalják a dolgot, akkor elképzelhető, hogy bizonyos revíziókban nem fog jól menni, de aki próbálta a monitor topicjában eddig nem volt vele gondja, azért csodálkozom....(#25653) DroiDMester: Nem egészen értem, mi a probléma, amiket linkeltél képeket, mindegyiken jó magas FPS érték szerepel.
Nyilván olyan jelenetek, amik nem terhelik annyira a GPU-t, rengeteg FPS, és így CPU limit keletkezik.
Arra pedig nemrég írtam, miért van, hogy 70%-nál is lehet CPU-limited: [link] illetve innen az utolsó bekezdést tudnám ismét mondani... [link]
-
szasanyi
félisten
Aha, így már értem. Én ilyet nem csinálok, úgyhogy az része nem érdekes.
Dromi (#23190) : ha legalább 1080p-ben játszol az én véleményem is az, hogy nem kell. Ha ehhez magas vagy Ultra részletességet használsz, úgyis hamarabb fog jelentkezni a VGA limit mint CPU limit.
Ha akarsz tuningolni először is egy nagyon jó hűtő kell (nem írtad milyet használsz), ugyanis tudni kell azt, hogy a fogyasztás és a hőtermelés lényegesen nagyobb lesz még alapfeszes tuning esetén is (4.5Ghz). Ha szeretnél mégis, én a helyedben a lapod topikjában (is) kérdezősködnék.Asbee: esetleg megnéznéd még azt, hogy alapfeszen a VRAM 1250Mhz vs 1500Mhz között mekkora a fogyasztásbeli különbség?
-
szasanyi
félisten
Az mennyit dob a fogyasztáson? Mert erről nem láttam semmit, és mivel nincs számottevő előnye így érdekes lenne pontos adatokat tudni. Mondjuk én 1250Mhz@1.60V helyett 1375Mhz@1.50V-on használom, itt valszeg nincs jelentől különbség - gondolom én, aztán lehet, hogy mégis.
-
HSM
félisten
Ezért is szoktam agyvérzést kapni, mikor a 7800 topicban elindul az okoskodás, hogy bőven elég a 7850-re az 1GB...
(#23049) Pug: Jaja, az alapértelmezett OpenGL2 API-val fűt a legjobban, én azt használom.
Meg ha Kombustort mondok, akkor ezt a Burn-in OGL2-es verziót MSI object-el értek, csak sokszor pongyola módon ezt nem írom le újra és újra... -
szasanyi
félisten
Egy enyhén tuningolt HD7950 (én nonBOOST BIOS-szal használom GPU 1000Mhz@1.086V és VRAM 1375Mhz@1.50V ahol ezek a "gyári" feszek) ereje egy jó 4 magos procival megtámogatva tapasztalataim szerint maximális grafikával is mindenre elegendő. Ez alatt azt értem, hogy a játék normálisan játszható és nem akadozik, igaz egyes játékok esetében AA és/vagy Vsync nélkül - ami egyébként engem kicsit sem zavar.
Egyébként azt pontosan hogy értetted, hogy aki mindent a maximumra akar tolni, annak mélyebben a zsebébe kell nyúlni? Mert én úgy látom, hogy akit egy HD7950/7970 vagy CF nem elégít ki (felbontástól függetlenül) annak nincs olyan alternatíva amire megérné váltani, és ami annyival jobb lenne.
Igaz, jönnek az újabb kártyák jó drágán, azokat is el kell adni valaki(k)nek, amire őket még csak rá sem fog kelleni beszélni.Ilyen értelemben tökéletesen áll a fenti kijelentésed, azzal együtt, hogy a teljesítmény ott is kérdéses (egyelőre).
-
skippper
senior tag
Ez teljesen világos, ismétlem magam, hogy csak arra akartam kilyukadni, hogy nem kell mindenkinek aki betéved ide egy kicsit gyengébb procival egyből platformváltást ajánlani, mert kétszer sem biztos, hogy megéri, vagy hogy egyáltalán látni fog bármi növekedést. Fölösleges mindenkit belekergetni extra kiadásokba, csak azért, mert a Crysis 3 meg a sokszereplős multi játékok megeszik a gyengébb procikat (sőt igazából mindent megesznek, nincs az a szénnéhúzott i7 ami mellett ne lenne gyorsabb a játék még 10MHztől), hiszen lehet csak valami NFS szerűséget akarna a kollega játszani, ami mondjuk egyáltalán nem limites.
-
skippper
senior tag
Én két különböző dologként értelmezem a "Nem hajtsa ki" és a CPU-limit kifejezést (és szerintem nem lövök mellé ezzel) Amit Te mutatsz, hogy a Crysis 3 CPU igényes, az nem kártya függő. Egy 7950-nél ugyanúgy észlelni fogod a különbséget, mint egy GTX480nál vagy GTX690-nél. Ráadásul valószínűleg arányosan, a 7950 is 20%ot gyorsul, míg a GTX480 is vagy bármi más is. Ebben az esetben a különbség nem mutatható ki mondjuk egy szintetikus VGA benchmarkon, ha húzod a procit, gyorsul a Crysis 3, viszont mondjuk egy Valley benchmark ugyanazt az eredményt hozza.
Emellett beszélhetünk arról, hogy a CPU folyamatosan Bottleneck a VGA-nak, azaz mondjuk egy GTX-480on már nem adna teljesítménynövekedést ha gyorsítasz a CPUn, míg egy 7950-en igen. Ebben az esetben kimutatható a különbség, akár szintetikus benchmarkok alatt is (Pl egy C2D-vel mondjuk)! Ahogy húzod a procit, úgy nő az eredményed a szintetikus benchmark alatt is és a Crysis alatt is.
A Crysis 3-as esetben arról van szó, hogy a játék tesz éppen akkor akkora terhelést a CPU-ra, amivel nem bír megbírkózni, míg a második esetben arról van szó, hogy a VGA erőforrásigényét nem tudja kiszolgálni az adott CPU, éhezteti.
Márpedig egy 7950 igényét ki tudja szolgálni egy ilyen CPU, ez látszik az álló jelenetes tesztekből (amit én csináltam) és a szintetikus tesztek CPU-oldali indifferenciájából.
Remélem világos így, hogy mire próbálok célozni, miért nem általánosítható, hogy egy i5 "nem hajtja ki a kártyát".
-
Abu85
HÁZIGAZDA
-
oliba
őstag
Nem veszem bántásnak, de nem dolgoztam ilyen cégnél. Viszont, ha valami jó és tökéletes az eladja magát és egy ilyenen akár több profit is lehet, csak egy jó marketing kell, hogy miért is jobb a te cuccod, mint a többieké.
Seasonic is megél a piacon, pedig anno mennyit írták, hogy az alacsony teljesítményű tápokon szinte haszon sincs, ezért meg sem éri ide gyártani Gold és Platinum szériás tápokat. Azért megoldják ezt is, csak van egy kis feláral
-
Abu85
HÁZIGAZDA
Ezt a részét még vizsgálják. A probléma adott, igazából valami megoldás kell rá. A lehetséges opciók között az van az NV-nél, hogy van tényleg felelősséget vállalnak a felhasználók és a tuningolt kártyákat nem viszik gariztatni, vagy marad úgy minden, ahogy most és lesz egy feszültséglimit, illetve a normál kártyák esetében nem állítható majd a feszültség.
A probléma nagyon komoly, mert sem az NV, sem pedig a gyártók nem akarják benyelni a tuningolt kártyák elhalálozásán a veszteséget. Ez a Kepler sorozatnál olyan mértéket öltött az eszetlen túlhajtás mellett, hogy teljesen világos ez a hozzáállás.Az AMD sem fogja benyelni ezt. Nekik is lesz erre egy átfogó megoldásuk. Bár ők inkább a hardveres korlátokban hisznek. A PowerTune kiegészül a feszültség állításának nagymértékű paraméterezésével. Ez egyrészt a működéshez kell, mert dinamikus boost lesz majd a termékeken, illetve ha már ilyen a rendszer, akkor bármit beállíthat a felhasználó, de az a beállítás át fog menni egy hardveres hitelesítésen. És a hardver bizony nem egyszer azt fogja mondani, hogy nem. Ettől a felhasználó beállítása megmarad, csak ha a hardver soknak ítéli az 1,2 V-ot például, akkor minden további nélkül fogja 1,1x V-ra csökkenteni. Nem érdekli, hogy ez nem tetszik a usernek, vagy bármi, ez be lesz építve a lapkába. Még BIOS-ban sem kell majd vezérelni.
Ez egyébként ma is él a PowerTune-ra. Ha a hardver a magas feszültség és órajel miatt beleütközik a terheléslimitbe, akkor leveszi az órajelet, ezzel megakadályozva az alkalmazás lefagyását, vagy a hardver meghibásodását. Az a baj, hogy a sok 3rd party tuningprogram szarul megírt PowerTune profilt használ, mert nagyon agresszívra kell azt rakni, hogy a hardver ne döntsön a korlátozás mellett.
Kétségtelen, hogy a felhasználók jelentős része nem tud ésszel tuningolni, így az AMD az aktuálisnál jóval agresszívebb megoldáson gondolkodik. Ez amolyan hülyebiztos PowerTune. Ennek a mellékhatása majd az lesz, hogy tuning hatására konkrétan lassulhat is a kártya, de legalább kivégezhetetlen. -
zack
nagyúr
A skálázódásról nem is beszélve. 3. kártya nem ritka hogy csak +20-30% hoz a CF-hez képest. Nagyon nem éri meg. De egyelőre a CF-ről rosszat nem tudok mondani... Évek óta CF-et használok. 3870 X2, 4890 CF, 6950@70 CF... Soha nem volt gondom játékok alatt, pedig sokat toltam velük FPS-t. Volt GTX 295 is ami ugye SLI. Ezzel sem volt gond.
-
HSM
félisten
Az AMD-nek volt elvileg egy kísérleti, Rambusos interfésze az RV770-ben, pont a CF-ben lévő VGA-k komunikációjának segítésére. Hatékony adatmegosztással egészen más lehetett volna a többi módszer hatékonysága is.
Persze, értem én, hogy olcsó az AFR, meg ránézésre nagyon csábító, de attól még vacak.
-
HSM
félisten
Szerintem ez az egész AFR egy földművesvakítás... Ahogy te is mondod, nő az input lag, de tök logikus is, ugyanannyi idő egy GPU-nak egy képkockát elkészíteni, nem lát a jövőbe.
Tehát pont a leglényegesebb tulajdonság nem javul a több FPS-el, hogy hamarabb jelenlen meg a képen, amit püfölök a klaviatúrán.
Ezt még lehet súlyosbítani, hogy vélhetőleg magasabb beállításokon tolod 2 GPU-val, ami mégtovább növeli az egy képkockára vetített elkészülési időt.Szerencsére ez engem nem érint, inkább fizetek ugyanazért az FPS-ért másfélszer annyit egy kártyában, minthogy CF-ezzek, ez a véleményem, mióta csak AFR létezik. Ha meg valamihez nem elég egy aktuális felsőkategóriás cucc, azt meg lejjeb veszem maxról, aztán szépnapot....
Pedig kezdetben voltak egész szimpatikus elgondolások a munkamegosztásra, aztán csak ez a vacak AFR nyert. -
-
-
Enclave
aktív tag
Egyelőre csak Skyrim alatt néztem, majd megnézek mást is. "HD texture pack"-et valamint további halom "HD texture" javító cuccot továbbá ahol lehet Parallax map-eket, sokkal részletesebb modelleket, több tucat grafikai mod-ot, SMAA-t ultra fokozaton és ENB-t használok testre szabott enbseries.ini-vel (a paraméterezését még tanulgatom mert nem mindenhol van részletesen dokumentálva). 1920x1200-as felbontáson. (a Skyrim ugyan DX9-es de az ENB mod sokat gpu erőforrást meg tud enni, persze a látvány kárpótolja az embert, a halom mod és "texture pack" valamint az ENB nélkül a játék alig 40-50%-on vagy alatta dolgoztatja a gpu-t, ezekkel már végig szinte 100%-on)
Úgy mértem, hogy futott a fraps és betöltöttem 5 különböző mentett állást különböző helyszíneken statikus tartalommal (tájat bámulja a karakter, épületekre néz, ránéz a városra külső nézetben stb-stb.) és úgy fél percig figyeltem a fraps által kijelzett értékeket és felírtam a legjobb, legrosszabb számot (ahol persze ugrált, nem mindenhol). Egyébként kb.10%-ot figyeltem meg de volt ahol kevesebb lett a megfigyelésem szerint a különbség:
Ram órajel: 1500 / 1800 szerinti fps; gpu 1150-en mind a kettő esetben:
1. mentés: 46 / 50
2. mentés: 50-52 / 53-55
3. mentés: 51-52 / 54-55
4. mentés: 47-49 / 49-50
5. mentés: 44-47 / 48 -
Foxmulder89
senior tag
Már nincs fent, de ha jól csal az emlékezetem, nálam pl Hitman gyorsult sokat memória tuningtól.
7950, 1250->1600 közt látványos fps különbség volt, pedig csak 1680-as a monitorom.
AA nem tudom volt e rajta, ha igen, akkor is csak max 2-4x.
Más játéknál én nem nagyon tapasztaltam ~semmi javulást. -
ffodi
veterán
-
TTomax
félisten
Hát igen,de a HBAO sem zabál annyit mint a HDAO... nem tudom megéri-e ezzel foglalkozni mert nagyon sokba kerül...
(#13362) Abu85
Na még reagálok egy utolsót...A Radeon HD 7970 GHz Edition VGA-val simán játszható Full HD-ben ez a beállítás.
Igen csak ez a teszt a 660TI-röl szól....
-
Abu85
HÁZIGAZDA
Nem kell feladni. Csak lásd, hogy az egyik oldal problémáit előveszed, míg a másik oldalét fel sem hozod. Pedig legalább annyi gondot fel lehet hozni ott is. Ez a drivervita évek óta megy, de sosem született semmi belőle. Az egyik oldal mondja, hogy ez a jobb, míg a másik oldal szerint a másik. A tesztek szerint viszont tényszerű adatok vannak rá, hogy mindkettő elég jó, de legalábbis egyik sem jobb a másiknál. Én is ezt vallom.
De eleve felvetem, hogy hogyan is lehetne azt kijelenteni egyértelműen, hogy a GeForce driver jobb, ha egy játékot csak azért kellett kivennünk a tesztcsomagunkból, mert az NVIDIA a Keplerhez nem tudott megfelelő drivert írni hét teljes hónapig (és nem 20-30%-os deficitről volt szó, hanem felére vagy harmadára esett az fps, drivertől függően). Ilyet soha sem csináltunk, de most megtettük, mert nem akartuk, hogy a driver lehúzza az összesített teljesítményt. Ezt kellene mérlegelni. Azért nem olyan egyszerű egy játékot cserélni, főleg nem úgy, hogy ezekért pénzt adunk. -
Abu85
HÁZIGAZDA
A játszhatóságon lehet vitázni. Ebben a játékba az. De jellemző, hogy az AMD és az NV is 30 fps fölé helyezi a játszhatóságot.
Inkább te nem veszed észre, hogy amiről te beszélsz, az megvan a GeForce oldalon is. Bugok is vannak. A Dragon Age 2 szoftveres okok miatt egy évig nem ment hibátlanul GeForce driverrel. A teljesítményt két hónap alatt rendbe rakták, de szemeteltek az árnyékok és pályarészenként egyéb bugok voltak. Előhozol dolgokat az egyik oldalról, de teljesen figyelmen kívül hagyod, hogy a másik oldalon is vannak ugyanolyan problémák. Értem, hogy nagyon kevés technikai érvet lehet felhozni a Kepler mellett, hiszen talán soha nem volt ennyire jelentős eltérés a két konkurens architektúra között, de amit felhozol érv, az ugyanúgy felhozható más játékokkal a másik vonalon.
A Call of Juarez inkább specifikus ugrás volt mint általános. Ez a szokásos driverreszelés. Ilyeneket mindkét oldalon találsz, ahogy jönnek az újabbnál-újabb driverek. A történelemből kiindulva egy új generációs architektúrára többet lehet reszelni a driver frontján, mint egy már évek óta meglévő alapokra. Még nincs kint a 12.11 béta9, de további gyorsulást hoz. Amikor sok dolgot átírnak egy driverben, akkor arra az elkövetkező hónapokban lehet építeni. A 150-esre ForceWare-re épített a 180-as, a 8.3-asra későbbi érkeztek extrák, és ez alapján a 12.11 is csak egy kezdet, további gyorsulások várhatók, ha azt nézzük, hogy a múltban hasonló változások mellett mik történtek. Ugyanakkor ezek a gyorsulások inkább specifikusak lesznek.(#12890) N_A_S: A béta driver az béta driver mindkét oldalon. Valamennyire tesztelik őket, de nem teljesen. Ergo maradhatnak benne komolyabb hibák. Ugyanakkora lehetőség van arra, hogy hiba van egy béta Catalystben, mint egy béta GeForce driverben. Egyébként a 12.11 béta 8 eléggé jó, de a 8-as szám is jelzi, hogy a 4-esről volt pár verziónyi változás, amit a hibák javítása jelentett. Ergo itt is igaz, hogy a béta driver az béta driver.
-
Eléggé megközelítés kérdése:
az tök mindegy, hogy a BF3 mitől gyorsult, a tény az tény marad: 9 hónapig szoftveres okok miatt lassabb volt 30%-kal.
A software-es "ok"-ot ugye nevezhetjük drivernek, azt hiszem ez megállja a helyét. És ha nem feltétlenül negatív szemszögből nézed, akkor ugye mondhatjuk azt, hogy optimalizációnak köszönhetően 9 hónap után adott az illesztő egy 30%-os boost-ot. Mondjuk az a vicces, hogy Abunak felrovod a tények neki megfelelő pofozgatását, miközben neked erősen hasonló a hozzáállásod, csak a másik gyártó szemszögéből. Régebben mintha kicsit objektívebb lettél volna, de úgy látszik ennyire nagy a szerelem a 660ti-mal?
(#12890) N_A_S:
Ha visszaolvasol egy kicsit, akkor láthatod, hogy megy a szokásos. Az AMD-ről nV-re váltók szerint a Catalyst maga a pokol. Aztán vannak akik user error miatt szapulják a vörös oldalt. És van a csendes többség aki kussban és megelégedettséggel használja a terméket. Én nem mondok neked szentenciát, de ha a valóságban csak annyi probléma van driveres oldalon a 79xx-es szériával, mint amit az elmúlt 2 évben tapasztaltam az 5xxx és 6xxx vonalon (és párhuzamban mellette a 4xx-es és 5xx-es sorozatnál), akkor nem kell félned a válltástól. Ha nem vagy márka fanatikus, nem ivódott a véredbe egyik oldal (ugye jelen esetben a zöld part) imádata sem, akkor nyugodtan válts kedvedre. Ha nagyon nV a befutó nálad, akkor meg 680-as és jézus, aztán majd kiderül, hogy a 2013-as húzócímek fekszenek-e neki, vagy sem. Max eladod később és akkor váltasz.
-
SVLaller
senior tag
ja a szar AMD csak 30-35 fps-t tud, az NV mennyit is?
kijött egy driver ami sokat hozott a kártyákon, fúj szar AMD, mégis hogy képzelték ezt?
elég érdekes szemüvegen át nézed ezt a dolgot, ha valamiben gyengébb az AMD akkor azért szar ha valamiben jobb akkor meg azért. eléggé a sapka meg a nyúl esete. -
Abu85
HÁZIGAZDA
Akár két GPU-val is lehet dolgozni, de egy GPU-val kétségtelen, hogy csak a HD 7970 GHz Edition mellett játszható.
Csak nem látom a problémát. Egyik cég támogatása jobb a másiknál. Nagyon egy szinten mozognak. Ezzel felesleges igazolni egy döntést. Igazából nem is értem, hogy miért most merül ez fel. Utoljára GeForce FX idején volt ennyire bizonygatva, hogy márpedig az NV driver stabilabb. Ez jellemzően, akkor jön elő, amikor minden más érv elfogy. Ekkor be lehet dobni a mágikus jobb a driver mondatot, de igazolni sosem sikerül. Éppen ezért felesleges ezt az egészet minden nagyobb architekturális különbség mellett végigjátszani.
A 8.5 nem hozott 30-50% pluszt. Nekem akkor volt Radeonom, és jellemzően 5-15% pluszról volt szó, míg pár program esetén többről, de közelében sem volt a gyorsulás 30-50%-nak, mert akkor a 8800 GTX is verve lett volna. A 150-es sorozat is ilyen sebességelőnyt hozott, és a 12.11 is kb. ezt hozza. A 310-es béták ennél specifikusabbak. Azok nem gyorsítanak általánosan, csak pár program kapott boostot. Ezek megszokott dolgok.
A BF3-re nem gyúrt direkten a fejlesztés. A cél ahogy mindig is egy módosított driver az új generációs architektúrához. Az, hogy a BF3 ennyit gyorsult elsősorban az általános rutinok módosításának köszönhető.
A Dragon Age 2 sebességét gyorsan rendbe hozták, de egy évig tartott mire a képhibákat kigyomlálták. Ez azért nem nevezhető záros határidőnek. Emellett ott a Shogun 2 is. A Kepler folyamatos lassulásokkal küzd rajta. Elsősorban ezért került ki a program a tesztcsomagunkból, mert az egyik GeForce driverben jó volt a sebesség, míg a másikban fele olyan gyorsan futott. Ez hét hónapig tartott március óta, és nem tudtunk vele mit kezdeni. Azóta félünk visszarakni, mert háromszor javítva lett és el lett rontva, majd elvileg újra javítva lett a legutolsó driverben. Amúgy nem raktuk volna be az Anno 2070-et helyette, de úgy nincs sok értelme mérni, hogy a GTX 680 a középkategóriás VGA-k szintjén van az egyik driverben, és jól teljesít a másikban.
Van még pár hiba, amit évek óta nem javítanak. Elsősorban csak GeForce GTX 460-on (lehet, hogy a teljes 400 szérián előjön), mert az volt nálam sokáig. Az Aliens vs. Predatorban az ég textúrája számos pályán szellemképes. Stalker: Clear Sky alatt szemetel a háttér, ha a Sun Shadows aktiválva van. Az Age Of Empires 3-ban a van némi gigszer a leképzésnél a füsttel, illetve a Dirt 2-ben a távoli terep valamiért eltűnik időről-időre. Ezt akkor vettem észre, amikor egyszer a HD 5850-et visszaraktam és éppen játszottam a GeForce GTX 460 után. Ezek máig létező jelensége. Azért a Dirt 2-t nem rovom fel, mert állítólag programhiba, de az AVP és a Starker fejlesztői azt mondták, hogy tudnak róla, de nem náluk van a gond. Az AOE 3 fejlesztőit nyilván nehéz megtalálni. Nekik gyakorlatilag 2009-ben harangoztak, így ennél a jelenségnél véleményes, hogy hol van a hiba.
Úgy mond, hogy minden frankó a GeForce driverrel, hogy a fentieket végiggondolod.Az NV-nek maga a Dirt is fontos, hiszen baromi nagy brand. Nem véletlen, hogy ők is támogatják a fejlesztést. Attól, hogy valami TWIMTBP vagy Gaming Evolved még ott van legalább egy-két ember a másik cégtől is.
Ha marad a forward+ lighting, akkor maximum egy új hardver segíthet a különbségek letornászásában. -
Abu85
HÁZIGAZDA
Nézd, ha maxon, akarod futtatni, akkor ennyi kell. Nekem sem tetszik, de ez van.
Nem driverproblémáról beszélek! Sem az NV, sem az AMD oldalán. Ha alkalmazásra leszabott teljesítménynövelést akarsz látni, akkor egy-két driverig kell visszamenni csak. Például a mostani béta GeForce 310-es sorozat is hoz teljesítménynövelést pár cím alatt. Ha csak ezt keresed. És akkor ez most driverprobléma az NV oldalán? Szerintem ezt nagyon szélsőségesen fogod fel. Ezek szimpla optimalizálások. Évek óta csinálják az érintett cégek..
Nagyon nehéz belőni, hogy mik a csodadriverek. Lehet azt mondani, hogy a 150-es sorozat sem volt az, de az tette le az alapokat a 180-as driversorozatnak, ami a Big Bang II volt, némi extra boosttal. A 8.3 tette le a következő driverek alapjait, amik természetesen további teljesítménynövelést hoztak. Most a 12.11-gyel az alapoknál tartunk, amire nyilván épülnek még csiszolások a következő driverekben, további teljesítménynöveléssel esetleg. Ugyanakkor mindig az alapok lerakása jelentette a legnagyobb növekedést. Azután inkább specifikus boostok voltak.
Igen a HD 2900XT is késett. Viszont az egy felvásárlás után jött ki. Azzal együtt jár a strukturális átalakítás, ami cseppet sem teszi egyszerűvé a gördülékeny munkát. Konkrétan a Transmetától elhozott mérnökök is bekapcsolódtak a munkába, ami egyrészt jó, mert hozták a tapasztalatot, másrészt rossz, mert jellemzően egy összeszokott csoport hatékonyabban dolgozik. A G80 és a Fermi, illetve most a GCN idején ilyen nem volt. Ezzel a munka hatékonyabban ment, és a teljesen új architektúrára optimalizált driver is hamarabb jött.A DiRT Showdownhoz a megjelenés után nyáron érkezett egy olyan patch, ami változtatott a grafikus kódon. Ennek az általános optimalizálás mellett egyrészt a VPL-GI hozzáadása volt a célja, másrészt a Keplert februárban megkapták, így arra is lehetett 4 hónap alatt optimalizálást csinálni. Ezt meg is tették, mert a patch után mérhetően gyorsabb a VPL-GI nélküli grafika a Kepleren. A Codemasters nem akar itt mindenhatóként dönteni, egy ideje mindenből kihozzák a legjobbat. A Keplerben ezzel az renderrel ennyi van. Ez tisztán hardveres probléma, ha megnézed a videót, amit linkeltem, akkor elmagyarázza Gareth, hogy a kód nagyon "branchy" (a Q/A alatt kérdeznek rá, arra nem emlékszem, hogy mikor ... 33 után valamikor). Azt mondja, hogy a forward+ kifejezetten a Tahiti class (gyakorlatilag GCN) architektúrára szabott megoldás, és nem megy jól máson, amit látsz. Az a lényeg, hogy egy tradicionálisabb értelemben vett GPU-nak eddig nem kellett ilyen kódokat futtatnia. Egyszerűen nem illik ahhoz a felépítéshez, amit egy TeraScale, Fermi, Kepler GPU használ. Biztos halottad már azt az általános nézetet, hogy a GPU-k nagyon gyengén kezelik a feltételes elágazásokat. Egy tradicionális GPU multiprocesszor logikailag így néz ki: [link] - most a Keplert nem rajzolom le, de itt látható a GCN és a Barcelona CPU logikai felépítése. [link] - látható, hogy az LCU és a TCU elvi szintjéből adód különbségeket leszámítva mennyire hasonlítanak. Azt el lehet mondani, hogy a tradicionálisabb felépítésű GPU-k gyengék a branchy kódokban, de a GCN multiprocesszor inkább hasonlít egy széles vektormagokkal operáló RISC processzormaghoz, mint egy tradicionális GPU multiprocesszorhoz. Vagy, ha akarunk egy közelebbi példát, akkor ott a Larrabee/MIC. Logikai felépítésben ugyanezt az irányt követte/követi, leszámítva a felhasznált ISA-t. Gyakorlatilag ez a felépítés adja azt a compute hatékonyságot, amit látsz a programokban. A Codemasters igazából kapott egy nagyon branchy kódot az AMD-től, amit beépítettek. Ezt természetesen optimalizálták, mert hozzá kellett szabni az EGO motorhoz, de alapjaiban a kód nem változott. Itt jön az a probléma, amire a DirectX 11.1 adott egy megoldást a shader trace interfésszel. Ha megnézed a játékokat, akkor a felhasznált komplex compute shader kódok kivétel nélkül az AMD-től, vagy az NV-től származnak. Valamilyen szintig módosítják azokat, de az alapalgoritmuson nem változtatnak soha. A miértre az a válasz, hogy nem olyan egyszerű ezeket a komplex shadereket debugolni. Egy jól képzett programozó természetesen meg tudja tenni, hiszen valaki megírja ezeket a kódokat, de ezek a programozók az AMD-nek és az NV-nek dolgoznak. Ezzel nem azt akarom mondani, hogy az adott stúdió programozója hülye. Biztos meg tudnák egyénileg is oldani, de probléma, hogy a kiadónak időre kell a játék. Ha a megjelenésről van szó, akkor azt nem tolják el egy PC-s effektért. Az AMD-nek és az NV-nek sok ideje van, így komplett kódokkal tudják segíteni a fejlesztők munkáját. A shader trace interfész ebből a szempontból segítség, de még így is sok munka megírni vagy módosítani egy komplex compute kódot, és egy kész kódba egyszerűen nincs értelme alapjaiban beletúrni, mert kérdéses, hogy gyorsabb lesz-e. Az idő a legfőbb visszatartó erő. Ha nem bizonyosodott meg arról egy fejlesztő, hogy egy módosítás értékes előnyt hozhat, akkor nem fog belenyúlni a kódba. Esetleg annyit tesznek, hogy az AMD-nek vagy az NV-nek (vagyis a kód fejlesztőjének) szólnak, hogy nem-e tudnak rajta gyorsítani.
-
Abu85
HÁZIGAZDA
A 7970 GHz Editonön még játszható. Az alatt valóban nem, de ezért ilyen drága a kártya.
A Fermi mint hardver eleve 6 hónapot késett a tervezetthez képest. Ennyi idő alatt azért a driver fejlesztésénél nem áll le az élet. A G80 és az R600 esetében már látható a különbség. 6-9 hónapra rá jött egy driver, ami általánosan gyorsított a sebességükön. Az AMD-nél ez a 8.3-as volt, míg az NV-nél a 15x sorozat valamelyik tagja volt.
Szerinted eddig nem figyeltek oda? A kód nagyon jól optimalizált, de sok benne az elágazás. Ez innentől hardveres kérdés, hogy ebben az architektúra mennyire hatékony. A Codemastersre eleve nem jellemző, hogy rosszul optimalizálnak. Kifejezetten jó volt eddig az összes játékuk ebből a szempontból. És az NV-t sem helyezték háttérbe, mert a Gaming Evolved ellenére nagyon jól futott a Dirt 3 NV-n, és még a CSAA-ra is volt direkt implementáció. Ez itt nem odafigyelés kérdése, ha lehetne jobb, akkor a Dirt Showdown is jobban futna.
-
Abu85
HÁZIGAZDA
Annyi pedig. A Guru3D mérte le a Hitmant, de kikapcsolták az MSAA-t, és lejjebb vették az AF minőségét. Mivel mindkettő a shadereket terheli (előbbi DirectCompute-tal dönti el, hogy mi az, amit szűrni kell), így ezek a GCN-nek kedveznek. MSAA-val komolyabb a GeForce lemaradása. A HD 7950 és a HD 7870 között van, utóbbihoz közelebb. A Sleeping Dogs esetében az AA-t kell maximumra rakni, mert az ami compute shader. Ilyenkor van egy DirectCompute-os FXAA az alap felbontáson, egy SSAA 4x, és egy MLAA2.0 négyszeres felbontáson DirectCompute-tal. Utóbbi ami nagyobb különbséget szül a két architektúra között. Kimaxolva egy HD 7970 GHz Edition pontosan annyit tud minimum fps-ben, amennyit a GTX 680 átlagban teljesít. Nyilván ehhez az is hozzájárul, hogy a 12.11 egy jó 10%-os extrát hozott a Sleeping Dogs alatt is. Amit te nem látsz, az a 12.11-es driver előnye. Ez nem csak a BF3-ra volt jó, hanem gyakorlatilag mindenre, csak eltérő a gyorsulás programonként. Például a DiRT Showdownban is gyorsított úgy 5-6%-ot átlag.
A BF3-ban nem műveltek semmit. A 12.11-es driverben az optimalizálás nem a BF3-at célozta. Ez a megszokott frissítés volt egy radikálisan új architektúrához. Az NV-nek ilyet nem kellett csinálni, mert a Kepler alapjaiban azért nem különbözik sokban a Fermitől. A GCN sokkal-sokkal nagyobb eltérés az előző architektúrához képest. Eddig minden cég javított 6-9 hónapos távban a driveren a radikálisan új architektúráknál. Az, hogy ez a Frostbite 2 motort jobban érintette, mint a többit nyilván jó, de nem csak ezért csinálták.
Nem igazán értem, hogy a Grid 2 mitől lenne kedvezőbb, mint a Dirt Showdown. Esetleg gondolod, hogy az NVIDIA kérésére kiveszik a forward+ lighting fázist? Ezt megtehetik, csak azt nem szabad elfelejteni, hogy a Codemasters az EGO fejlesztésénél elvetette a deferred render irányt, így ha kiveszik, akkor marad a sima forward render, ami elég kevés ma már. Ha arra benyomnak annyi pontfényforrást, mint amennyit a forward+ lighting fázissal használnak, akkor jó lesz a grafika, de kapnak 4-6 fps-t a csúcs-GPU-kon. Túl késő van ma már visszakozni. De csak logikusan átgondolva azt, hogy Gareth Thomas mit mondott az AFDS 2012-n nem gondolom, hogy a Codemasters letérne a compute shadert erősítő útról. De ezt akár te is megnézheted: [link] - ha figyelsz, akkor pont arról beszél, hogy hol lehetne még hasznosítani.
-
Abu85
HÁZIGAZDA
A Hitman Absolutionben sem sokkal gyorsabb a HD 7870-nél a GTX 680, de ez igaz a Sleeping Dogsra is, a HD 7950 mindkét programban gyorsabb a GTX 680-nél. A DiRT Showdown az azért mutat ennyire nagy különbséget, mert a felhasznált render radikálisan új, és egyesíti a forward és a deferred render legjobb tulajdonságait. Ennél lesznek még nagyobb különbségek is. A DiRT Showdown az megfelel a Tomb Raider AOD-nek, ami anno először mutatta meg, hogy az FX nem bírja a DX9-et. A Half-Life 2-ben nagyobbak voltak az eltérések, mert több SM2-s kódot használt a motor. A Kepler esetében a DirectCompute, ami nem kedvelt. Például az Unreal Engine 4 által használt renderfutószalag nagy része DirectCompute-ban van írva. Ez az első olyan motor, ahol a fejlesztők ilyen megoldáshoz folyamodtak, de a DirectX iránya ezt tartja célszerűnek, és logikus is természetesen.
Egy új generációs architektúránál már említettem, hogy mindig van egy 6-9 hónapos eltérés az első érdemben erre tervezett driverhez képest. Ez az NV-nél is így volt mindig. Ez az új generáció böjtje, nem mindegy, hogy az alaparchitektúrára a megjelenés előtt már 2-3 éve dolgoznak, vagy csak 4-6 hónapja. Nem tudsz olyat mondani, amikor egy radikálisan új architektúra nem kapott volna 6-9 hónappal később után egy általánosan gyorsító drivert. De igazából érdekes maga a kérdés is. Tulajdonképpen azt rójuk fel az AMD-nek, hogy 10-30%-ot gyorsított a GCN-en játéktól függően? Logikus, hogy kiaknázzák a tartalékokat.
A BF3-ból pedig a megjelenésre sok mindent kivettek. Repi volt az első ember, akinek elmondták, hogy ne erőltesd annyira a compute-ot, mert visszalép az NV ezen a területen. Ez látszik a motoron. Az előadásokon taglalt komplex AA eltűnt, kikerült a játékból a HDAO, és a conservative depth buffer optimalizálást sem kapta meg a PC-s port (utóbbi valszeg csak időhiány volt, mert a MoH: Warfighter már megkapta a frissített motorral). Nem tudom, hogy hogyan oldották meg, de nyilván ha tervezel egy motort, ami alapvetően a compute shaderre épít, akkor nem az lesz a legkellemesebb hír, hogy harmadára csökkentette az egyik cég az új generációs termék LDS tempóját, ezzel gyakorlatilag ebből a szempontból nincs gyengébb architektúra a Keplernél a piacon. Valahol logikus, hogy kikerülnek tervezett compute shader effektek. Félő, hogy nem bírta volna a Kepler, és mivel nem lehetett kipróbálni, így maradt a biztonsági játék. Ez nyilván tök érthető. Én is így döntöttem volna, ha nem tudom előre tesztelni. Ugye a Frostbite 2 abból a szempontból problémás motor, hogy a rendszer működése függ a compute shadertől, tehát nem egy kikapcsolható effekt. Ezt így annyira Kepler barátra kell tervezni, amennyire lehet, mert nem tudod kikapcsolni. A DiRT Showdown jóval egyszerűbb. Ott szimplán inaktiválható az egész forward+ fázis. A rendszer ettől még működőképes marad csak gyengébb grafikával.
A Grid 2 nem fog szarabbul futni, mint a DiRT Showdown, de nyilván jobban sem, hiszen nincs hol javítani rajta. A hardver okozza az eltérést nem az optimalizálás.Itt az a nagy kérdés, hogy a független tesztek ezekről miért nem írnak? Mi az amiért ez nem jön elő általánosan? Nálam sincsenek azok, amikről TTomax beszámolt. Logikusan én tényleg csak a tuningra tudok gondolni, mert az valóban nem jól támogatott a 3rd party programok oldaláról.
Mindenképpen kompromisszumot kötsz, amikor eldöntöd, hogy Radeont vagy GeForce-ot veszel. A különbség, hogy máshol kötöd meg azt. Ma már nincs ultimate jó döntés, hacsak nem számítjuk, hogy két PC-t tartasz fent. Egyet Radeonnal és egyet GeForce-szal, de ez szvsz irreális.
-
Abu85
HÁZIGAZDA
A CUDA támogatása egy konkurens cégnek reverse engineering nélkül értelmetlen. Az OpenCL már most jobban el van terjedve a konzumer szinten. Nincs ok beállni az NVIDIA mögé. Most már nincs, mert a CUDA-ban úgy senki sem lát jövőt, hogy az alkalmazással csak a piac 15%-a célozható meg. És ez a szám csökken az IGP-k és a mobil irány előretörésével. Az Apple is teljesen kiszámíthatatlan. Ott még volt logika a CUDA mellett, de annyiszor változtatják a GPU-t, hogy inkább OpenCL-re álltak át ott is a fejlesztők. A PhysX sosem számított alternatívának. Az mindig is egy mézesmadzag volt a CUDA-hoz. Semmi több. Jobb fizikát látunk számos Havok játékban és GPU-s gyorsítás nélkül. Itt mindig is az volt a cél, hogy a CUDA-hoz támogatókat találjon az NVIDIA, mert nem akarták kukázni. Mivel máig nincs támogató, így a rendszer gyakorlatilag a HPC-piacra korlátozódott. A CUDA 5 fejlesztései is erre koncentrálnak, illetve "extra" még az OpenCL támogatás leépítése, de ez az utolsó kísérlet arra, hogy az OpenCL terjedését lassítsák lesz, ami lesz alapon. Ez azonban nagyon nem történik meg.
Mindkét architektúra tud olyan, amit a másik nem. Az, hogy a Radeon ezt a technikai fejlettséggel, az NVIDIA pedig a zárt technológiákkal éri el, lényegében mindegy.
Az, hogy ma valaki Radeont vesz megmagyarázható. Olcsó, nagyon gyors, jövőbiztos és a GCN architektúra technológiailag a Kepler előtt jár. De ez csak a techjunki része. Valójában sokkal többet számít, hogy a játékok elején kinek a logója villan fel. Ebből él még ma is az NVIDIA, az AMD 2012-ben többszörözte meg a Gaming Evolvedre fordított pénzt, így idén már a Gaming Evolved logót látják a felhasználók a játékok elején (2013-ban is, de erről majd később, mindenesetre eddig két AAA címről tudok, ami TWIMTBP, de kilencről, ami Gaming Evolved, persze itt ismét meg kell jegyezni, hogy az NVIDIA az AAA címek helyett inkább az F2P és MMO játékokra koncentrál, szóval ott meg pont fordított a felállás, ez a stratégiai eltérés úgy néz ki, hogy állandósul). A lényeges különbség az eladásoknál ebből lesz, mert az átlag júzer nem tudja, hogy mi az a PhysX vagy DirectX. Az NVIDIA-nak volt egy felmérése, hogy a felhasználóik 80%-a azt sem tudja, hogy a játékok grafikáját lehet állítani az options menüben. Ez eléggé látható képet ad arról, hogy a vásárlóbázist, hogyan kell megközelíteni.
-
Nem, az értelmetlen, hogy egy az nV által zárttá tett rendszer hiányát az AMD-n kéred számon...
"azért ehhez az is hozzátartozik, hogy annak semmi akadálya nem lenne, hogy az AMD is támogassa a physx-et"
Én leírta, az akadályokat:
"Mondjuk licenszdij, szerzodez, betagozodas az nV moge. Csak par aprosag, vegulis.."
Szerk: Nem értetted a "betagozódást". Mondjuk gondolj arra, hogy egy olyan rendszert kell hardware-esen támogatnod a termékeidben, melynek fejlesztési irányába semmiféle beleszólásod sincs. Ha ezek után nem látszanak a "csöppnyi" akadályok, az AMD általi fosix támogatásával kapcsolatban... akkor ott bajok vannak-Erre megkaptam, hogy még én értetlenkedek...
Szerintem valamit elnéztél...
-
peterm711
aktív tag
-
Varázslóó
senior tag
Ilyen minőségben kiadni PC re a játékot.... nem korszakalkotó emberre vall...
előttem leírta magát... majd ha Doom 3 hoz hasonlót lerak mint Doom 4 et... akkor elfelejthető
De egy ember hibázik az nem lényeg... ha egy ilyen nagy nevű ember hibázik... az megmarad a történelembe.... még amikkel pocskondiázza a médiát.... sok szöveg ... hogy a konzolok milyen jók.... konzoloknak USA ba van jövője... ott van a sok buta ember... akinek meg is felel
itt Német be is legtöbb embernek Media Markt os a gépe... -
ÁdiBá
veterán
Értem. Nekem tesztekben, az jött le hogy a Radeon Crontrol Hub memóriavezérlés kivitelezésben a leghatékonyabb a piacon. Míg az nvidia egy elég öreg CrossBar-t használnál még amibe picit alakítgat generációként. De a felépítés még mindig ugyan évről évre.
De mindenesetre túl sok jelentősége nincs a dolognak.
Vagyis jelenleg láthatjuk hogy 256Bit is bőven tud elég lenni, mindenhova ha jól kivan találva. -
ÁdiBá
veterán
De memóriavezérlésben az AMD hatékonyabb mint az nvidia.
Persze ennek igazából akkor van nagy jelentősége mikor extrém magas felbontáson szeretnél játszani, illetve nem aprózod el a látvány javításokat sem.
Ettől függetlenül nem előny a nagyon nagy sávszélesség ha a programok jelentős százaléka átlag felhasználók által használt HD, FullHD-ban nem használják ki. -
-
-
-
Sz.Miki
őstag
Most játszottam párommal 2.5 órát Metro 2033-al minden grafikai beállítás ultrán 1920X1200 Vsync kikapcsolva gyönyörűen ment villódzás nélkül.
Kilépás után rögtön elindítok egy Heaven 3.0-át és villódzik persze azokkal a beállításokkal amit belinkeltem.
Heaven 2.5 ugyan ezekkel a beállításokkal hibátlan.Most 12.6 driver van fent, bf3-mal is játszottam ma 1.5 órát és hibátlanul ment. Nem lehet a kártya rossza ha ilyen GPU és Vram éhes játékok nem produkálják a hibát. A hőmérsékletekért aggódókat megnyugtassam ennyi metrózás után 79C volt a kártya, rögtön játékból kilépés után.
Kilépés után 5 perccel 49C
-
Sz.Miki
őstag
Végigjátszottam minden variációt!
Friss rendszer telepítés után:
12.6 driver Heaven benchmark 3.0 produkálja
12.4 driver Heaven benchmark 3.0 hibátlanul fut
12.6 driver Heaven benchmark 2.5 hibátlanul fut
12.4 driver Heaven benchmark 2.5 hibátlanul fut
3dmark11 xtreme teszt mindegyik driverrel hibátlan.
Battelfield 3 12.4 teszt ok, 12.6 változó időnként (ez mindig betöltés után derül ki) hibázik ha betöltés után nincs hiba akkor következő pályabetöltésig garantáltan hibamentes.
Próbáltam nagy minden hűtő maxra téve 67C fokon max terhelésnél az eredmények változatlanok. Próbálkoztam kis fesz emeléssel semmi változás.
Egyenlőre marad így minden és majd kiderül, hogy tényleg hardver avagy szoftwer. Van még 2.5 év garim.
Jobban is el tudtam volna képzelni a vasárnap délutánom
Köszönöm az infókat mindenkinek.
-
Abu85
HÁZIGAZDA
Olyan van. Az UVD 3.2 képes erre. Ellenben csak egy órajel állítható be. Vagy ~500 MHz, vagy ~1000 MHz. Az UVD-t nem kapcsolhatja ki a driver, ha egy folyamat kéri az erőforrást. Ha kikapcsolja, akkor a folyamatot meg kell szüntetni. Ez azt eredményezi, hogy a böngészőt újra kell indítani és a Flash tartalmat újra be kell tölteni.
Mondom vagy ez, vagy 10-15 másodperces órajelváltás, és akkor GeForce-hoz mérhető üzemidő.
Mobilhoz lehet külön drivert fejleszteni, de a hardvert az egyik megoldásra kell felkészíteni. Ha két megoldást építesz be, akkor külön lapkát kell tervezni mobilba.(#7924) Löncsi: Nem. Az NV-nél más az órajel szabályzása. Ha váltás történik, akkor az adott órajel nem változhat meg több másodpercig. Az NV a videókhoz ugyanúgy használ egy köztes órajelet, de ez felfelé változhat, lefelé viszont nem. Nem jól tudod. Az órajel az azonos minden egységnél. Két órajelhez két órajelgenerátor kell, és az órajelelosztó hálózat is bonyolult lesz és sok esetben instabil is. Az NV ezért tért le a külön shader- és magórajel ösvényéről. A Fermiben ezt már összevonták, de a ott rengeteg volt a csúszás, jobb az egységes magórajel. Lehetőleg nem túl magas, mert el kell juttatni az órajelet tranzisztorok milliárdjaihoz.
(#7925) Zoli54213: Nem kell ott kikapcsolni. Betöltesz egy youtube videót, jobbklikkel settings és pipa ki az enable hardware acceleration elől. Ez vonatkozik a stage videóra. A Canvas, WebGL, WebCL nem lényeg, mert nem használ UVD-t.
(#7926) Pietrosz: A legtöbb online streaming TV nem használja a stage video futószalagot a Flashből. Szóval ezek nem veszélyeztetettek. A Youtube esetén azért jön elő, mert stage video futószalagot használ, de a Flash működik enélkül is. Az oldal üzemeltetője dönti el, hogy aktiválja-e. Ha nem teszik meg, akkor szintén nincs használva az UVD.
De ha zavar, akkor már írtam, hogy betöltesz egy youtube videót, jobbklikkel settings és pipa ki az enable hardware acceleration elől.(#7929) TTomax: Nem hülye, aki egyszerre néz Youtube videót és közben játszik, csak számomra logikátlan, mert az egyiket nem látod, de lehet, hogy van erre igény.
A videó attól, hogy lefut, még továbbra is betöltve marad. Meg kell szüntetni a hardver felé az erőforrás igényét, mert a driver nem tudja, hogy a videó az most hol tart. Az csak egy igényt lát, aminek eleget kell tenni. Egyébként ha kilépsz, akkor bármikor visszamegy az órajel 3D-re. Ha legközelebb betöltöd a youtube-ot, akkor újra lezár, majd megnézed, és újra kilépsz. Vagy, ha zavar, akkor annyiszor leírtam már, hogy a youtube-on, jobbklikkel settings és pipa ki az enable hardware acceleration elől. Ezután nem nyúl az UVD-hez a stage videó, tehát hangsúlyozom, hogy van megoldás a gondodra, ha ennyire speciálisak az igényeid. -
Abu85
HÁZIGAZDA
Muszáj ezt választaniuk. A zárás az egyik oka annak, hogy 100 ms-on belül órajelet válthat a hardver, mert az UVD nem fog instabilan működni az órajel ugrása nélkül. Például az egyik ok, amiért az NV-nek másodperceket vár a váltással, az, hogy nem zárják a VP hardver órajelét. Ezt a weben gyorsított tartalmak növelésével 20 másodpercről le kellett vinni, ami meg hozta maga után ezt - [link]. Hosszútávon az AMD döntött jól ezzel, mert nem kell aggódniuk a webes üzemidő visszaesése miatt. Nyilván a mobil a legfontosabb manapság. Cserébe, ha játszol, akkor be kell zárnod a youtube fület. NV-nél nincs ilyen limitáció, viszont 10-15 másodpercig nem válthat órajelt a hardver. Nyilván a Youtube-on ez is beáll a saját köztes órajelére, de ami gondot jelent az az idle. Sokszor ugrik az órajel web alatt, még akkor is, ha nem kell, de a hardver nem tudja előre, hogy egy feladat mennyire fog terhelni. Ha nem terhel, akkor az AMD ezt 100 ms-os extra fogyasztással megússza, míg az NV-n 10-15 másodpercig fogyaszt többet a hardver. Nem mindegy az üzemidő szempontjából.
Egyébként az UVD 3.2 már bír 1 GHz-es órajelet, csak az AMD nem azt állítja be UVD-re, mert nem tekintik reális felhasználásnak, hogy a user ugyanazon a kijelzőn egyszerre néz youtube videót, és egyszerre játszik. Szerintem sem az, de nyilván vannak extrém igények.(#7898) Colos1: Az UVD nem tud 500 MHz fölött működni. Az UVD 3.2 tud, de nem állítják be, mert 1 GHz az többet fogyaszt, mint 500 MHz.
-
Varázslóó
senior tag
Skyrim moddolva 2.1GB Vramot eszik Tirexi szerint
Arról nem is beszélve. egy Crysis 2 megeszi a 1.8GB Vramot is.... full HD ba....
Most ha nem GTX680 at hanem 6970 nézzük 2GB al... ág és föld hogy van + Vram oda komoly 384bites szávszélel ! Ami igen drága.... AMD nek meg nem kéne csökkentenie
Mert GPU ba hiába erősebb a 680 , ha űrban legyártása... 40ezer forint az AMD nek meg komolyabb minőségibb cuccal 65ezer
Nvidia mindig is spórolt a Vram al .... miután 8800 as olyan drága lett...
640 - 768 - 1024 - 1240 - 1540 stb most nagy nehezen kiadtak 2GB tot ...
de mindig GPU számításra mentek , ellentétben az ATi val.... Vram mindenképpen jó ha van.
és nem máshonnan megy el. Tény erős lett as 680 de közel se éri meg az árát...
Főleg hogy egy 3GB 384 biteset is kiadnak majd 200ezres induló árralami majd kicsit gyorsabb lesz mint 7970 en...
1évvel rá
sorry az offért
-
Cybertrone
veterán
Nem mindenki FHD-ban tolja, és annak nem felesleges... azt hittem ezt pont neked nem kell magyarázni... 3 monitornál vagy 2560-ban ugyan had ne legyen már felesleges, és had ne kelljen már kicentizni
A fogyasztás meg szubjektív... megint ott tartunk hogy 140k-s vga-ra van pénz +30w-tól meg csódbe megy a háztartás
Attix82:
A mem használatot nem lehet mérni... KB 15* le lett írva hogy az AB tippel... mutat sok mindent cf esetén 5-gb+-ot is... ez messze áll a valóságtól, de az bőven elég hogy 580 sli-vel a gépbe minden csutkán a win kilőtte az aerot, mert nem maradt vram rá... az 1.5gb-nál volt, mi a garancia hogy 2 gb-nál nincsAmúgy a vantól nem kell félni, és inkább vagyok nyugodt, mint spekulálok vajon ha ezt még beállítom elbírja
-
Cybertrone
veterán
Mi lenne ha befejeznénk itt a vitát, és mennétek a 680 topikba átnyálazni mihez is elég a 2gb
Had legyünk itt el a szar 7970-es/50-es kártyákkal békességben, és szánakozzunk hogy nekünk csak ez jutott
helkis:
HAHAÉn nem látok benne fantáziát, előbb egy normális vrm-et tegyenek rá, ergó a ref nálam nem bejövős! Plusz nekem pont nincs mitől félni...
-
MPowerPH
félisten
Persze, ez világos, a három monitoros üzemmód alapból cpu intenzívebb. Na de egy 60X alapból is magas órajelen ketyeg. Egyébként nem is ezen van a hangsúly, a 2700K is ugyan úgy kihajtaná ezt az összeállítást. Az a plusz két mag kevés esetben tud érvényesülni.
Egyébként jó az eszmefuttatásod.
mod: De arra a 4.8GHz-re továbbra is kíváncsi lennék. Egy pöppet hihetetlennek tűnik, és nem csak a cpu miatt, hanem a user miatt.
-
MPowerPH
félisten
Pfú, ez érdekes.
Őszintén mondom, ez nekem kimaradt. Akkor ezek szerint a Tahiti -t egy első generációs Fermi-hez lehet hasonlítani? Második gen.-ben mire lehet számítani?
Azért valami alapján csak kiválasztják a 7950-re kerülő chippeket?! Mert az világos, hogy lecsonkítják, de ezt találomra teszik, vagy van valamilyen rendszere?
Új hozzászólás Aktív témák
Hirdetés
- Nintendo Switch 2
- Gumi és felni topik
- DOOM - The Dark Ages
- Fujifilm X
- 3D nyomtatás
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- LED világítás a lakásban
- Egy szenzor, két zoomkamera: újraírta a Huawei a mobilfotózás történetét
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- További aktív témák...
- Azonnali készpénzes félkonfig / félgép felvásárlás személyesen / csomagküldéssel korrekt áron
- Amazon Kindle 10th Generation ébresztős tok
- Magyarország piacvezető szoftver webáruháza
- ÁRGARANCIA!Épített KomPhone i3 10105F 16/32/64GB RAM RTX 3050 6GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! ASUS H170M i7 6700 16GB DDR4 512GB SSD GTX 1660 Ti 6GB KOLINK Observatory Lite TT 500W
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged