Hirdetés

2024. április 24., szerda

Gyorskeresés

Hozzászólások

(#1) tailor74


tailor74
őstag

Végre valaki számomra is érthetően ( :B ), logikusan levezette ezt a sok x,y változós témát...
Köszönöm szépen az írást... :)

Az én következtetésem ezek alapján az, hogy optimális esetben a 290X utólérheti a 980-at, rossz esetben meg semmi változás...
Ugyanakkor, ha a 380X egy órajeleiben megspékelt 290X lesz, ráadásul fejlettebb GCN-el, és fennáll az optimális eset, akkor az akár rá is verhet kicsit a 980-ra... Így akár az is jó választás lehet a piros oldalról, főleg emberi áron...
Tudom, sok a ha... :) , na meg aztán jövőre jön a Pascal is...

Még egyszer köszi, érdekes volt..

Aminek kerekei, vagy mellei vannak, azzal előbb-utóbb gond lesz.

(#2) proci985


proci985
MODERÁTOR
LOGOUT blog (1)

egy apro megjegyzes: a Maxwell tartja a power targetjet, tehat a Hawaii 300+Wos fogyasztasat nem fogja elerni. vissza fog venni az orajelebol (a "ref" 970 biztosan declockol mar most is a 145Wos hatar miatt), kerdes mennyit, de a 290x uber modjaban / gyari OC kartyaival megfigyelt 300+W max OC kartyakkal fog bekovetkezni.

pl a 970 G1 alapbol 200W korul eszik (meg 20%al boostol a default boost fole jatek alatt), 250 a power targetje szoval amig meg van hutve addig eljuthat a 290 kornyekere. leghutok kozul is nagyon keves birja el a 300Wot a 84fokos declock hatar alatt.

plusz meg egy aprosag: ha 16:9re / 1080pre optimizalnak, akkor surround/eyefinity // 4Kban lehetnek meg vicces dolgok.

[ Szerkesztve ]

Don't dream it, be it. // Lagom amount.

(#3) Laja333


Laja333
őstag

Star Swarm DX12 mérésnél mérték a 980-at. Elég látványosan megnőtt az étvágya, mondhatni beérte a 290x-et.

(#4) gbors válasza proci985 (#2) üzenetére


gbors
nagyúr

Igen, ez jogos, ezt egy kicsit jobban kifejtettem :R

(#3) Laja333: nem nőtt meg az étvágya, sőt, kevesebbet fogyasztott a gép, mint a Crysis 3-mal. A 290X étvágya csökkent le - ami nem meglepő annak tükrében, hogy a 980 50%-kal gyorsabb volt.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#5) Loha


Loha
veterán

Remek írás! :R

Eddig ez a driverben megoldható volt, és a gyártó saját hatáskörben megcsinálta, míg most minden egyes motorban külön le kell programozni.

Azt honnan tudjuk, hogy a drivernek kisebb szerepe lesz DX12-ben, mint amilyen jelenleg DX11-ben van?

Mert számomra csak annyi látszik, hogy az eddigi Kernel és User Mode Driver helyett, csak User Mode -ban fog futni a VGA driver, viszont egy szál helyett több szálon, tehát akár több CPU erőforrás is rendelkezésére állhat. Azt kizártnak tartom, hogy a jövőben majd a játékfejlesztők fogják azokat GPU specifikus optimalizációkat elvégezni, amiket most a VGA driver végez.

(#6) gbors válasza Loha (#5) üzenetére


gbors
nagyúr

Köszi :)

Azért gondolom, hogy kevesebb szerepe lesz a drivernek (sokkal), mert:
Az összes korábbi DX fekete dobozként működött. Fejlesztőként beledobáltad a mesh-t, a textúrákat, a shadereket, meg még nemtommit, és a végén kijött egy képkocka. Minimális ráhatásod volt (van), hogy hogyan történik az egyes feladatok ütemezése, az adatátadás, stb. Driveres ráhatással egy adott programnál jelentősen át lehetett variálni, hogy mi történik, anélkül, hogy a programod tudott volna róla.
Ha jól értem, akkor az új API-k ennek a kontrollnak a nagy részét átadják a programnak. Lesznek standard adatstruktúrák, talán valami vázlatos pipeline is (bár jobb lenne, ha ez minél vékonyabb maradna), ill. shader-fordítás - és akár ki is fújt. Itt a driver a shader-fordításba valóban bele tud szólni (tehát a shader-cserebere továbbra is opció lehet), de az egész műsor levezénylése a program feladata.

(#1) tailor74: Örülök, ha érdekes volt :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#7) letepem


letepem
aktív tag

Nekem szimplán az lenne a kérdésem, hogy az AMD miért nem ír olyan utilizációt (vagy nem tud?) mint az nV? Hisz hardverben erősebb vagy csak kevésbé programozható (ellentmondás)? Miért nem ír olyan agresszív szálkezelést az AMD, mint a vidia, ha látja hogy eredményekben az kifizetődő?

Grat a cikkhez, korrekt, összeszedett! :C

[ Szerkesztve ]

látok, hallok, érzek és gondolkodom.

(#8) gbors válasza letepem (#7) üzenetére


gbors
nagyúr

Köszi :)

Igen, a nagy kérdés, hogy miért ennyivel gyengébb a GCN utilizációja DX11 alatt. A kutya valahol az ALU-blokkok felépítésében lehet elásva, de pontosabbat nem tudok (és a neten sem sikerült erről semmit találnom).

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#9) Loha válasza gbors (#6) üzenetére


Loha
veterán

Igen, a fejlesztőknek sokkal nagyobb kontrollja lesz a saját programjuk felett, de ugyan akkor a driveres optimalizációs lehetőségek sem csökkennek, tehát amit esetleg a fejlesztők elmulasztanak, azt a driver még bepótolhatja.

[ Szerkesztve ]

(#10) gbors válasza Loha (#9) üzenetére


gbors
nagyúr

A drivernek csak pár belépési pontja lesz a javításhoz (konkrétan kettőt látok, a draw callok elkapása és a shaderek cseréje), ez szerintem messze van attól, amire a DX11-ben lehetőség volt.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

Copyright © 2000-2024 PROHARDVER Informatikai Kft.