Hirdetés

2024. május 8., szerda

Gyorskeresés

Hozzászólások

(#14751) gbors válasza Abu85 (#14748) üzenetére


gbors
nagyúr

Tehát akkor régi, ócska, minekfoglalkozzunkvele - de azért egy aszinkron compute beficcent. Ennek semmi értelme, akkor a francért nem kapta meg az AMD is a single engine render pathot, és nem kellene hosszú bekezdéseket írogatnunk róla :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14752) Laja333 válasza gbors (#14747) üzenetére


Laja333
őstag

Ez miért van? :F

[ Szerkesztve ]

(#14753) #35434496 válasza Laja333 (#14752) üzenetére


#35434496
törölt tag

1366x768? :D

(#14754) Laja333 válasza #35434496 (#14753) üzenetére


Laja333
őstag

ha az van oda írva...

(#14755) #85552128 válasza #35434496 (#14750) üzenetére


#85552128
törölt tag

Ilyen azért még DX11-ben sem volt :C

(#14756) Abu85 válasza gbors (#14751) üzenetére


Abu85
HÁZIGAZDA

Az aszinkron compute implementálása egyáltalán nem nehéz. Mivel a DX12 eleve multiengine API, így csak az a lényeg, hogy jó helyre töltsd a futószalagokat és jókor indítsd el. Nagyjából két napos meló egy single-engine korlátozás mellett. Persze el lehet rontani, de ettől nagyon gyorsan meg lehet csinálni. A aszinkron compute ott válik nehézzé, amikor olyat kell írnod, hogy minden architektúrán működjön valamennyire, és ne rontsa a teljesítményt túlságosan. De ezt nagyon kevesen vállalják majd be, legalábbis innen az látszik.

(#14752) Laja333: Ilyen azért lehet, mert amikor meghoztak bizonyos döntéseket a motorban, akkor a DX12-t helyezték előtérbe, így jó eséllyel a DX11-ben a szinkronizáció el van túlozva, vagy eleve nincs is jól optimalizálva. Sajnos nem lehet olyan döntéseket hozni, ami mindkét API-hoz tökéletesen igazodik.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14757) gbors válasza Laja333 (#14752) üzenetére


gbors
nagyúr

Hát, ahogy Abu is mondja, meghoztak bizonyos döntéseket a motorban. Tehát korántsem arról van szó, hogy az AMD drivere CPU-használat fronton hajlamos lemenni a béka segge alá ;] Az pedig, hogy a GTX 980Ti egy kétmagos CPU-val annyi FPS-t hoz, mint a Fury X hatmagossal, az végképp nem releváns. Wait...

(#14756) Abu85: facts beg to disagree - nekik azért szabad, ugye? ;)

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14758) Abu85 válasza gbors (#14757) üzenetére


Abu85
HÁZIGAZDA

Ugyanazt a sormintát mutatja a GTX 980 Ti csak más teljesítménnyel. A teljesítményeltérés pedig abból jön, hogy az NVIDIA a parancsmotorjába épített bizonyos fast path-okat, hogy gyorsabban dolgozza fel az egyes parancsokat DX11-ben. A DX12-ben ezek mennek a kukába, mert az OS-hez került a vezérlés, és az nem tölti már be a parancsokat a speciális parancsutakhoz, hanem használja az alapértelmezettet.

Ott van például a multidraw indirect is, mint gyártói kiegészítés, aminél szintén nem használhatók a speciális parancsutak, és DX11 alatt is erősebb a Radeon. Ilyen motor a Far Cry Primalhoz készült Dunia, az új Hitman Glacier frissítése, az új Frostbite. Persze ezekben a motorokban eleve nincs is ezekre szükség.

Az ultimate megoldás az egész nagy problémára a DX12-be épített executeindirect. Nagyrészt emiatt vette el az MS a fő parancsmotor vezérlését a gyártóktól. Persze ezzel megöltek pár innovációs lehetőséget, de az eleve csak tördelte volna a piacot.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14759) Laja333 válasza gbors (#14757) üzenetére


Laja333
őstag

Jó, de egy Fury X 6 magos teljesítményét egy Fury X 2 magos teljesítménye is alázza. Wait, what? :F

(#14760) #85552128 válasza Laja333 (#14759) üzenetére


#85552128
törölt tag

Valamelyik tesztben majdnem 100%-ot gyorsult DX11-hez képest, na az a nem semmi :))

[ Szerkesztve ]

(#14761) Abu85 válasza Laja333 (#14759) üzenetére


Abu85
HÁZIGAZDA

Csak kevesebbet gyorsul a kevesebb mag miatt. A többi probléma a motorból származik. Ezt a játékot nem DX11-re tervezték elsődlegesen.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14762) gbors válasza Abu85 (#14758) üzenetére


gbors
nagyúr

Ja, ja, ugyanaz, "csak". Kevés mag mellett "csak" 50%-kal "más" a teljesítmény, több mag mellett pedig "csak" 100%-kal. Említésre is alig méltó, right? ;)
Teljesen mindegy, mit dob ki a magyarázatgyártó gép, ezen a téren trehány volt az AMD, és jópár játékban nVidiával jobb a játékélmény. Hogy erre az AMD megoldása nem a DX11 driver optimalizálása, hanem a DX12, az nekem teljesen OK - ennek viszont sajna van egy "kevés" átfutása. Tudod, egy csomóan itt még mindig ma játszunk, nem holnapután :)

(#14759) Laja333: azok nem FPS-ek, hanem a DX11-es path relatív teljesítménye a DX12-eshez adott CPU mellett. Gyorsabb CPU-val nagyobb a gap a DX12 javára.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14763) Laja333 válasza gbors (#14762) üzenetére


Laja333
őstag

:B

(#14764) velizare válasza gbors (#14762) üzenetére


velizare
nagyúr

lelőtted a poént... :((( :(

[ Szerkesztve ]

Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.

(#14765) Abu85 válasza gbors (#14762) üzenetére


Abu85
HÁZIGAZDA

A DX12 csak az ultimate megoldás. A DX11-ben is vannak megoldások, mint a multidraw indirect, amit ma már egyre több játék használ. Az újak közül szinten mind. De azzal a terheléssel, ahol ez probléma ott már átmennek a fejlesztők DX12-re, mert a DX11 nem alkalmas a feladatra. Az API-t 2000 batch-re tervezték, és nagyon nem alkalmas arra, hogy 10000-15000 batch átmenjen képkockánként. Természetesen lehet rá tervezni meghajtóprofilt, mert vannak specifikus megoldások, de ha van a programnak egy DX12-es módja, akkor mi a fenének? Úgysem a DX11-es módot fogja használni a felhasználó. Vulkan opció is lesz, ha valaki nem akar Windows 10-re váltani. Az AMD-nek még Mantle mód is van, innentől kezdve mi értelme van nekik a DX11-es módba erőforrást ölni? Ki fogja azt használni a tesztelőkön kívül?

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14766) korcsi válasza Laja333 (#14759) üzenetére


korcsi
veterán

Hol? Megelőztek!

[ Szerkesztve ]

referencia 5700(XT) plexi ARGB-s blokk eladó!

(#14767) Malibutomi


Malibutomi
nagyúr

Lehet hulyeseg de nem kellene egy API/driver/optimalizacio topic?

(#14768) gbors válasza Abu85 (#14765) üzenetére


gbors
nagyúr

Mikor? :) Még mindig nagyon kevés a jelenidő a hsz-edben...

(#14767) Malibutomi: hosszabb távon lehet, egyelőre elfér itt sztem.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14769) Abu85 válasza gbors (#14768) üzenetére


Abu85
HÁZIGAZDA

Mit mikor? DX12-ben alapvető a megoldás. DX11-ben pedig a Frostbite, az új Glacier, az új Dunia, de még a Division által használt Snowdrop is GPU-driven pipeline. Szóval a játékok szempontjából tegnap, ma, holnap.
Ha azt várod, hogy az Ashesre optimalizálnak DX11 profilt, akkor ne várd. A játék négy API-t fog támogatni a megjelenéskor. Csak tud már választani a felhasználó egyet, ami nem DX11.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14770) Habugi válasza gbors (#14768) üzenetére


Habugi
addikt

Tengermély tiszteletem kinyilvánítása mellett hagyjuk már ezt a jelen/jelenidő dolgot..! :R

33éves leszek, anno 16-18éves korom táján kezdett még gimnáziumi osztály szinten is marha ciki lenni ez az élj a mának, azt nézd/azzal foglalkozz mi van ma mentalitás.
Baromira unom olvasni, szerintem viszonylag kevés közöttünk a napközis.. :U

Oké értem én, az AMD ígérget és a jövőről beszélnek legtöbbször de csak GCN-nél leragadva elég ránézni az AoS tesztekre, ugye máris nem nettó saláta volt amit Abu az elmúlt ~2évben szajkózott/"ígérgetett"/előre vetített. Arról nem beszélve, tegnap be lett ide szúrva egy amúgy nevetséges M$ DX12-es promó anyag.., ha mást nem annyit simán ki lehet jelenteni hogy prioritást kapott náluk (is) a DX12, innentől pedig várhatóan elég rendesen be fog indulni a szekér, minden téren.

Értem vagy legalábbis igyekszem megérteni mindkét álláspontot de ezt a "ma ereje" és hasonló agymenéseket ne erőltessük már ennyit pls, megvan a maga diszkrét bája egy bizonyos korig bezárólag de kezd sok lenni. :B

[ Szerkesztve ]

..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...

(#14771) #45185024 válasza Malibutomi (#14767) üzenetére


#45185024
törölt tag

De kellene !!! Mert az nem mindenkit érdekel hogy amd VS nvidia viták legyenek de az hogy az Új játékokban milyen motor van, mik a hátrányaik, és ezen hogy futnak a kártyák , és mit lehet rajta optimalizálni , sok embert érdekelne... minthogy a másik oldal fikázásait hallgassa az ember.

(#14772) velizare válasza Abu85 (#14769) üzenetére


velizare
nagyúr

snowdropról írhatnál még, mert kb. 0 érdemi infót tudok róla a hivatalos anyagokon kívül, ahhoz meg nem értek, hogy a sorok között olvassak.

Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.

(#14773) FLATRONW válasza Habugi (#14770) üzenetére


FLATRONW
őstag

Különbséget kell tenni a szórakozás és a komoly dolgok között. A játékoknál nagyon is érvényes az élj a mának mentalitás. Az élet nem játék, de a játék az csak játék és a jelenben is szeretném élvezni, mert nem biztos hogy megélem a holnapot.

(#14774) Petykemano válasza Habugi (#14770) üzenetére


Petykemano
veterán

Az amd két-három éve tényleg elcsírélte a következő néhány év lehetséges sikereit az azt követő évek lehetséges sikereire. Hardveresen és szoftveresen is, úgy tűnik.
A nagy kérdés, hogy leérik -e mostanában ennek gyümölcse, vagy elviszi a fagy.

Találgatunk, aztán majd úgyis kiderül..

(#14775) gbors válasza Abu85 (#14769) üzenetére


gbors
nagyúr

Én nem API-kkal játszom, hanem játékokkal. Igen, van már pár játék, ami DX11-ben egészségesebben használja a CPU-t, de nem ez a többség. A DX12-es játékok pedig még mindig "we are nearly there".

(#14770) Habugi: az jó, hogy igyekszel megérteni, de láthatóan nagyon félrement valami. Senki nem beszél arról, hogy a mának kell élni, meg a "ma ereje", pusztán arról van szó, hogy felhasználóként az érdekel, hogy amivel jellemzően játszani akarok (VGA igényes cuccok legnagyobb százalékban 2013 és 2016Q1 között, tehát 1-2 hónap előretekintés belefér), az mit produkál. A 3+ hónap múlva érkező játékokban nyújtott teoretikus teljesítmény az elemző feliratú sapkámban nagyon érdekes, ellenben vásárlóként lesz**om. Szerintem sokkal inkább az a probléma, hogy sokan ezt a két szempontot nem tudjátok elkülöníteni.
(btw. nekem nem hármassal kezdődik az életkorom... már nem :) ).

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14776) Malibutomi válasza Petykemano (#14774) üzenetére


Malibutomi
nagyúr

Nem igazan latom a lemaradast a jelen jatekaiban. Egy ket kirivo kivetelen kivul (pl Project Cars) teljesen jol teljesitenek az AMD kartyak DX11 alatt is.
A Fury nem valtotta be az elozetes hypeot, de azon kivul minden szegmensben teljesen jo a teljesitmenyuk (sot ugye a lassan harom eves hawaii 390/390x tartja a lepest a 970-980-al).

A driver overhead valos hatrany, de jellemzoen a nagyobb teljesitmenyu kartyak mellett nem ket magos procikat vannak a gepekben.

(#14777) Habugi válasza gbors (#14775) üzenetére


Habugi
addikt

Félreérthetően fogalmaztam, ugyan neked címeztem a postot mert Abu egy kérdésedre adott válaszára olyan fricskával reagáltál hogy "kevés a jelenidő", ezt hoztam párhuzamra azzal a jelenséggel ami itt gyakran eluralkodik.., plusz aláírásokban is gyakran de ez neked mint itteni topicgazdának nyilván nem sarad.. :D

..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...

(#14778) daveoff válasza Malibutomi (#14776) üzenetére


daveoff
veterán

Azért, mert a Fury-nál tetőzött a dx11-es driver overhead, vagy minek hívjátok. 7970-nél még happy volt minden, egy normális CPU-vel simán kihajtottuk a kartyát, és tartotta is a lépés a konkurenciával, talán még jobb is volt. Aztán jött a 290X, ami még elment, de már látszott, hogy valami nem ok, mert sokkal több van abban a kártyában, mint amit mi megkaptunk belőle, ha érted mire gondolok. Közben a konkurencia kezdett ellépni, mert ott még csak jele sem volt hasonló problémanak. Na Fury-nál kiburult a bili, dx11-ben képtelenség kihasználni a kártyában rejlő lehetőségeket, közben nv-nél még mindig nincs semmi jele ennek, az olló durván kinyílott. Hogy ez miért alakult így, tényleg a dx11 az oka, vagy driveres gond, vagy a gcn felépítése miatt, ezt én laikusként nem tudom megítélni. Okokat lehet keresgélni, de azzal sokra mi nem megyünk. Jönnek az új api-k, talán helyre áll a rend, de az látszik, hogy a nagy felhajtás ezért van. Aztán midenki döntse el melyik irány volt a jobb.

Habugi: Már ne is haragudj de az eszmefuttatásod nem kicsit hangzik bután az informatika világában.:D Én nemrég töltöttem be a 33-at...:D

[ Szerkesztve ]

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#14779) Malibutomi válasza daveoff (#14778) üzenetére


Malibutomi
nagyúr

290x reszt nem igazan ertem. Eloszor a Titan ellenfele volt, aztan mar a 780ti-nel gyorsabb, aztan a 970, mostmeg nemi tweakkel a 980 ellenfele, hova kellene meg gyorsulnia? 980ti-vel azert nem fog versenyezni. A Fury meg szerintem nemileg elbaltazott felepitesu is, es amiatt sem hasznalhato ki rendesen.

De ok a Fury egy kartya, a tobbinel akkor sem latom a hatalmas hatranyt, csak a tesztekben latszik, ahol kimerik hogy erosebb proci kell az AMD ala.
Amig meg a legtobb jatekban par fps-ben merheto a kulonbseg (vagy nincs is) addig nem latom a problemat olyan hatalmasnak.
De lassuk be 100k feletti kartyat aki vesz ritkan hasznal i3-at, a kissebb kartyak meg kevesbe erintettek.i
Jellemzoen akik legtobbszor emlegetik ezt a driver problemat, azoknal sosem fordulna elo, mert altalaban i7 konfigrol irogatnak.

Szoval biztos van hatranya a drivernek, de amig ezzel egyutt is, kategoriankent kb. pariban vannak a kartyak (960-380, 970-390, 980-390x), addig ezeket az AMD csak a jovot igeri a jelenben szar kijelenteseket eleg furanak talalom.

[ Szerkesztve ]

(#14780) #85552128 válasza Malibutomi (#14779) üzenetére


#85552128
törölt tag

Ezzel kb. megerősítetted amit írt, azaz 2-3 évnyi szoftveres munka kellett a kártya (teljes?) potenciáljának kihasználásához.

Ugyanannyira érintettek a kisebb kártyák is, nem fogom megint linkelni az eurogameres képeket, 270X-et annyira visszafogja egy i3 mellett, hogy kb. annyit ér mintha 750 ti-t vettél volna, van, hogy még lassabb is, egy 4+ GHz-es Hashwellel megtámogatva meg rengeteget gyorsul. És pont ezért volt a Mantle esetében is a legnagyobb gyorsulás a low-end prociknál.
Felmerül a kérdés, hogy milyen porcikhoz írták ezt a drivert ? Melyik AMD proci felel meg a 4 GHz Hashwell szintnek ? :DD Mert ha egy i3 ami szálanként erősebb nem tudja kihajtani egy AMD proci még úgy sem fogja.

Tesztekben meg hiába van szinten, ha a többségnek nem egy 4+ GHz-es Haswell/Skylake i7 proci van a gépébe hanem egy jóval olcsóbb amivel az nV drivere sokkal jobb élményt tud biztosítani.

[ Szerkesztve ]

(#14781) daveoff válasza Malibutomi (#14779) üzenetére


daveoff
veterán

290X-et nem is feltétlenül a konkurenciához mérten értettem, hanem amit én tapasztaltam vele. BF4 multiban dx11-ben gáz volt amit művelt, átlagosan talán még a 70%-os GPU kihasználtságot sem érte el egy tuningolt i7-el, az fps droppokról nem is beszélek. Én ott kezdtem el aggódni, hogy basszus, ez mi? Beraktam a 980-at, és a kihasználtság kiakadt 99%-on, stabil fps, és tök mindegy volt hogy a CPU húzva volt-e, vagy nem. Ilyen tesztet Te nem találsz a neten, és nem csupán pár fps-ről volt szó. Legutóbb, amikor néztük BF4 multiban, döbbenetes különbség van a 980Ti, és a Fury X között!

Ja, és közben NV jobban fogyaszt, out of box 1,4GHz-es kártyákat dobálnak ki, AMD meg leragadt 1GHz-en, és onnan is inkább lefelé boostol. Pedig Abu erről is miket áradozott, hogy mekkora találmány ez a powertune.

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#14782) gbors válasza Malibutomi (#14779) üzenetére


gbors
nagyúr

Két dolog hibádzik itt:
- Az egyik, hogy továbbra sem látok normális CPU-teszteket a weben. Az i7-5960X-szel végzett VGA-tesztek kevéssé alkalmasak arra, hogy az ilyen eltéréseket kimutassák, a több CPU-t felvonultató tesztek pedig rendszeresen elkövetik azt a hibát, hogy a VGA-s tesztfutamokat használják, és boldogan kihozzák, hogy egy i3 elég egy Titan X mellé fullHD-ben. Ha a tesztek életszerűbbek lennének, jobban látszana, mekkora a különbség valójában - őszintén szólva, én sem vagyok biztos benne, hogy a PC vagy az AotS DX11 mennyire kivétel, vagy mennyire jellegzetes gyengébb CPU-k esetén, viszont az biztos, hogy nekem sikerült pár olyan über-CPU-limites tesztesetet találnom, amiről sehol nem szól a fáma.
- Ha valaki 60 FPS körüli sebességet szeretne, akkor a gyengébb VGA-val tud csökkenteni egy csomó beállítást, viszont a gyengébb CPU-teljesítmény miatt simán megakadhat lejjebb. Itt simán számíthat sokat a driver overhead - ki kéne mérni. Hmmmm... Nincs valakinek kölcsönbe egy 2GB-os 7850-e / 7870-e? :D

(#14777) Habugi: hidd el, más is pont arra gondol, amire én. Húszmillió dolog mellett az embernek néha van egy kis ideje leülni játszani, akkor azt nézi, mivel lehet éppen tolni, nem azt, hogy mi lesz x hónap múlva...

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14783) Malibutomi válasza #85552128 (#14780) üzenetére


Malibutomi
nagyúr

"Ezzel kb. megerősítetted amit írt, azaz 2-3 évnyi szoftveres munka kellett a kártya (teljes?) potenciáljának kihasználásához."

Ami ugye igaz minden kartyara ami eddig megjelent mindket oldalon. Mindegyik gyorsult az idok folyaman.
Ne keverjuk ossze az amirol Dave beszel hogy a driver overhead visszafogja a kartyat azzal amit te itt irsz, hogy gyorsul a hardver az ujabb driverekkel.

(#14781) daveoff
BF4-ben nem tudok nyilatkozni, tudom hogy te azzal sokat nyomod, igy nyilvan erosen szamit neked, en viszont pont azzal nem jatszom, igy az hidegen hagy. Jatszom egyeb jatekokat online, es ott mindig megy 99%-on a kartya. Ezert jo hogy van tobbfele, ha valamelyik nem jo az adott felhasznalasra lehet venni masikat.

Ja, és közben NV jobban fogyaszt, out of box 1,4GHz-es kártyákat dobálnak ki, AMD meg leragadt 1GHz-en, és onnan is inkább lefelé boostol. Pedig Abu erről is miket áradozott, hogy mekkora találmány ez a powertune.

A fogyasztas igaz, ok kiszedtek dolgokat hogy tisztan gamer kartyat csinaljanak az AMD meg nem. Ez az o dontesuk volt es bejott, jol fogyaszto kartyakat csinaltak vele. De lathato hogy ez kenyszer volt mert beragadt a 28nm. Most ok is belepakolnak sokmindent a Pascalba ami a Maxwellbol kimaradt.
Az orajelet hagyjuk, kb olyan mintha kocsikat a fordulatszam tartomany alapjan akarnad megitelni. Amig a 1500MHz-es 970 az 1100MHZ-es 390-el van pariban, addig az a magas orajel csak egy szep szam, ami jo Pistike lelkenek.

[ Szerkesztve ]

(#14784) #85552128 válasza Malibutomi (#14783) üzenetére


#85552128
törölt tag

Igen pár hónapig-1évig, de nem majd két évvel (valamelyik még több) a megjelenés után, főleg nem mind. Ha ez a helyzet akkor ott korábban alapvető gondok voltak ami általánosságban a driverre vezethető vissza nem pedig egy-egy GPU-hoz köthető optimalizálásokra. A W10-es 15.200-as driverrel enyhült az overhead és elég szépen gyorsult (nem is ez a legjobb szó maradjunk annyiban, hogy stabilabb lett) minden valamennyit, de ha máshol nem is az API overhead tesztben ugyanazon a gépen látható javulás volt (játékokban is amúgy még a 260X-en is érezhető volt)
A DX12/11-es AOTS tesztből meg az jön le, hogy még mindig nem elég, még 4.4-es procival is CPU limitesek AOTS-ben, miközben az nV kártyák nem.

Amúgy a 290X ugyanolyan felemás launch lett volna mint az FX ha a 780 Ti után jön ki, sőt megkockáztatom, hogy a hűtés miatt még rosszabb. Látszik is, hogy az nV tanult belőle és hamarabb kihozta a 980 Ti-t (ezzel kb. ellehetetlenítve az FX-et), azért driverek ide vagy oda, más lett volna a leányzó fekvése, ha júniusban nincs egy Ti a tesztben csak egy +350$-os TX (bár lehet akkor ez se 650$ lett volna :)) )...
És ha annyi ideig kéne a piacon lennie az FX/Fijiből is sokkal többet lehetne kihozni.

[ Szerkesztve ]

(#14785) Malibutomi válasza #85552128 (#14784) üzenetére


Malibutomi
nagyúr

Ez mar szerintem nem is fog valtozni, lassan szivarognak a DX12 jatekok, es mivel ahogy latszik DX11 alatt sincsenek latvanyosan elmaradva (ertsd a neten a jatek benchekben kb fej-fej mellett az NV-vel), ezen mar sokat nem fognak javitani.

(#14786) Crytek


Crytek
veterán

Az Epicnek nem tetszik a Microsoft PC-s politikája

Ezekszerint nem kapnak semmi dx12-es segítséget MS-től az UE4-hez és megy a durcizás :DDD :D

Next PC Upgrade: 2022

(#14787) TTomax válasza Malibutomi (#14785) üzenetére


TTomax
nagyúr

Hogyne kellene már rá fejleszteni,egy kezeden meg fogod tudni számolni idén az olyan játékok számát ahol valóban dx12 lesz,és még értelme is lesz futtatni.Évekig fognak még jönni a dx11es játékok,mint ahogy a mai napig jönnek dx9esek.De szerencsére az AMD a 7970el együtt szépen leállt a driver fejlesztéssel is dx11re,ebből adódóan egy 970 megfogja a 290x-et , "paripan" van...persze,csak éppen másfélszer annyiba kerül legyártani.Az AMD nagyon elszámolta magát,évekkel,dehát más választásuk nem volt a sok nyereséges évekből ennyire tellett...

★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

(#14788) Abu85 válasza gbors (#14775) üzenetére


Abu85
HÁZIGAZDA

Na most azért van pár olyan játék, ami a "DX11-ben is egészségesebben használja a CPU-t", mert a konzolon átállnak a fejlesztők a GPU-driven pipeline-ra. A PS4 és az XO is támogatja, és egyrészt ugyan kihasználható DX12/Vulkan API-ban is, másrészt elérhető DX11-ben egy-egy AMD/NV kiterjesztéssel. Az Intel mindegy, azok az IGP-k ezt a modellt amúgy is csak emulálni tudják, de ettől még kompatibilisek lesznek vele a programok, csak nem nyer vele a hardver semmit.
A GPU-driven pipeline nem csak azért terjedt el az elmúlt hónapokban, mert kedvezőbb az aktuális API-k limitációinak, illetve végeredményben a két konzolnak is, hanem azért, mert olyan optimalizálásokat is be lehet rajta vezetni, amellyel növelhető a raszterizáló hatékonysága. Sőt, a DX12/Vulkan (és konzolok) alatt ezt a compute-alapú szűrést aszinkron ütemezéssel is el lehet végezni, vagyis gyakorlatilag a számítások kvázi ingyenesé vállnak, így csak profitálsz belőle. Ilyen opcióval jön egyébként a Hitman, de tartalmazza egy ilyen koncepciót az új Frostbite is, így a Star Wars Battlefront, Plants vs. Zombies: Garden Warfare 2, és ami még jön erre motorra. Ez az optimalizálás a DX12 executeindirect funkciójával a legjobb, de csak azért, hogy ne kelljen a DX11-hez AGSL-t és NVAPI-t használni. A szabvány például azért fontos, mert a Star Wars Battlefrontba például csak az AGSL van beépítve a Radeonra, vagyis az NV-nél egy emuláció fut. A Plants vs. Zombies: Garden Warfare 2 már tartalmazza az NVAPI-s verziót is, és ezt a Hitman is tartalmazni fogja DX11 alatt.
Az Ashes of the Singularity fejlesztői nem különösebben szeretik a gyártóspecifikus hackeket. Gondolj bele ebbe te is, és tulajdonképpen arra jutsz, hogy meg lehet érteni őket ezért. Azzal persze lehetne rugózni, hogy a DX11-es kódjuk lehetne gyorsabb is, ha bevetnék az AGSL-t és az NVAPI-t, de szerintem ez számukra olyan mindegy, amikor a felhasználónak a megjelenéskor felkínálnak majd két szabványos explicit API-t. Nincs az az ember, aki a DX11-et fogja választani, ezért olyan hihetetlenül mindegy, hogy milyen gyors az a kód. És nem csak nekik, hanem a gyártóknak is. Az NV persze lehet elég perverz ahhoz, hogy ragaszkodjon hozzá, hogy szénné optimalizáljanak rá egy DX11-es profilt, de ha megnézed a tesztoldalakat, mindenki arról ír, hogy a DX12-ben mi van. A DX11 senkit sem érdekel már. És megjegyzem függetlenül attól, hogy mi van most, azt is megértem, hogy az NV-nek bassza a csőrét, hogy beleinvesztáltak egy rakás pénzt a fast path parancsprocesszorba, az NVAPI-ba, az OpenGL kvázi átírásába a command list kiterjesztéssel, és persze ezek támogatásába, de mindeközben az AMD "dobjunk ki mindent és kezdjük elölről" lobbija győzött. És most nyilván az NV mérnökei sem hülyék, látva azt a szart, amit 20 év alatt az ipar felhalmozott simán a tiszta lap a legjobb megoldás, csak hát nem ebben fektették az erőforrásaikat, aminek már nem örülnek.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#14790) #85552128 válasza daveoff (#14789) üzenetére


#85552128
törölt tag

De azért Roy Taylor már osztja az igét a DX12 "leadership"-ről: [link]

Amúgy meg 1080p-n nincs gond megvan a 60 a Furyn, Nanon is, 4K-nál jön a bibi, de már 1440p-n is szívás van: [link]
És a 4 GB-s 980 megint bizonyítja mennyivel jobban használja ki ugyanazt a memória mennyiséget.

[ Szerkesztve ]

(#14791) Venyera7 válasza daveoff (#14789) üzenetére


Venyera7
senior tag

Gears of War: Ultimate Edition PC benchmark GEFORCE GTX 980 Ti 4K itt aztán lehet tudni a pontos beállításokat :DDD

[ Szerkesztve ]

(#14792) daveoff válasza Venyera7 (#14791) üzenetére


daveoff
veterán

Jah, Te nem tudsz oroszul? Én se! :DDD Gondolom max, de ott a Comparison is.

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#14793) rocket válasza daveoff (#14789) üzenetére


rocket
nagyúr

Ez mar nem microlag, hanem überlag :)

#14786: Inkabb maradjon csondben, UE3 motorba nem voltak kepesek normalis AA tamogatast epiteni, ezzel a 2000-es evek elejere repitettek (repitik) vissza a jatekosokat.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#14794) Malibutomi válasza daveoff (#14789) üzenetére


Malibutomi
nagyúr

Volt mar linkelve haromszor a cikk amihez ezek tartoznak.
Ki is lett beszelve, valami jol el van baxva az AMD multiengine koddal.

(#14795) #85552128 válasza Malibutomi (#14794) üzenetére


#85552128
törölt tag

1080p-n akkor miért jó ? 4K-n meg minden összeesik a 6 GB-s Ti kivételével...

Na nem mintha az elfogadható lenne, hogy AMD-n nem fut jól a kód és kész - ez csak egy kifogás, megoldás meg még mindig nincs rá, ha ez lesz az async játékoknál akkor még jobban elpártolnak tőlük. Ilyen szarul még DX11-ben sem sikerült "teljesíteni". Pedig tudjuk DX11 alatt mennyire "nem használták ki" ezt az architektúrát :))

[ Szerkesztve ]

(#14796) gbors válasza Abu85 (#14788) üzenetére


gbors
nagyúr

Ugyan a leírtaknak minimális köze van ahhoz, amire válaszként írtad, de ettől függetlenül érdekes :)

Annyi mindenképpen kiderül belőle, hogy nagyon is foglalkoznak még jópáran a DX11-gyel. Nyilván az AotS esetében senkit nem izgat, mert egyelőre sokkal inkább 3DMarkként tekint rá mindenki, mint játékként. Ill. ha a Vulcan / Mantle renderer használható lesz, akkor valóban nem fog érdekelni senkit a DX11 mód. Kiemelném, hogy "ha" :)

Az nVidia csőre meg egyrészt szintúgy közömbös, másrészt amit ebbe a dologba beletoltak, az bőven termelt nekik market share-t az elmúlt két évben. Hosszabbra tervezték a termelős periódusát? Tough shit, live with it.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#14797) ezmiez36


ezmiez36
csendes tag

Kommentár nélkül...

[link]

ezmiez36

(#14798) Venyera7 válasza ezmiez36 (#14797) üzenetére


Venyera7
senior tag

Ezt már tudjuk. :U

(#14799) velizare válasza ezmiez36 (#14797) üzenetére


velizare
nagyúr

nem rossz. poén kedvéért megnézném, mennyit fogyasztana vele a 295x2-m. szerintem meglenne a 700. :DDD

Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.

(#14800) füles_


füles_
őstag

Nvidia GameWorks Behind Visual Corruption In Gears Of War Ultimate Edition
Nekik csak így megy,ez a két gyönyörű páros tönkreteszi a PC gaminget :))

[ Szerkesztve ]

Copyright © 2000-2024 PROHARDVER Informatikai Kft.