Hirdetés

2024. május 10., péntek

Gyorskeresés

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2017-08-30 10:47:05

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#8651) gbors válasza Abu85 (#8648) üzenetére


gbors
nagyúr

nagyon informatív ez a kisregény, csak éppen semmi köze ahhoz, amit kérdeztem. 2007-2008-ról van szó - akkor DX11 még nem volt sehol. akkor is szartak a fizikára és az AI-ra, most is. nehéz ebben nem közös okokat látni, még akkor is, ha jelenleg nem csak a lustaság az akadály.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8652) Abu85 válasza gbors (#8651) üzenetére


Abu85
HÁZIGAZDA

Akkor sem szartak rá, de nem nehéz meglátni az időpontok összefüggéseit. A FEAR 2005-ös. Tekintsük úgy, hogy ahhoz hasonló AI van a mai PC-s játékokban is (most ne számítsuk a picit jobb-picit rosszabb dolgokat, a konzolt meg pláne, mert ott jelentősen jobb AI is létezik). Ha Daniel Baker API-s előadásait megtekinted (amit ajánlok, mert ő az egyetlen játékfejlesztő, aki GAB tag, és iszonyatosan nagy rálátása van az egészre, hiszen ő maga is részt vesz a DirectX fejlesztésében), akkor láthatod, hogy szinte mindig elmondja a saját hipotézisét, hogy szerinte mi csúszott félre. Ezt az alábbi ábrán jól prezentálja:

Ugye a narancs a GPU-k teljesítménye a GFLOPS oszlophoz mérve. A piros a batch teljesítmény a Batch/Frame oszlophoz mérve, ami a driverekből jön/jött, míg a szaggatott vonal a terv, ami nem jött be.
És az egész pont az általad megjelölt 2007-2008 körül kezdődött, amikor a több mag elkezdett terjedni.
És itt tartunk most:

Az a kis kék rész maga a program, és az elméleti processzoridő pár százalékán fut, a maradék "Unused CPU Time" pedig azért van piros csíkokkal lesatírozva, mert nem lehet hozzáférni. A DirectX 11 és az API-hoz készült mai modern driverek nem teszik elérhetővé. Programozóként láthatod a profilozóban, de nincs semmilyen mód, hogy hozzányúlj ehhez az elméletben szabad processzoridőhöz.
Ezek után mondhatjuk azt, hogy a fejlesztők a bénák, és ezért nincs fejlődés, de valójában igazságtalanok vagyunk velük, mert ők a DX11-gyel jelenleg egy olyan programozási modellre kényszerülnek, amellyel az elméletben elérhető erőforrások nagy része elérhetetlen.
Ezt Daniel Baker bizonyította az alábbi képpel, hogy ne csak a levegőbe beszéljen:

Látható, hogy egy alpha kóddal is képes használatba venni az elméletben elérhető processzoridő ~50%-át, de ehhez nem a DX11-et, hanem a Mantle-t használta. Ezzel bebizonyította, amit sokan sejtettek, hogy a probléma forrása a DX11 és a hozzá tartozó modern driverek.
És amikor a lustaságról beszélünk, akkor vegyük figyelembe, hogy Daniel Baker már elérte a 85%-os kihasználást is az új motorverziókkal, ugyanis zölddel van jelölve az az "Unused CPU Time" rész a képen, vagyis optimalizálással a gyakorlatban is hozzáférhető, és a nagy részét már hasznosította is. Nehéz azt mondani rá, hogy lustaság miatt nem csinálja ezt meg a DX11 alatt. Főleg úgy, hogy a Nitrous, vagyis a saját motorja sokkal hatékonyabban működik DX11 alatt, mint akármelyik más fejlesztő motorja. Kvázi ő az egyetlen programozó a világon, aki nagymértékben optimalizál DX11-re.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8653) gbors válasza Abu85 (#8652) üzenetére


gbors
nagyúr

jó ez a beszélgetés.
#1 mi volt 2007-ben?
#2 hát 2010 után az a helyzet, hogy ...
#3 goto #1

úgy nem nagyon fogunk előremenni, hogy mindig a DX11 problémáit hozod fel, amikor a megelőző időszakról van szó :N

amúgy meg, ha minden shooterben olyan AI lenne, mint a FEARben, akkor hajlanék rá, hogy valami összefüggést sejtsek, annak ellenére, hogy a négymagosok megjelenésével az egyszálon üzemelő API miatt pont keletkezett extra CPU power, és a mostanában általad rengeteget emlegetett CPU time locknak még híre-hamva nem volt. azonban a legtöbb AI lényegesen ostobább, úgyhogy kénytelen vagyok továbbra is arra gondolni, hogy szartak rá. és a többség most is szarik, maximum a DX11 bajait kényelmes felhozni ürügyként.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8654) Abu85 válasza gbors (#8653) üzenetére


Abu85
HÁZIGAZDA

#1 2007-ben kezdtek el normálisan terjedni a többmagos procik. Elsősorban kétmagosok. Viszont a program nem jutott több erőforráshoz ezekkel sem.
#2 2010 után annyi változott, hogy a grafika fejlődött, és a DX túl lett terhelve, tehát olyan driverek kellettek, amelyek a 2010 utáni grafikát is megjelenítik, vagyis még több erőforrást elvettek a programtól. Ez a folyamat tart máig. Összességében nincs több processzoridő a szimulációra, mint régen.

Két tény: a fejlesztők azt mondják, hogy a probléma az API. A Microsoft nem konkrétan a DX11-et látja gondnak, hanem azt, hogy a fejlesztők túlterhelik, és a gyártók ehhez igazodnak a driverekkel. Ez is bőven igaz. Az API tud valamit, és ahhoz lehet butítani a grafikát, de ezt fentebb megbeszéltük, hogy miért nem jó a PC-s gyártóknak.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8655) Bandi79


Bandi79
aktív tag

Egy kérdés többé-kevésbé a témához kapcsolódóan: az Alien Isolation milyen engine-t használ ? Azért kérdezem, mert a jelenlegi optimalizálatlan f@sok között ez a játék röhögve fut 50 fps-sel FHD-ban minden maxon a közel 6 éves i5 750 + HD5850 masinámon... Nem kicsit lepődtem meg. :C

Ennyi találtam róla: "We built our own in-house engine specifically for Alien: Isolation"

(#8656) Abu85 válasza Bandi79 (#8655) üzenetére


Abu85
HÁZIGAZDA

CA Engine a kódneve. Eléggé új generációs rendszer. Az meg, hogy jó ... Michael Bailey csinálta és Nicolas Thibieroz segített neki a gyártói oldalról. Ők ketten soha nem tettek le gyenge munkát az asztalra.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8657) daveoff válasza Bandi79 (#8655) üzenetére


daveoff
veterán

Kis túlzással úgy is néz ki, mint egy 5-6 éves grafika, nem meglepő, hogy jól fut...

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#8658) Abu85 válasza daveoff (#8657) üzenetére


Abu85
HÁZIGAZDA

5-6 éve a seggünket csapkodtuk volna a földhöz ilyen minőségű GI és particle effektek, illetve anyagárnyalás láttán:

Azt a fény-árnyék kezelést, részecskerendszert és radiosity modellt, amit az Alien: Isolation használ, még több mai játéknak sem sikerült elérni. Persze no para, majd később más is megkapja azokat az effekteket, amelyeket ez a játék alkalmaz.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8659) daveoff válasza Abu85 (#8658) üzenetére


daveoff
veterán

Valóban van egy-két effekt, ami jól néz ki, füstök, árnyékok tényleg nagyon jók, de összességében szerintem nem üti meg a mai játékok szintjét. Te játszottál már vele? Ez a kép nagyon jó, de ez valami photoshoppolt játék reklámozó képnek néz ki, nálam nem így néz ki a játék FHD kimaxolva. Majd keresek valami jelenetet, ahol van tűz, füst meg minden, és lövök pár képet.

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#8660) Abu85 válasza daveoff (#8659) üzenetére


Abu85
HÁZIGAZDA

Igen. Játszottam már vele. Első osztályú a megvilágítási modell és a részecskerendszer. De ezt eddig is tudtuk, hiszen a fejlesztők már jó előre elmondták, hogy a legjobban implementálják, ami létezik és bevethető. Majd később a többiek is bedobnak valami hasonlót.
A Creative Assembly előnye, hogy ezt a motort a nulláról építették fel. Úgy választhatták össze a működéshez szolgáló komponenseket, ahogy azt jónak látták. Persze sok pénz volt, de amikor valami mindig a nulláról készül el, az előnyt élvez egy darabig, mert a többi motorba az új technikák nem feltétlenül építhetők be problémamentesen. Ez az oka annak, hogy ebben a motorban van most a legjobb indirekt fénykezelés és részecskerendszer. Egyedül a CryEngine közelít hozzá.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8661) gbors válasza Abu85 (#8654) üzenetére


gbors
nagyúr

Viszont a program nem jutott több erőforráshoz ezekkel sem.

no itt van a lényeg. de, persze, hogy több erőforráshoz jutott - csak ki kellett volna nyújtania a "kezét".

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8662) Abu85 válasza gbors (#8661) üzenetére


Abu85
HÁZIGAZDA

Melyik erőforrásért? Amit a driverek elvesznek? Szapulhatjuk a fejlesztőket, de valójában a többszálú feldolgozásra van egy olyan rendszerük a DX11-ben, amit ma már a Microsoft sem ajánl használatra, mert káros hatásai vannak. A problémára az elvi megoldás valóban a deferred context, ami viszont a gyakorlatban a programfejlesztők és a Microsoft szerint sem működik. Érteném a logikát, amit írsz, ha valaki azt mondaná, hogy márpedig ez működik csak ki kell nyújtani a "kezet", de nem. Ilyet még soha senki sem mondott. De olyat már sokan mondtak, hogy: nézzétek, a konzolon ki tudjuk nyújtani a kezünket! És 2014-ben ki lett kiáltva bűnösnek az API, így kaptunk négy új low-level API-t, vagy egy részükre bejelentést, hogy készülnek.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8663) gbors válasza Abu85 (#8662) üzenetére


gbors
nagyúr

ember, milyen erőforrást vettek el a driverek 2007-ben, amikor totál egyszálon ment minden? :O

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8664) Abu85 válasza gbors (#8663) üzenetére


Abu85
HÁZIGAZDA

A driver mindig igényelt erőforrást a működéshez. Másképp aligha tudná ellátni a feladatait, a baj, hogy egyre több kell neki. Viszont ennek nem kellene úgy lennie, hogy erőltessük a DX11 határain túllépő PC-s grafikát. Elfogadhatnánk azt is, hogy ebben annyi van amennyi, és akkor lenne erőforrás a gameplay szimulációra. Viszont ezt nem fogadtuk el, és ennek az a következménye, hogy a fejlesztőknek nincs több erőforrásuk a programra, mint sok éve.
De mondhatjuk azt, hogy a fejlesztők szimplán bénák DX11-ben, a Microsoft is csak félrebeszél, amikor nem ajánlja a deferred contextet, és a Mantle is csak azért működik, mert annak a 3000-4000 soros kódnak a beírását a fejlesztők tehetségesebb "skizofrén" énjük hozta össze.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8665) Bandi79 válasza daveoff (#8657) üzenetére


Bandi79
aktív tag

Ha el is fogadjuk, hogy 5-6 éves grafika (szerintem nem), akkor hasonlítsuk a GTA 4 PC portjához (2008):

GTA 4-et ha fel tudtam volna tenni maxra (1 giga VRAM maxon kevés neki), akkor kb diavetítést nézek, Alien Isolation meg röccenés nélkül megy. Nincsenek hatalmas FPS esések, textúra hibák, memory leak stb...

Ez a különbség az optimalizálatlan és a jól megírt között.

Régi C64-es időket sírom vissza, akkor még a játékkészítők tudtak programozni. ~1MHz CPU + 64K ram. Ennyi van, erre írj játékot. Nem volt "minimum" és "recommended" specs :)

Ennyi off elég is, köszönöm a válaszokat !

(#8666) daveoff válasza Bandi79 (#8665) üzenetére


daveoff
veterán

Ha összességében nézed a grafikát szerintem nem szép, teljesen a régi játékokra hajaz. Az az egy-két effekt tényleg gyönyörű, de a részletek...
A másik meg az optimalizáltság, ne gondoljuk már, hogy az optimalizáltságtól lesz az egyik játékban 300fps, a másikban meg 40fps, ezért ez elég szélsőséges tartomány. Valami oka csak van, hogy 300fps-el szalad a játék, pl. hogy az effekteket leszámítva elég sivár, és gyenge a grafika....
Persze én nem értek hozzá közel sem annyira, mint a fórumtársak, engem egyszerűen csak a látvány tud megfogni.

[ Szerkesztve ]

LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

(#8667) HSM válasza Bandi79 (#8665) üzenetére


HSM
félisten

Nálam maxon ment a tiédhez elég hasonló gépen (1GB Vram miatt csak "medium"-nak gúnyolt remek minőségű textúrákkal) és semmiféle teljesítményprobléma nem volt, nemhogy diavetítés.
A bal felső sarokban látható a "diavetítés" FPS értéke, és a második videó végén a settings ablak, ha valaki hitetlenkedne. [link]
Textúrahibák és tolerálható mértékű FPS esések ritkán előfordultak, de memory leak és durvább gondok marhára nem voltak. :N

Az optimalizálás is jól meg volt csinálva, csak rád bízták, hogy állítsd be a gépedhez. Pl. a CPU-igényt igen durva mértékben lehetett a látótávolsággal szabályozni. Ja, igen, optimalizálás, mutass már a 2008-as játékok közül mégegyet, ami kitűnően skálázódott 3 magra. Nem sok volt.

Képzelem, hogy örülnél ma olyan grafikának, ami 1Mhz CPU és 64k ramon elfut. :C Ma amúgy amikor csak egyféle hardver van, úgy hívják konzol, és arra optimalizálva is vannak a játékok.

(#8668) Bandi79 válasza HSM (#8667) üzenetére


Bandi79
aktív tag

Hányadik patch ment maxon és hány command line parameter kellett hozzá ? :)
Medium textúra + visszavett látótávolság az nem max, és nem is FHD-ban, meg i7-tel...

Én is be tudtam úgy állítani, hogy 40 FPS körül menjen, de nem 3 perc alatt, meg fel kellett húznom 4 GHz-re a procit, mert a GTA4 egyszerre volt GPU és CPU zabáló.

Amúgy még a linkelt videókban is el-eltűnik az út, meg a korlát... Ezt a hibát nálam a + RAM elég jól megoldotta... 4 gigát nem ette meg, de 12-re bővítés után gyorsabban és hiba nélkül töltődtek be a tereptárgyak... Fene se érti...

Optimalizálva vannak a mai játékok konzolokra ? Hmmm....

Tetris PS4-re (Ubisoft):

[link]

Assasins Creed is 22 FPS-sel hasít PS4-en...

[link]

Valóban optimalizáltak... :U

(#8669) HSM válasza Bandi79 (#8668) üzenetére


HSM
félisten

1.0.4 volt, azaz a 4. patch, tovább nem frissítettem, mert ami utána jött nem jött annyira be. :DDD Az eltűnedező út és hasonló hibák nagyrészt a döglődő windózom számlájára írható, amit már rég újra kellett volna tegyek, csak nem jutott rá időm. Commandline semmi extra nem volt, csak a norestrictions és nomemrestrict, bár elvileg az se kellett volna, mert befértem a limitekbe.

Az 1680*1050 majdnem annyi pixel, mint a FHD, ha nem alapon megy az 5850, hanem húzok rajta picit, ugyanez az FPS lett volna FHD-ban is. Amúgy tévedsz, full max grafikán ment [link] csak a textúrák voltak mediumon, mert 1GB videóramba nem fért több.

Ami az Ubisoftot illeti, ők akármilyen platformra tudnak hulladékot gyártani, az ő bénaságuk szerencsére nem általános. De tény, ha valaki extrém tehetségtelen, egy tetrist is el lehet rontani fix hardverre is. :C

[ Szerkesztve ]

(#8670) Abu85 válasza daveoff (#8666) üzenetére


Abu85
HÁZIGAZDA

Pedig de. Mondok egy példát rá az Alien: Isolationből. A modern GPU-s részecskerendszer, amit használ teljes mértékben mentes a többletrajzolás problémájától. Ez az első mozaikos alapokra épített algoritmus, és kapaszkodj meg ... legalább ötször gyorsabb azoknál a GPU-s megoldásoknál, amelyet ma az egyes játékok használnak, és a még szintén használt CPU-s megoldásoknál nagyjából százszor gyorsabb. Persze a CPU-s megoldások eléggé le vannak butítva, ahogy a GPU-sak is, hogy a többletrajzolás ne okozzon gondot, de az Alien: Isolation motorja koncepció szintjén védekezik ellene. Több tucat ilyen trükkből tevődik össze az Alien: Isolation sebessége. És az oka a nulláról írt motor.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8671) gbors válasza Abu85 (#8664) üzenetére


gbors
nagyúr

pályát tévesztettél, hallod... ezzel a mellébeszélési kapacitással politikusnak kellett volna menned :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8672) Bandi79 válasza HSM (#8669) üzenetére


Bandi79
aktív tag

Szerintem megegyezhetünk annyiban, hogy hiába veszi meg az ember a legerősebb PC-s hardvert amit a pénztárcája megenged, a "megírom konzolra, mert abban van a zsé, aztán hamagyorsan átportolom PC-re, aztán ha nem megy, kiadok hozzá pár patch-et / veszel 8 gigás GPU-t 12 magos CPU-val" hozzáállás miatt manapság rengeteget lehet szívni.

(#8673) HSM válasza Bandi79 (#8672) üzenetére


HSM
félisten

Persze, az igénytelen portokkal ez a helyzet. :R

Mondjuk szerencsére nekem nem volt ezekkel gondom, az Ubisoft játékai alapból nem tetszenek, itt már sok hajam megúszta a tépést. :D Normálisabb játékok pedig szépen elfutnak már egy közepes i5-ön mondjuk egy 7950/r9 280 szintű VGA-val, ami azért már nem megfizethetetlen.

Ja igen, én a GTA4-et nem tartom a közvélekedéssel ellentétben igénytelen portnak, épp ellenkezőleg, szerintem nagyon széles skálán állítható a grafika, amivel akár már akkoriban se túl izmos PC-ken is szépen eldöcögött megfelelően beállítva. Megjelenésekor egy Core2 Quad Q6600-al és egy 4850-es Radeonnal toltam, ami messze nem volt csúcsgép, mégis szépen szaladt kellően megnyirbált grafikával.

[ Szerkesztve ]

(#8674) Abu85 válasza gbors (#8671) üzenetére


Abu85
HÁZIGAZDA

Én igazából azt nem értem, hogy a problémán mit nem lehet érteni. Kiindultunk abból, hogy a FEAR AI-jához képest a mai PC-s játékok AI-ja hasonló szintű. Ezt a fejlesztők azzal magyarázzák, hogy a DX11 nem teszi lehetővé, hogy a processzoridőnek a nagy részét kihasználják. A konzolon ott az Uncharted 3 sokkal jobb AI-val, amivel a FEAR rendelkezett. Ott tehát működik a dolog. Mi az oka annak, hogy számos bizonyítékkal a hátuk mögött nem hisszük el a fejlesztőknek, hogy nem ők a bénák, hanem tényleg a rendszer dolgozik ellenük PC-n? Még ha egy fejlesztő lenne, aki az ellenkezőjét mondja, de nem, mindenki szerint rossz az a programozási paradigma, amit a DX11 rájuk kényszerít.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8675) Abu85 válasza Abu85 (#8674) üzenetére


Abu85
HÁZIGAZDA

Még annyit tennék hozzá az egész nagy API leváltós vitához, hogy természetesen bizonyos értelemben megbomlott az egyensúly, illetve az a stabil alap, amit a Microsoft és a Khronos biztosított a DX és az OGL API-kkal. Két cég nyerészkedni akar a váltáson, amit egyébként az MS a DX12-vel és a Khronos az új OGL bejelentésével akceptál. Az Apple és az AMD időben felismerte a problémát, és mertek reagálni egy-egy saját API-val. Nyilvánvaló, hogy ennek lesz hatása a piacra olyan értelemben, hogy a többiek nem mertek lépni, mert például nem akarták megbolygatni a piac számukra megfelelően stabilitását. Egy ideje bizonyosan azon megy a vita a konkurenseknél, hogy "van ez a két marha", akik vágtak magunknak egy saját ösvényt, és több fejlesztőpartnerüket beterelik majd.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8676) gbors válasza Abu85 (#8674) üzenetére


gbors
nagyúr

azt nem lehet érteni, hogy miért nem a problémával foglalkozol, és miért az aktuális vesszőparipádat hajtogatod helyette :) utoljára: a probléma az, hogy a FEAR óta semmi AI fejlődés nem volt. tegyük fel, hogy a DX11 mostanra tényleg annyira szar lett, mint ahogy lefested - ez akkor sem magyarázat arra, hogy 2006 és 2010 között miért nem volt semmi generál előrelépés AI-ban. számítási erőforrás volt, szakértelem valószínűleg szintén volt - marad az, hogy nem szántak rá pénzt. szinte senki.

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8677) Abu85 válasza gbors (#8676) üzenetére


Abu85
HÁZIGAZDA

De volt rengeteg előrelépés. Csak nem PC-n. Ez a fontos. A PlayStation 3-on pár exkluzív címben sokkal jobb AI van, mint ami PC-n valaha is létezett. Ezzel példálóznak a fejlesztők évek óta. Nem tudják igénybe venni az elméletben létező erőforrást, ha gyakorlatban nem érhető el, és ezért ma egységesen a DX API, jelenleg DX11 van hibáztatva. Aztán ezt vagy elhisszük nekik vagy sem, de tény, hogy a PS3 és Xbox 360 exkluzív játékokban valamiért tudnak jobb AI-t csinálni, míg PC-n nem.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8678) trufa12


trufa12
addikt

Sziasztok, jövőre várható valami új vga család?

Az élet olyan mint a motor, ha nem megy akkor be kell rúgni..

(#8679) letepem válasza Abu85 (#8677) üzenetére


letepem
aktív tag

Ezt alá tudom támasztani igaz még csak az uncharted 1-gyel játszom, de miden vagy hardon az AI nagyon jól reagál: kitér, máshol bújik ki, pattintva dobja elém a granyót. Szóval meglehetősen szemetek :D Pc-n ilyet nem láttam soha pedig egy 2007-es játek (grafikája is f@sza ahhoz képest, hogy 7-8 éves)

gbors részedről pedig csak kötekedés minden kommented, megkapod a választ, de az számodra elfogadhatatlan és szajkózod tovább

látok, hallok, érzek és gondolkodom.

(#8680) Abu85 válasza letepem (#8679) üzenetére


Abu85
HÁZIGAZDA

Majd a második rész ... ott még keményebbek. Kilövik a fedezéket is, mielőtt eljutnál oda, szemetek. :D

Lehet, hogy nem tiszta minden. Nyugodtan reagálhat rá, erre van a fórum. Peace gyerekek, világbéke. :R

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8681) letepem válasza Abu85 (#8680) üzenetére


letepem
aktív tag

Csak a kommentek hangvétele változott folyamatosan :D

látok, hallok, érzek és gondolkodom.

(#8682) gbors válasza Abu85 (#8677) üzenetére


gbors
nagyúr

a DX11-et akár még el is hiszem (bár jóval kevésbé sarkított formában, mint ahogy itt szerepel), a többit nem, tekintettel arra, hogy évekig azért szidták a DX-et, mert egyetlen szálat használ.
az pedig, hogy az Uncharted és még 1-2 exkluzív játék készítői igényesebbek az átlagnál, nem jelenti azt, hogy a PC-ben van a hiba...

(#8679) letepem: komolyan? :) feltettem ugyanazt a kérdést kb. 5x 2007-tel kapcsolatban, és 5x visszakaptam, hogy a DX11 ígymegúgy. ha ez Neked válasz, akkor javaslok egy értelmező olvasás tanfolyamot.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8683) Gainka válasza trufa12 (#8678) üzenetére


Gainka
őstag

Elvileg igen :K

Többiek:

Nyomjátok csak nyugodtan olvassuk :C :DDD

(#8684) Abu85 válasza gbors (#8682) üzenetére


Abu85
HÁZIGAZDA

Akkor itt a félreértés. A deferred context nem feltétlenül kell a többszálúsításhoz, az csak a parancslistát kreálja több szálon, de a beírást már amúgy is egy szálon végzi. Az immediate context manuális többszálúsítással jobb eredményekre képes, és innentől kezdve az egész probléma megszületik, mert a kezdetektől ezt az irányt választották a fejlesztők, ehhez még DX11 sem kellett. A DC csak egy alternatíva volt, ami nem működött végül. Viszont a driverek már 2006-ban több szálon működtek, tehát az erőforrást elvették.
Igazából a low-level API-k előnye nem is feltétlenül a többszálú modell megújítása, az is nagyon jó, de a legfőbb előny az, hogy a grafikus kernel driver nem futtat szerver szálakat a programszálak mellett, így az erőforrást sem veszi el.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8685) gbors válasza Abu85 (#8684) üzenetére


gbors
nagyúr

na, még a végén eljutunk valahová :D

Viszont a driverek már 2006-ban több szálon működtek, tehát az erőforrást elvették

tényleg itt a probléma forrása - ez a következtetés ebben a formában nem állja meg a helyét. a többszálúsítás egy lehetőség, egyáltalán nem jár szükségszerűen resource lockkal. ha jól rémlik, kényszerű lockolások nVidia oldalon a FW 300-as szériában bukkantak fel - volt is gond az első driverekkel akkoriban.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8686) letepem válasza gbors (#8682) üzenetére


letepem
aktív tag

Szerinted az nem válasz, ha leírja Abu, hogy mamár nem csak a dx működése és a program futtatása emészt fel erőforrást, hanem a növekvő kritériumok miatt még az aggresszív driver működése is? Valamint dx működéséből fakadóan a fejlesztő nem is látja a rendszer egészét rgo meg van kötve a keze! Emiatt választani kell, hogy az eyecandy grafikát választod, ami messzemenően túlnyúl a jelenlegi dx működésén vagy megtartod a szuper játékmenetet és ai-t. Gondolom észrevetted merre mentek el a stúdiók.
Nekem ez jött le a mondanivalóból, a piti személyeskedést pedig inkább felejtsük el! Köszi!

látok, hallok, érzek és gondolkodom.

(#8687) stratova


stratova
veterán

Csak azt nem értem teljesen a kialakult vita egy mellékszálában, hogyan lehet egyáltalán összevetni az Alien Isolation és a GTA IV CPU igényét, amikor az előbbi egy csőjáték, utóbbi pedig egy open world játék tele n+1 egységgel és NPC-vel. :U
Mindemellett valóban szép a fény és részecskerendszer Alien Isolation-ben.

(#8688) Crytek


Crytek
veterán

Abu85: A Get Even játékról lehet tudni bármit is kinek a "logoja" alatt érkezik (amd/nv) lesz-e benne fizika bárminemű interakció vagy akármi ?(ugye Ethan Carter is hasonló megoldás abban ugye nem volt szinte semmi)

Next PC Upgrade: 2022

(#8689) TTomax válasza letepem (#8686) üzenetére


TTomax
nagyúr

Nem szerinte nem,és szerintem se!

★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

(#8690) gbors válasza letepem (#8686) üzenetére


gbors
nagyúr

persze, hogy nem, hiszen nem az volt a kérdés. lefordítva köznapi példára:
K: mennyi volt az infláció 2007-ben?
V: manapság 2-3%-os inflációval kell számolni.

szerinted ez válasz? :U

a piti személyeskedés terén pedig javaslom a saját eredeti postodat megtekinteni. mégis mire számítottál válaszként? :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8691) letepem válasza gbors (#8690) üzenetére


letepem
aktív tag

Egyszerű kijelentés melyben most Abu mellé álltam a vitában. Szimplán csak meg mertem jegyezni, hogy nem értem, miért pattog a labda ide oda ugyan azt az utat leírva. Sértő vagy értelmi képességre utaló mondatot én az írásomban NEM véltem felfedezni.

látok, hallok, érzek és gondolkodom.

(#8692) gbors válasza letepem (#8691) üzenetére


gbors
nagyúr

komolyan, ezt írtad volna? én meg már azt hittem, hogy minden hozzászólásomat kötekedésnek minősítetted :D tényleg azt gondolod, hogy ez nem sértő?

na asszem ezt alaposan túlbeszéltük. megjegyzem, az eredeti kérdésre még mindig nem született válasz.

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8693) Abu85 válasza gbors (#8685) üzenetére


Abu85
HÁZIGAZDA

Az erőforrás tényleges elzárásához nagyon ritkán nyúlnak a mai driverek. Profil nélküli játéknál nem is alkalmazzák.
De az elzárás nem is szükséges ahhoz, hogy gond legyen. Önmagában az is baj, hogy a driver feladatai szimplán futnak a program mellett. 2006-ban már készültek olyan driverek, amelyek 2 szálat is futtattak és ma az 5-7 szál az általános. A fejlesztőknek ezzel az a baja, hogy ha még nem is zárják el az erőforrást, akkor is összeakadnak a programszálakkal, és a driver annyira feketedoboz jellegű rendszer, hogy semmilyen lehetőség nincs a működését normális keretek között kontrollálni.
Ezért alakult ki az az igény az új API-knál, hogy ne legyen kernel driver. A DX12-ben ugyan lesz, de az csak egy fail-safe dolog, vagyis csak azt biztosítja, hogy a program lefagyásától ne fagyjon le az operációs rendszer. Valójában nem fog erőforrást elvenni, mert tényleges számítást nem csinál majd.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8694) gbors válasza Abu85 (#8693) üzenetére


gbors
nagyúr

gondolom, nem szándékosan, de ezzel a hozzászólással némileg felülírtad a korábbi érvelésedet. eddig az volt a mondásod, hogy a driver elveszi az erőforrásokat, és a programok nem férnek hozzá - itt most ez arra módosult, hogy a driver CPU-használata kiszámíthatlan, és ezért a fejlesztők félnek hozzányúlni a CPU-erőforrás egy bizonyos részéhez, mert benne van a pakliban, hogy ütköznek a driverrel, és kontrollálhatatlan belassulások keletkeznek. maradjunk ennél a verziónál? :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8695) HSM válasza gbors (#8694) üzenetére


HSM
félisten

Én nem látok itt ellentmondást. Ott az erőforrás, de nem tudod használni, mert összeakadsz a driverrel és rossz lesz az eredmény. :)

Tehát a driver elveszi az erőforrást, hiszen fenn kell neki tartani, tehát nem férsz hozzá, nem tudod használni.
Tehát a jelenlegi modell rossz hatékonyságú emiatt. Ráadásul ott van még az API overhead-je is.

(#8696) Abu85 válasza gbors (#8694) üzenetére


Abu85
HÁZIGAZDA

Pont ez a baj, amit leírsz. A driver önmagában nem félelmetesen sok processzoridőt, viszont a kiszámíthatatlan működésével hozzáférhetetlenné teszi azt. Ha optimális lenne a driver processzorkihasználása, akkor nem kellenének új API-k, mert elveszi magának az erőforrást, és amit nem használ az csak úgy elérhető lenne. Mindenki boldog lenne egy ilyen modellel, csak nem ez történik, hanem elveszi az erőforrást és ennek következményeként hozzáférhetetlenné tesz még egy csomó processzoridőt, amin valóban kimutathatóan nem csinál semmit, csak ettől még ez a processzoridő nem lesz elérhető a programnak. Lásd a korábbi slide-ok.

Maga a rendszer black box jellege kiszámíthatatlanná teszi az egész feldolgozást, programozóként nem leszel ura a hardvernek, és így pedig borzasztóan nehéz elvárni a stúdióktól, hogy újítsanak.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8697) gbors válasza Abu85 (#8696) üzenetére


gbors
nagyúr

(@HSM: elég komoly a különbség, az alábbiak miatt: )

érdemes lenne a fogalmakat rendbetenni. ha fizikailag nem elérhető az erőforrás (mert valaki lockolta), az egy dolog, ott sok mindent nem lehet tenni. viszont ha "csak" arról van szó, hogy van esély arra, hogy összeakadjon a program a driverrel, akkor ez az esély (nevezzük kockázatnak) számszerűsíthető - mind az összeakadás valószínűsége, mind a hatása (ie. mennyi időt veszít az ütköző processz). sőt, még hierarchizálni is lehet - mennyi az esélye az ütközésnek 1 szálon, 2 szálon, stb. ebből fel lehet építeni egy modellt, amiből kiesik, hogy mennyi CPU-időt érdemes "feláldozni" a driver számára a beakadások minél nagyobb részének elkerülése érdekében (mert ugye Windows-on 100%-os elkerülésről eleve nem beszélhetünk). ez az engine (és részegységei) toleranciájától legalább annyira függ, mint a szóban forgó drivertől - más szóval, nem törvényszerű, hogy a valamelyik lenti ábrán kisraffozott erőforrás senki számára semmilyen célra nem hozzáférhető.

időzítés tekintetében: vélelmezem, hogy csak az utóbbi időben jutottak el odáig a különféle cégek fejlesztői (és nem feltétlen mindenki), hogy már több magot is odadobnak a drivernek. az biztos, hogy a 2013-as Crysis 3 még úgy tekerte az akkori 2500K-m mind a 4 magját, mint a szél. szóval továbbra is marad nyitva a kérdés, hogy 2007-ben mi más okuk lehetett a fejlesztőknek / kiadóknak az AI hanyagolására, mint a spórolás és / vagy a valós user igények hiánya :)

amúgy meg lehet nézni a kérdést a másik irányból is - lássuk meg, hogy a low level API-k elterjedése után mennyire fog fejlődni az AI. nagy összegben mernék fogadni, hogy néhány lelkes próbálkozáson túl csak kisebb inkrementális előrelépések lesznek. a fizikára több esélyt látok.

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8698) Abu85 válasza gbors (#8697) üzenetére


Abu85
HÁZIGAZDA

Te is pontosan tudod, hogy a programfejlesztés elmélete mennyiben különbözik a gyakorlattól. És itt jön elő az anyagiak problémája. Természetesen az egész levezethető egy elméleti alapon, hogy bizonyos, alapvető optimalizálással nem elérhető, de igazából szabad erőforrások hozzáférése mennyi munkaórát, pénzt, programozót igényel. Erre bárki képes, aki tapasztalt a modern játékfejlesztésben. És mivel jutunk előrébb, akkor, ha kiderül, hogy tudnak +10%-nyi erőforrást nyerni, ha még egy évet optimalizálnak? Maximum az EA engedheti meg magának, hogy erre pénzt áldozzanak, mert őszintén szólva +10%-ért baromira nem éri meg belekezdeni.
Ha a Nitrousból való ábrákat felhoztad, akkor érdemes kiemelni, hogy ez egy három éves fejlesztés. Három év alatt jutott el oda a motor, hogy DX alatt az erőforrásokat úgy kihasználja, ahogy a képen van. Ezzel szemben a Mantle erőforrás-kihasználása hat hetes munka eredménye volt akkor. Tehát mit is várunk tőlük? Hány évet öljenek még bele az optimalizálásba? Ha egy kiadó lenne a hátuk mögött, aki időpontra kérné a programot, még ilyen kihasználást sem érhettek volna el, mert nem engedték volna őket három évig dolgozni. Egyedül Brad Wardell fanatizmusának köszönhetik, hogy minderre meglett az anyagi lehetőségük. Valljuk be a mai világban nem sok Brad Wardell szaladgál, inkább Bobby Kotick kaliberű cégvezetők vannak a szoftveriparban. És amíg ez az egész egy nagy üzlet lesz, addig nem fog ez a felállás megváltozni. Bobby Kotick is azt fogja nézni, hogy a low-level kóddal ötödannyi erőforrást sem kell befektetnie, kellenek a halálnak a pénznyelő API-k. Mostantól még olcsóbb lehet a következő Call of Duty, hurrá.

Nem kell ahhoz várni, hogy meglásd mennyit fog fejlődni az AI. Csak elő kell kapni pár konzol exkluzív játékot. Ezeknél már rég túlléptek a PC-s szinten.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8699) Crytek


Crytek
veterán

Az a baj ,hogy felesleges ez a szájkaréta ami itt megy.
Bárkivel bármibe fogadok hogy az elkövetkezendő 10 évbe semmi nem fog változni. Ugyanúgy ömlenek majd a ps2 kinézetű (semmi nem indokolja a gépigényt) NASA gépen is akadozó **arok csak MERT azért. Minden másra ott a konzol akinek nem tetszik nem veszi tangára!

[ Szerkesztve ]

Next PC Upgrade: 2022

(#8700) nonsen5e válasza Crytek (#8699) üzenetére


nonsen5e
addikt

Mentve, 10 év múlva ha írok jöhet a 3 luxus Ferrari a házam elé. :C

Én személy szerint hiszek benne, hogy a Mantle elindított egy új utat, és ha nem is idén, nem is jövőre, de meg fogjuk látni az eredményét az egész új rendszernek. Ami játék támogatja már lehet látni a változást, az más kérdés, hogy kevesen építenek rá.

[ Szerkesztve ]

D4 klán: HunPH - invért privát rám

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)
Copyright © 2000-2024 PROHARDVER Informatikai Kft.