Kár, hogy a komolyabb grafikai fejlődésre addig kell várni, mig a következő konzol generáció meg nem érkezik. (mert manapság a pc játékok nagy része konzol-port)
https://www.flickr.com/photos/187066941@N05/
Kár, hogy a komolyabb grafikai fejlődésre addig kell várni, mig a következő konzol generáció meg nem érkezik. (mert manapság a pc játékok nagy része konzol-port)
https://www.flickr.com/photos/187066941@N05/
Végül Johan Andersson elmondta, hogy a következő 10 év legnagyobb megmérettetése a fotórealisztikus grafika megalkotása 1 wattos fogyasztás mellett.
Hello FPGA!
I'm gangsta!
nem tudom elolvastad-e a cikket, de pont arról szólt, hogy micsoda fejlődés van, amiknek kezdetleges, de látható jelei vannak már most is.
hogy a konzolok és portjaik mikor zárkóznak fel, az más dolog...
Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data
Ami igazán érdekes része a cikknek számomra, az a vége, ami a megatextúráról beszél. Tehát akkor kivitelezhető a megfelelő működése a dolognak, csak az ún. PRT szükségeltetik hozzá. Felmerül bennem a kérdés, hogy az nVIDIA vajon mit fog tenni annak érdekében, ami érdekében az AMD már tett?
A fejlődésnek valóban láthatói jelei vannak a fejlesztőknek, de ezt végfelhasználóként is így látod? A pc-s grafika eléggé egy helyben toporog, már egy ideje nincs meg az az érzékelhető nagy ugrás, mint mondjuk 2003-ban, vagy 2007-ben.
Ez egyelőre a konzolok miatt van így. Amint beköszönt a next-gen, újabb ugrás várható!
Alig várjuk
Vissza kell vinnem pár kazettát.
Beállnak támogatni a PRT kiterjesztéseit, vagy csinálnak egy alternatívát a PRT-re. Utóbbi esetben nem árt figyelni arra, hogy az alternatíva lehetőleg ugyanolyan legyen, mint a PRT, mert nem hiszem, hogy az ID örülne annak, ha két kettőnél több megatextúrázó eljárást kellene implementálniuk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Szerintem itt valami fogalmi keveredés van. A globális illuminációban benne van a tükröződés, átlátszóság, fényvisszaverődés meg az egész hóbelebanc a fénnyel kapcsolatban, ettől globális.
És kétlem, hogy igazi globális megvilágítás akár a közelében lenne a valós idejű megjelenítésnek.
Köszönöm a választ! Annyit szeretnék még kiegészítés képpen kérdezni, hogy mivel ez ugye hardveres dolog, így csak a jövőbeli kártyák fogják ezt majd támogatni, és egy 4**/5**-as GeForce-on továbbra is fennállnak majd az ismert textúrabetöltési problémák? Lehet tudni erről valamit?
A ray tracinggel igen (noha jellemzően itt is vannak külön eljárások az effektekre, árnyékszámításra), de a raszterizálás mellett már erős trükközés kell. Nem ugyanaz a kettő, még ha mindkettőt globális illuminációnak nevezik. Az egyes algoritmusoknak van egy alapvető tükröződési megoldása, de nagyon gyenge, márpedig jó minőségű kellene és nem mellesleg gyors. A manapság beépíthető globális illumináció algoritmusok nagyon jók arra, hogy a fényvisszaverődést szimulálják, és ezzel a fake (előre kiszámolt és textúrába égetett) megoldások mehetnek is nyugdíjba, de többre nem igazán képesek. Egyébként nyilván később képesek lehetnek, számítási teljesítmény kérdése az egész.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
A PRT-t egyelőre csak a GCN architektúrára épülő Radeonok támogatják (7700/7800/7900). Ha ezt ki akarod használni, akkor ezek a VGA-k kellenek. A többi termék szoftveres implementációt fog használni. Esetleg a Keplerre lehet írni egy specifikus szoftveres implementációt, mert támogat bindless textúrázást. Szerintem ez nem jelent olyan jelentős problémát.
A textúrabetöltéssel max. grafikán mindegyik hardver küzd. A legkevésbé az IGP-s procik, mert ott nincs bünti a PCI Express másolgatás hiánya miatt. De mivel a Rage esetében a felhasználó nem képes felülvezérelni a program által beállított főbb grafikai beállításokat, így elég jó az egyes hardvereken az eredmény. Persze a grafika minősége jellemzően más.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Értem, így már világos! Abban bízok, hogy a szoftveres megoldás is megfelelően fog működni és nem a szemünk előtt fog kirajzolódni a táj - ha lesz táj!
Koszi jo cikk.Igaz ezek tobbsege mar elhangzott a kulonbozo forumokban toled,de mindig jo ilyet olvasni
Vannak dolgok...
erről nem tudok nyilatkozni.
munkám miatt olyat is észreveszek, amit ti nem, ezért én látom a fejlődést.
Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data
Szerintem eléggé elhibázott dolog az élsimításra hagyatkozni. Szerintem sokkal inkább a pixelek száma fog elérni egy olyan szintet, hogy nem lesz rá szükség, ha másért nem, amiért az alma ezt csinálja. vagy nem?
3440x1400@120Hz #ultrawidemasterrace #gloriouspcgamingrace
Igazán mélyreható cikk lett, a szokásos Abu85 minőség. Grat.
A semmi az a valami, ami azáltal van, hogy nincs.
Bármekkora is a pixel mindig lesz nála kisebb elem a virtuális világban. Szóval az aliasing jelenség is élni fog.
(#17) Med1on: Köszi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
"Végül Johan Andersson elmondta, hogy a következő 10 év legnagyobb megmérettetése a fotórealisztikus grafika megalkotása 1 wattos fogyasztás mellett."
Jó munkát!
PS4
"A Frostbite 2 motorra épülő Battlefield 3 és Need for Speed The Run a deferred renderhez tile-based deferred acceleration technikát használ, melyet compute shaderen keresztül valósít meg. Ez a megoldás a jelenlegi legjobb algoritmus a deferred render problémáira. Ugyan az átlátszóság továbbra is nehezen képezhető le, illetve az MSAA algoritmusra épülő élsimítás sem tökéletesen kompatibilis, de a felületi variációk már nem annyira limitáltak, mint a többi elterjedt technikával (gondolva itt a partial és a full deferred lightingra), és ehhez még a memória-sávszélességet sem kell elképesztő mértékben leterhelni (ahogy azt a rengeteg fázissal dolgozó deferred shading teszi)."
tévedés: van már clustered forward shading ami gyorsabb, megoldja az átlátszóságot és még msaa-val is mehet. Pont ezen a rendezvényen mutatta be a fejlesztő, ha minden igaz.
windows7sins.org
Persze olvastam, ultraszuper fejlődés (eddig is volt) csak közbe kapjuk a konzol portokat. Nem keveset...
https://www.flickr.com/photos/187066941@N05/
Van még ezen kívül más is, de ezeket még nem rakták játékba. Majd, ha lesz rá példa, akkor lehet előjönni azzal, hogy ez működik. A tile-based deferred acceleration és a forward+ lighting technikára épül már játék.
Mindegyik új technika ígéretes, de az első oldal, és az előadássorozat bevezetője a jelenről beszélt, vagyis arról, hogy mi van most a játékokban, és mi az amiért ezek hatékonyak vagy jók.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Még a ray tracing engine-ek is külön választják a különböző megvilágítási effekteket (caustic, sss, shadow stb.) a global illumination-től. Maga a global illumination csak anynit tesz (főleg a real time esetben), hogy a szimulálják azt a hatást hogy a megvilágított felület tovább szórja és szinezi a fényt. Azaz ha egy piros kockát megvilágítunk fehér fénnyel akkor a piros kocka gyenge piros fényt fog szétszorni és így tovább. Ettől függetlenül a többi hatást (caustic, sss, shadow stb.) más-más megoldással számolják. Elméletben igazad van, de gyakorlatban nem
"(mert manapság a pc játékok nagy része konzol-port)"
1.Erősen túlzás.
2.Szerencsére még ez a "gyengébb" pc-s grafika is porba alázza a jelenlegi konzolokat legtöbb esetben.
[ Szerkesztve ]
Panni net lemondva már távol tőlem. Voda vicc! Nordtelekom korlátozza a p2p forgalmat,!Ice dsl trükközik a sávszélességgel.T-kábelnet?Próba hónap után jön a szekventálás vigyázz velük.Digi most még rendben.
hát sztem működnie kell, mivel nem sok különbség van a tile-based és a clustered eljárások között. Legalábbis nekem úgy tűnt, hogy ua az stratégia, csak más adatstruktúrával, és az egész immár 3d-ben fut.
jaok a jelenlegi játékokban tényleg a tile-based a legjobb.
windows7sins.org
,,A PC-s grafika láthatóan fejlődik"
Hááát... Láthatóan?
Épp ez az: én alig láttam valami különbséget a képeken.
Hol vannak már azok az idők, amikor egy-egy új játék mérföldkő volt grafikailag?
+1
https://www.flickr.com/photos/187066941@N05/
Működni biztos hogy működik, hiszen ezért kutatják. De az implementálásnak jellemzően vannak nehézségei, és ezeket kapcsolatba hozhatjuk a hardverekkel. Amikor az egyes rendereket hasonlítjuk össze, akkor elő lehet jönni azzal, hogy ilyen, meg olyan készül, de a gyakorlati tények alapján az számít, hogy épül-e rá valami (jellemzően játékra gondoljunk, hiszen ez lenne a lényeg), és az hogyan működik a gyakorlatban.
A forward renderhez készült clustered shading eljárás tényleg nagyon ígéretes. Ígéretesebb mint a forward+ lighting. És tényleg nagyon jó, hogy 3D-ben dolgozik, de ez nem csak a jobb hatékonysággal jár, hanem nagyobb erőforrásigénnyel is. Ha megnézed az eddigi egyetlen forward+ lighting játékot, akkor azon láthatod, hogy a GCN architektúra az egyetlen, ami jól érzi magát (mert az eljárás compute monster architektúrát igényel). A Kepler már eléggé szenved. Na most ezen még komplexebb compute shaderek nem segítenének. Emellett ahogy a forward+ lighting, úgy a clustered forward shading sem menne a jelenlegi konzolokon.
Szóval én szeretem a minőséget, de jelenleg figyelembe kell venni, hogy a forward+ lightingot csak a GCN architektúra számolja gyorsan, és amíg az NV nem zárkózik fel, addig nem látom értelmét egy ennél is komolyabb compute terhelésnek, mert nem lesz futtatható Kepleren, ami gond. Főleg amellett gond, hogy a Keplert tartják most jobbnak, ami abból ered, hogy a régebbi játékok kevés compute shader terhelést adnak. Az újakban már egyértelműen látszik, hogy mi a helyzet, noha ezek közül is csak a DiRT Showdown, ami nagyon igényli a compute hatékonyságot.
Egyelőre tehát nőjenek fel a hardverek a feladathoz. Ne csak az egyik, hanem mindegyik. Amíg csak a GCN elég compute monster, addig nem hiszem, hogy a fejlesztők annyira ránéznek ezekre a technikákra. A forward+ lighting is csak azért került elő, mert nagyon könnyen implementálható, és az eredetileg forward renderre épített motorok képességeit szépen felturbózhatja. A deferred render motoroknál is lesz egy forward+ "tack on" eljárás OIT-vel, legalábbis az AMD most ezen dolgozik. Ezzel a deferred render átlátszósággal kapcsolatos problémái megoldhatók, és az implementálás is könnyű. Ennek viszont van egy olyan hátránya, hogy nem csak a compute terhelés magas, hanem a memóriahasználat és a memória-sávszélesség terhelése is deferred MSAA mellett. Mindenesetre ez még az a határ, ami vállalható, mert nem fogja teljesen padlóra küldeni a Keplert, noha tény, hogy nem fog tetszeni neki a terhelés szintje és jellege. Persze sok függ az egyéb effektektől is, így forward+ "tack on" és OIT mellett azért érdemes gondolkodni azon, hogy a HDAO mellé legyen egy HBAO is, mert mégis 4,5x-es különbség van a Kepler és a GCN shared memory tempója között.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
"Elmondása szerint a közeljövőben érdemes többféle élsimítást keverni"
Örülök, hogy ők is látnak benne lehetőséget.
Jobban működik, ha bedugod a konnektorba. (Sattinger törvénye)
Nagyon érdekes és jó cikk.
Nvidia Maxwell kapcsolatban, vajon Nv visszatér compute -s vonalra vagy Kepleres vonalat folytatja tovább?
Biztos visszatérnek. A Kepler csak a Tegra miatt ilyen. A jövő a compute vonalé.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Köszönöm a választ
"Működni biztos hogy működik, hiszen ezért kutatják. De az implementálásnak jellemzően vannak nehézségei, és ezeket kapcsolatba hozhatjuk a hardverekkel."
én is így értettem
"A forward renderhez készült clustered shading eljárás tényleg nagyon ígéretes. Ígéretesebb mint a forward+ lighting. És tényleg nagyon jó, hogy 3D-ben dolgozik, de ez nem csak a jobb hatékonysággal jár, hanem nagyobb erőforrásigénnyel is. Ha megnézed az eddigi egyetlen forward+ lighting játékot, akkor azon láthatod, hogy a GCN architektúra az egyetlen, ami jól érzi magát (mert az eljárás compute monster architektúrát igényel). A Kepler már eléggé szenved."
hát igen, a kepler a fermihez képest egy lépés volt visszafelé... igazából én azt vártam a keplertől, hogy compute szempontból iszonyú nagy előrelépés lesz, aztán kiderült, hogy csak azért van, hogy a jelenlegi játékokban / benchmarkokban jobbak legyenek
"Emellett ahogy a forward+ lighting, úgy a clustered forward shading sem menne a jelenlegi konzolokon."
a forward+ megy nem? battlefiled 3 (mondjuk abban pont hogy deferred, de a lényeg h tile based) pl használja ha jól tudom, legalábbis vmi olyasmi rémlik h ps3-on spu-val csinálják a cullingot, xboxon meg procival (ha jól emlékszem)
"Az újakban már egyértelműen látszik, hogy mi a helyzet, noha ezek közül is csak a DiRT Showdown, ami nagyon igényli a compute hatékonyságot."
remélem, hogy legalább a kövi konzol generáció jó lesz compute terén, mivel jelenleg rengeteg dolgot lehet így csinálni (és néha sokkal hatékonyabban) pl ugye a tile-based eljárások, ssao, akkor globális illumináció is mehetne szerintem (pl a sparse voxel octree eljárás, amit nyilván azért nem computtal csináltak, mivel a kepler eléggé elhasal ezen)
"Egyelőre tehát nőjenek fel a hardverek a feladathoz. Ne csak az egyik, hanem mindegyik." +1
"A deferred render motoroknál is lesz egy forward+ "tack on" eljárás OIT-vel"
tack on, mint a tile-based motoroknál lesz hatékon OIT tehát az átlátszóság meg lesz oldva?
"Ennek viszont van egy olyan hátránya, hogy nem csak a compute terhelés magas, hanem a memóriahasználat és a memória-sávszélesség terhelése is deferred MSAA mellett. "
igazából nekem kezd elegem lenni az msaa-ból deferred renderek terén. egyszerűen pazarlás. sztem deferred renderekhez vmi post aa kell pl smaa.
"Persze sok függ az egyéb effektektől is, így forward+ "tack on" és OIT mellett azért érdemes gondolkodni azon, hogy a HDAO mellé legyen egy HBAO is, mert mégis 4,5x-es különbség van a Kepler és a GCN shared memory tempója között."
jaja, logikus, ha van szabad teljesítmény. mondjuk azt el lehet költeni részletesebb modellekre / textúrákra, ha nem igény a hbao.
windows7sins.org
A Kepler fő célja, hogy legyen egy jól skálázható architektúra az új Tegrákba. Ennyi. Mivel ez egy óriási piac, megéri inkább ide fejleszteni, még ha az hátrányos is PC-n.
Nincs meg konzolon a teljesítmény a forward+-hoz. Sajna a mai konzolgeneráció már közel sem modern, szóval technikailag el lehet készíteni, de gyors az nem lesz, és így lényegtelen is. A tile-based deferred acceleration az agyon van trükközve konzolokon. Nagyjából azt a határt képviseli, ami még mehet. Többet a gépek nem bírnak.
Igen. A forward+ tack on alapvető célja, hogy hatékonyan meg legyen oldva az átlátszóság deferred renderen. Nem a legjobb elgondolás egyébként, de mindenképpen előrelépés lesz.
Post AA az nem a legjobb, de tény, hogy az erőforrásigényhez mért minősége elég jó. Mindenesetre ezeknél jobb kellene.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Bőven meg lennék elégedve, ha a fotorealisztikus grafikát előbb megcsinálnák 300+ W-on, és ha már kész van akkor trükközzenek az energiahtékonysággal.. Sajnos azonban sokkal valószínűbb, hogy alulról próbálják majd megint közelíteni a célt, és előbb az "1W"-ot veszik alapul mert oda el lehet sütni a régi már megírt játékokat.. az újszülött mobil júzereknek meg minden játék új, szóval keresni is fognak vele jobban mintha a tényleges fotorealizmusra törnének sokszoros munkát fektetve valóban új címek kifejlesztésébe. Így a végén nyugdíjas leszek mire kihoznak egy olyan címet ami valóban végre eléri legalább a korábbi renderek szintjét.
Pssszt, csendet kérek BIOS-t frissítek!
Játékipar már 5 éve nem képes komolyabb dolgot alkotni BF3 nem mondható annak pl. vagy a krájjzíszok se igen bár engem hidegen hagy a grafika, játékot tudnának ismét készíteni mert évek óta ezek a sablonos gamek idegesítőek már
A dolog grafikai része ismert tényezők miatt van, a hozzászólásod második részével pedig nemes egyszerűséggel egyet értek!
igen, jöhetne már az új konzol generáció...
köszi
windows7sins.org
Az a baj, hogy manapság senki sem elég tökös a játékfejlesztésben. Emlékszem még amikor a GP4-ben rányomtam az "O" betűre és elképedve láttam a 600%-os processzor leterheltséget, és éveket vártam mire kijött olyan hardver ami rendesen akadás nélkül vitte. Minden egyes upgrade alkalmával kicsit közelebb kerültem az áhított célhoz.. ilyen volt később a Crysis első része is, csak ott már videokártyával megspékelve. Manapság meg a mobiltelefonoktól az utrabookokig, az arcpirító "gaming laptopoktól" a high end PC-kig mindenen futtatni akarnak valamit, és csodálkoznak, hogy döglődik a high end piac, mert lényegében alig van ami indokolná a létezését(a 48x élsimítás és az eyefinity nem valós indok ), és az is többnyire az optimalizáció hiányából fakad.
Pssszt, csendet kérek BIOS-t frissítek!
Azért a Crysis storyhoz hozzá kell tenni hogy nem akkora fejlesztés volt csak egyszerűen csaltak a játékban és felesleges dolgokat számol a gpu ez a 2-ik résznél is így van de már 1fokkal jobb.
"Végül Johan Andersson elmondta, hogy a következő 10 év legnagyobb megmérettetése a fotórealisztikus grafika megalkotása 1 wattos fogyasztás mellett."
Hát, az még tényleg vagy 10 év, ha nem több....
Már a Crysis "1"-nél is? Erről eddig még nem hallottam... Tudnál kicsit részletesebben írni a dologról, vagy valami linket adni?
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
hogy maradhattam le erről a cikkről pedig a 2. oldal nekem szól
végül is az van amit tudunk, túl sok pénz van benne szóval muszáj agyalniuk a problémák megoldásán és jó látni h vannak ötletek.
ezt a fotórealisztikus grafikát 1 wattos fogyasztáson 10 éven belül erős célnak érzem
don't tell me what i can't do!