Hirdetés

2024. május 5., vasárnap

Gyorskeresés

Hozzászólások

(#51) kikikirly válasza Abu85 (#49) üzenetére


kikikirly
senior tag

Értem és köszi a felvilágosítást.Lehet mégse a fejlesztők bolondultak meg teljesen. :R

Emiatt vette meg a Microsoft a Havokot, ami vissza fog majd térni egy új API formájában, és ott már CPU+GPU feldolgozási modell lesz. Az már ideális a fizikára.
Gondolom ennek azért nem állt neki Intel bácsi kizárólag CPU piacon érdekelt, és tojt a kettő kombinálására.
Microsoftnak meg egyikbe se érdekelt,neki az az érdeke hogy minél jobb motort tegyen le az asztalra.
Utolsó kérdés:
Nagyjából mikorra várható?1 év, 5év?

[ Szerkesztve ]

(#52) Abu85 válasza kikikirly (#51) üzenetére


Abu85
HÁZIGAZDA

A Microsoft Havok átalakítása az leginkább az Intel ötlete. Ők is dolgoztak rajta, csak ugye eladták a Havokot. De nagyrészt részei a projektnek. Nem nyilvános, de erre hozzák a saját GPU-jukat. Szóval az elérhetőség is nagyjából akkor lesz, amikor megérkezik a pGPU-s platformjuk.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#53) kikikirly válasza Abu85 (#52) üzenetére


kikikirly
senior tag

All we clear.
Még egyszer kösz a felvilágosítást. :R

[ Szerkesztve ]

(#54) Raysen623 válasza kikikirly (#48) üzenetére


Raysen623
addikt

Nevetni fogsz, de én épp készültem venni egy Ageia kártyát, amikor az NV megvette. Szóval szerintem lett volna piaca és kereslet is rá.

A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.

(#55) domos válasza Raysen623 (#46) üzenetére


domos
senior tag

GPU mint “kis apró chip”? Jóval “nagyobbak” mint a CPU.

If you don't do it enough, nothing's gonna really happen.

(#56) Anaren91 válasza kikikirly (#40) üzenetére


Anaren91
senior tag

De hát 4 mag mindenre elég... Gondolom nem lehetne mondjuk egy 8 magos processzoron kettőt vagy akár többet is befogni arra, hogy fizikát számoljon...

MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18

(#57) kikikirly válasza Anaren91 (#56) üzenetére


kikikirly
senior tag

4 Magos CPU-k megjelenésénél is szóba került hogy lesz külön mag ami csak a fizikát számolja.Amennyire tudom ebből nem lett semmi.És hiába a 8 mag, többszálú skálázódást nem olyan egyszerű megoldani, ez fórumokon rendszeresen előkerülő téma olyanok részéről akik konyítanak a témához.Biztos segit ezen a DX12/Vulcan, mindesetre eddig egyik ilyen apival készűlt játékba se láttunk szignifikáns előrelépést.Abu 85 magyarázta valahol hogy a Wolfeinstein 2 valami 3x annyi hárömszöget rajzol ki mint a Doom, ezt a mennyiséget már nem birta el az OpenGL, ezért van benne csak Vulcan. Grafikára nem igazán látok különbséget a két játék közt, mindkettő nagyon jól néz ki, de nem látom a Wolfi 2 miben szebb.Szóval amit nyernek a Low Level apikkal, úgyis elköltik valami másra.

(#58) Raymond


Raymond
félisten

Visszaterve a realitasba, itt az eredmenyek:

Tehat a V64 es az RX580 ruhat leszaggato 1.6% illetve 2.5% gyorsulast mutat. A GF1080 es GF1060 DX11 eredmenyeit elnezve nem hinnem hogy az NV sirva vetette le magat a legkozelebbi sziklaszirtrol.

Privat velemeny - keretik nem megkovezni...

(#59) Puma K válasza Raymond (#58) üzenetére


Puma K
veterán

Na ezért megérte!

:N

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#60) Z_A_P válasza Raymond (#58) üzenetére


Z_A_P
addikt

Hmmm, tehat tekintettel hogy DX12 a jovo, feltehetjuk hogy hamarosan el is fog tunni a DX11 support, akkor ez lesz a felallas?

OK

(#61) Raymond válasza Z_A_P (#60) üzenetére


Raymond
félisten

"hamarosan" LOL :))

Privat velemeny - keretik nem megkovezni...

(#62) pibor válasza Raymond (#58) üzenetére


pibor
csendes tag

Személyes tapasztalat, hogy AMD RX470 esetében kb. 15%-kal több fps van kritikus részeken, míg egy laptopon, amiben AMD 330m van bár kisebb a növekedés, de még így is 10% körüli az előny dx12 esetén.

(#63) turistakolbi válasza Baryka007 (#28) üzenetére


turistakolbi
aktív tag

Azért dobta a kukába az UE4-et mert Single játékokra jó. ahol 40+ ember van egy helyen ott már bugos szarhalmaz az egész motor :)
Példa: fortnite; PUBG;
lassan 2 éve csiszolják őket, de még mindig vannak 1080TI- 8700k kombóval 4-5 sec amikor 40 fps alá esik az egész.

Belegondolni sem merek , mit csinálnál oggrimarban amikor 400+ játékos van egy blokkon belül :D

Fejleszteni kell a motorokat. DX12 - És Vulkan már ad elég teret. Blizzardnál nagyon okos fejlesztők vannak. Nem véletlenül csinálják úgy a dolgaikat ahogy..

https://www.twitch.tv/muerte188

(#64) Puma K válasza Raymond (#61) üzenetére


Puma K
veterán

AMD híreknél-cikkekben sajnos mindig feltűnik a ha, majd, egyszer, jövőben, hamarosan szavacskák valamelyike már 2007-2008-tól kezdve.... uhh baccki már 10-11 éve megy a mese :Y

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#65) pengwin válasza Baryka007 (#32) üzenetére


pengwin
addikt

És tulajdonképpen hány szálat is használ a játék?

Mert a Blizzard játékok híresen-hírhedten a távoli múltban ragadtak többszálúsítás terén, és eléggé hasraütésszerű a minimum és ajánlott gépigény... a két i7 között elég nagy a különbség, ellenben a két FX meg nagyon hasonló teljesítményre képes.

(#58) Raymond & (#59) Puma K
Nem tudom mit vártatok egy ilyen régi motor DX12-es módjától. ;)

[ Szerkesztve ]

Üdv, pengwin

(#66) pengwin válasza Z_A_P (#60) üzenetére


pengwin
addikt

Dehogy fog eltűnni a DX11!
Ameddig DX11 képes hardverek tömege van használatban, addig lesz is DX11 mód, főleg MOBA-knál vagy MMO-knál, ahol az a lényeg, hogy a lehető legnagyobb játékosbázist lehessen célozni.

Üdv, pengwin

(#67) mikromanus


mikromanus
veterán

Igazán szép és jó, de az ilyen "mobil graphic" játéknak minek? Kicsit koros ez már. Némi "újradolgozás" kellene esetleg, mert ez már elég belépőszint alatti 2018-ban. (Bocs, ha beletiprok esetleg ezzel a HC WoW-osok lelkébe)

Battletag: Mikroman#2277 - "Népszerüsítő" videók: http://www.youtube.com/user/Mikromanus SC2: Mikroman #288 Stream: http://www.twitch.tv/mikromanus

(#68) Abu85 válasza kikikirly (#57) üzenetére


Abu85
HÁZIGAZDA

Hülyeség magszinten felosztani a feladatokat. Sokkal jobb egy job rendszer, több motor is így dolgozik ma. A skálázódás ott szokott nehézségbe ütközni, hogy a CPU-időt elveszi a GPU kernel driver, de explicit API mellett ez sincs, tehát itt már tényleg felhasználható a szabad CPU-idő. Ehhez viszont megfelelően kell tervezni a motort.

Nem a háromszög a Wolf 2-nél a probléma, hanem a rajzolási parancsok száma. Ez a Doom esetében 1000/frame volt. A Wolf 2-nél 30000/frame. Működött igazából az OpenGL port, de annyira lassú volt, hogy értelmetlenné vált a szállítása, a GPGPU cullingot sem portolták rá, de mondjuk ez kikapcsolható volt.
Háromszögek szintjén a Wolf 2 hatmillió háromszög/frame-mel dolgozik, ami nem kirívóan magas érték, bár persze nem is alacsony. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#69) Abu85 válasza Z_A_P (#60) üzenetére


Abu85
HÁZIGAZDA

Nem. Az NVIDIA hardverei egy probléma miatt lassulnak nagyot. A DX12 implementációjuk nem igazán szeret bizonyos dolgokat. Erre speciel fel is hívják a figyelmet:
"Be aware of the fact that there is a cost associated with setup and reset of a command list
- You still need a reasonable number of command lists for efficient parallel work submission
- Fences force the splitting of command lists for various reasons (multiple command queues, picking up the results of queries)"

A probléma az, hogy a Microsoft például egyáltalán nem dokumentál semmit arra vonatkozóan, hogy a fences kényszeríti a parancslisták felbontását. Ergo az API nézőpontjából ez a tényező nem létezik, és a GPU-nak belül kell az érintett problémákkal megbirkóznia, a DX12 gyártói implementációja mögött. Egy ideje viszont gyanítható, hogy az NV architektúrái bizonyos feladatokat nem tudnak elvégezni a host processzor segítsége nélkül, vagyis ha a fejlesztők nem gondoskodnak speciális kódról annak érdekében, hogy megfelelő legyen a hardver számára a párhuzamosan futtatható feladatok biztosítása, akkor a GeForce-ok egy rakás stallba futnak, ami bedönti a DX12 alatti teljesítményüket. Ez ellen az egyik megoldás, ha az NV ajánlásait figyelembe veszi a fejlesztő, mert az AMD és az Intel DX12 implementációjának nem különösebben számít, hogy kevés vagy sok parancslista van. Az NV-nek viszont létkérdés, hogy sok legyen.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#70) Baryka007 válasza pibor (#62) üzenetére


Baryka007
őstag

Ezért is nem reális a fentebb belinkelt táblázat... Ugyanis ilyen VGA-k mellett DX 11 alatt is közel CPU limites volt a helyzet ( azért még nem volt az tudom.. ) De pl ha egy GTX 1050 ( nem Ti ) és egy RX 560D vagy ilyesmivel vizsgálták volna a különbségeket, akkor ott már érezhető lett volna. Sajnos nVidia esetbéen negatív irányba, de ez a támogatottsága miatt alakult így.

(#71) Z_A_P válasza Abu85 (#69) üzenetére


Z_A_P
addikt

Az NV-nek viszont létkérdés, hogy sok legyen.

Meg a Pascal-nak is? :U

@Baryka007:

De pl ha egy GTX 1050 ( nem Ti ) és egy RX 560D vagy ilyesmivel vizsgálták volna a különbségeket, akkor ott már érezhető lett volna.

Lasd: [link]

[ Szerkesztve ]

OK

(#72) Puma K válasza Abu85 (#69) üzenetére


Puma K
veterán

A másolt szöveggel kapcsolatban lehet forrást kérni?

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#73) Abu85 válasza Z_A_P (#71) üzenetére


Abu85
HÁZIGAZDA

Az is. Mindegyik GeForce. De nem akkora para ez, mint amilyennek tűnik. Akkor lenne gond, ha az Intel és az AMD implementációja például pont azt nem szeretné, amit az NV implementációja szeret, de az Intel és az AMD DX12 meghajtója egyáltalán nem kényes, jó az is nekik, ha az NV parancslistákra vonatkozó ajánlásait követi a fejlesztő. Igazából a nagy kérdés, hogy a Blizzard miért nem azt követte. Elképzelhető, hogy volt valami ellenérv a háttérben, csak nem tudunk erről.

(#72) Puma K: [link]

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#74) Anaren91


Anaren91
senior tag

Most lehet én emlékszem rosszul, de a dx 12 nem épp a gyengébb processzorral szerelt gépeken dobja meg az fpst? Mert tök jó hogy lemértek pár kártyát pl egy i7 8700k társaságában, de kíváncsi lennék mit mutat egy fx akármi meg egy rx 560 mellett pl.
Vagy például én pont wowra szeretnék összerakni egy budget gépet, egy ryzen 2200g n gondolkodom perpil, jó lenne tudni, hogy azon pl mit dob.

[ Szerkesztve ]

MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18

(#75) Raymond válasza Anaren91 (#74) üzenetére


Raymond
félisten

AMD Phenom 2 X4 955 ha a kollega adatlapja aktualis.

Privat velemeny - keretik nem megkovezni...

(#76) Z_A_P válasza Abu85 (#73) üzenetére


Z_A_P
addikt

MS ajánlásnak csak van valami oka...

OK

(#77) Abu85 válasza Z_A_P (#76) üzenetére


Abu85
HÁZIGAZDA

Leginkább annyi, hogy nem gondolták előre, hogy a DX12 parancslistákra vonatkozó működése bármelyik gyártó implementációjának/hardverének problémákat okozhat.
Azt nem hiszem, hogy ha az NV ajánlásait követi egy fejlesztő, akkor attól leolvad az API. ;]

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#78) laposonly11 válasza kikikirly (#50) üzenetére


laposonly11
senior tag

Azért, mert amióta a marketingesek vették át a hatalmat a kreatív művészek felett, azóta a tőke dirigál nem az ötlet, azóta nem készülnek, vagy legalábbis nagyon ritkán kockázatos új ötletek, hanem inkább a bevált régi módszerekbe fektetnek (pl. Kól of Djúti 25. része), mert az szinte biztosan megtérül, ez a szemlélet stabilizálódott a mai játék és filmiparra. Csak a kezdet volt tiszta, addig volt jó, amíg 2-3 ember programozott játékot egy garázsban, DOS alá, na ott még senki sem szólt bele, mit hogyan merre, akkoriban elég volt egy jó ötlettel előállni és azt előhozni egy kiadónál, a mai kiadók már csak kizárólag késztermékeket fogadnak el, ezzel tulajdonképpen kizárva a szabadúszó kis csapatokat mint konkurenciát, vagy legalábbis a független (indie) piacra kényszerítve őket, ahol ugye nem igazán van hozzáférés, a nagy kiadók jobb játékmotorjaihoz (Így itt zömében, legfeljebb csak a jobbra-balra scrollozódó 2-2,5-3 dimenziós, platform koncepció képes csak megvalósulni). A grafika is csak azért fejlődhet, mert a grafikát megjelenítő hardvert fejlesztik, azonban tartalmilag már egyre ritkábban várható változás a nagyobb kiadóknál. Éppen ezért óriási kontrasztot képezve, rendkívül kreatív megoldásokat láthatunk az indie piacon.

Az a csodával lenne egyenlő, ha a ma már a vadkapitalizmus uralta kiélezett globális versenypiacon, a júzer, vagy annak kisebb-nagyobb csoportaji, bárminemű befolyással bírna az irodalom, film, zene és egyéb művészeti területeken arra, hogy tartalmilag milyen legyen egy nagyipari tömegtermék.

Ugyanez a liberális-vadkapitalista pusztán haszonelvű mentalitás érvényes az élelmiszeriparra és játszik az egészségünkkel! Mert ugye nagyobb bevételt hoz egy genetikailag módosított, vízízű, gyorsan érlelt óriásnarancs, mint egy original, bio, édes verzió, aminek legrosszabb esetben sem csak a fajtájára jellemző 10%-os a C-vitamin tartalma, hanem a 100-at közelíti. Persze megjelent újra az original, tehát bio, de azóta ezért már felárat kell fizetni...

[ Szerkesztve ]

Ordo est anima rerum.

(#79) Ragnar_ válasza Anaren91 (#74) üzenetére


Ragnar_
addikt

A vulkan olyan,(az előtt pedig a mantle ami AMD specifikus volt, ha jól emlékszem) hogy gyengébb proci esetében megdobta a teljesítményt, de DX12-vel a legtöbb esetben már az is örvendetes, ha a dx11 teljesítményét hozza az adott játék.

[ Szerkesztve ]

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#80) Abu85 válasza Ragnar_ (#79) üzenetére


Abu85
HÁZIGAZDA

A DX12 is ilyen. A Vulkan esetében két tényező van, ami fontos még. Az egyik, hogy jellemzően OpenGL-ről váltanak erre az API-ra, amibe nagyságrendekkel kevesebb erőforrást rak minden érintett a DX11-hez viszonyítva. A másik, hogy a Khronos sokkal inkább egy közös nevezőre tervezte az API kritikus részeit, ami jó például az NV-nek, illetve alapvetően mindenkinek. A Microsoft nem igazán foglalkozott ezzel, ami jó volt az Intelnek azt specifikálták és kész. Az részletkérdés volt, hogy helyenként ezzel az NV-nek kárt csinálnak, például a parancslistáknál vagy a root signature esetében. Az AMD-vel sem igazán foglalkoztak, nekik csak szerencséjük, hogy a GCN semmire sem kényes igazán, tehát az is jó, amit a Microsoft specifikál, és az is jó, amit más ajánl, teljesítményben nagyjából ugyanott lesznek.

A DX12-vel egyébként két tipikus késbe lehet futni. Az egyik a parancslisták helyzete. Ebből sok kicsi kell, hogy az NV-nek jó legyen a program, és az Intel, illetve az AMD meghajtója nem különösebben érzékeny erre, tehát nyugodtan lehet az NV ajánlásai szerint fejleszteni, az más kérdés, hogy ez a program oldalán nem kevés extra meló, tehát mondhatja a fejlesztő, hogy "baszki erre nincs időnk, hozzatok jobb hardvert". A másik tipikus gond a root signatures. Az NV azt szereti, ha buffer viewek közvetlenül ebben vannak, míg az Intelnek ez pont nem jó, és azt kedvelik, ha a Microsoft ajánlásai szerint ebben lehetőség szerint csak közvetetten vannak buffer viewek a leírótáblákon keresztül bekötve. Az AMD-nek pedig igazából mindegy, hasonló a teljesítmény így is, úgy is.

Egyébként annak oka van, hogy a Microsoft miért így alakította ki a specifikációt. A buffer viewek esetében azért nem ideális, ha közvetlenül a root signatures részei, mert a leírótábla vagy -halmaz mögött ezek állapotát manuálisan követni kell, így ha mondjuk új információ kerül beírásra, akkor tudni kell, hogy az olyan helyre kerüljön, amit a GPU már nem használ. A root signatures részeként ez a szabály nem érvényes, vagyis minden új információt a rendszer új memóriaterületre írja, meghagyva a régi adatot is, ugyanis nem kötelező érvényű, hogy egy leképező kiderítse, hogy az használatban van-e, és jellemzően nem is teszik meg, mert a root signatures részeként nem olcsó az eljárás. Ez viszont azt jelenti, hogy a memória folyamatosan telik meg a játék előrehaladtával, amire végeredményben nagyon nehéz alkalmazásoldali menedzsmentet írni, mert csak egy bizonyos időtávon belül lehet nagy biztonsággal meghatározni, hogy mi lesz a memóriában. Hosszabb távon viszont már jönnek a gondok, ami előhozza azokat a teljesítménykritikus jelenségeket, amelyek létezése a vezető indoka volt az explicit API-k megalkotásának. Szóval a buffer viewek helyzete marhára nem egyértelmű. Igen nyomós indokok vannak arra vonatkozóan, hogy miért nem jó az NV ajánlása. És igazából a mai memóriaárak mellett a brute force módszerben sem lehet bízni, hogy majd úgyis lesz 20-30 GB VRAM a VGA-n, amit tele lehetne pakolni szeméttel.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#81) Ragnar_ válasza Abu85 (#80) üzenetére


Ragnar_
addikt

Azt nem mondom, hogy értem, :DDD de az tényleg nem gyenge, hogy egyegy játék (GR Wildlands pl.) képes közel 5Gb-nyi VRAM-ot fogyasztani ultra beállítások mellett FHD-ban.. A Crysis2-nek még elég volt kb. 1-1.5Gb. Persze fejlődött a grafika és a látvány ahhoz képest, csak nagyságrendileg nem annyit, mint a hardverek. Vagy tényleg ekkora extra erőforrások kellenek némi előrelépéshez a vizuális minőségben ?

[ Szerkesztve ]

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#82) laposonly11 válasza Ragnar_ (#81) üzenetére


laposonly11
senior tag

A Crysis 2, szerintem még mindig jobban néz ki, de abban akkor is csak rövid pályaszakaszok vannak, lényegében egy csőben szaladsz, a GR W. meg tudtommal egyszerre tölt be egy fél megyényi területet.
Az összehasonlításhoz szerintem inkább a Crysis 1 egyik nagyobb pályája lenne a mérvadó, vagy egy Far Cry 3-4-5.

Ordo est anima rerum.

(#83) Ragnar_ válasza laposonly11 (#82) üzenetére


Ragnar_
addikt

A GR WL-t nem ismerem igazából, csak screenshotokról, a Crysis szériát ismerem. Mondjuk ha a C1-et vesszük alapul ott meg 500Mb-os VGA-val is neki lehetett állni kijátszani, viszont az optimalizálatlanabb volt mint a C2, ami már megjelenésekor is ment az aktuális konzolokon is.

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#84) Raysen623 válasza Ragnar_ (#83) üzenetére


Raysen623
addikt

A C2 a C1 után egy fostenger volt. Nem véletlenül vitték be a játékteret a városba, ami alatt aztán tesszellálták az óceánt meg még sok minden mást is, hogy a pirosak kártyáit visszafogja. A C3 ismét jobb lett szerintem. A felesleges hw erőforrás pazarlás meg azóta is megy PC-n. Így lehet elérni, hogy a fan-ok minden évben kártyát cseréljenek. Most a memória árak miatt még várnak a gyártók, de figyeljétek meg mi lesz itt ha kijön az új széria.

A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.

(#85) csontfox válasza Z_A_P (#1) üzenetére


csontfox
kezdő

tudok mérni egy intel pentium g4600 + hd 630 / 2x4gb ddr4-2400 / wd 5400 64mb
gépen dx11 vs 12 -t de igazából dx12-n fullhd-n 2es grafikával megy :U

[ Szerkesztve ]

(#86) Ragnar_ válasza Raysen623 (#84) üzenetére


Ragnar_
addikt

Hát a következő generációra én is kíváncsi leszek, bár amíg nekem átlagban FHD-ben megvan a 60FPS addig nemigen fogok új VGA-t venni, szerintem a következő generáció nekem kimarad.

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#87) laposonly11 válasza Ragnar_ (#83) üzenetére


laposonly11
senior tag

Mondjuk a Crysis 1 rossz példa volt, mert ugye abban elég alacsony felbontású textúrák vannak, a Crysis 2 ben meg állítólag még annál is alacsonyabbak, mivel egy játék mérete és hely a vramban legfőképpen a textúráknak kell, lehet hogy az előző generációs konzolok miatt lett butítva a C2 és szűk, gyengébb hardvert igénylő városi környezetbe rakva az egész. Na most a textúrák mérete és mennyisége igen csak megnövekedett, mivel a változatosabb helyszínekhez egyre több tereptárgy is meg kellett jelenjen a játékokban.

Ordo est anima rerum.

(#88) Ragnar_ válasza laposonly11 (#87) üzenetére


Ragnar_
addikt

(Volt C2-höz dx11+ high res textúra pack egyébként PC-re.) És ugye elhangzott , hogy a következő generációs VGA-kon eseleg még több VRAM lesz. Persze 4K-hoz és AA hoz elég sok VRAM kell, ha jól tudom,de attól nagyságrendileg nem lesz jobb a grafika, csak a felbontás. (C1 azért került szóba, mert azt akár egy 500 Mb-os VGA-val is ki lehetett játszani highon.)

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#89) laposonly11 válasza Ragnar_ (#88) üzenetére


laposonly11
senior tag

Ha csak a felbontást növeled minimálisan növekszik a vram igény, azonban ha ehhez még AA is kell, akkor az élsimítás típusától függően a VRAM igény akár látványosan is különbözhet (ehhez még a játékon belül megjelenített objektumok mennyisége is rádob, tehát nem csak játékonként más, hanem egy játékon belül is más lehet, pl. Crysis 1 sűrű dzsungele, egyértelműen több adattal terhelte a hardvert, mint a C2 kicsi városi utcái.) Érthetően itt a gyengébb és gazdaságosabb AA típusoknak kell kevesebb vram, míg a bonyolultabbaknak több, ami magasabb felbontásnál pedig hatványozottabban több, ez a rövid kis teszt jól mutatja a különbségeket pl. egy Shadow of Mordor esetében:
FullHD - 4K
4767 MB - 5433 MB
Ez így alig 13%-al több ramigény
Addig egy Unigine Heaven esetében viszont:
1142 MB - 2981 MB
Itt viszont már több mint 60%-os a növekedés!

Mondjuk a teszt annyiban hiányos, hogy egy játékon belül, nem hasonlít össze különböző AA eljárásokat.

(C1 azért került szóba, mert azt akár egy 500 Mb-os VGA-val is ki lehetett játszani highon.)

- Lehetett de ahogy korábban írtam, alacsony felbontású textúrákat használtak akkoriban (ill. az általános monitor felbontás fele annyi pixelből állt 1280x1024), ha leszeded a 2016 os HD textúra packott a játékhoz, akkor a készítő már 3GB vramot ajánl hozzá: itt a link

[ Szerkesztve ]

Ordo est anima rerum.

(#90) Rido


Rido
csendes tag

Nem sikerült az új kiegészítő túl Diablo-sra? A párbeszédek átalakultak 1-2 sorrá, a tálca is olyan lett mint a Diablo-ban meg állítólag van a játékban valami Diablo-s pet is. A karakterek is olyan darkosak lettek. A játék így nem fog egy Diablo klónná válni idővel?

Copyright © 2000-2024 PROHARDVER Informatikai Kft.