Hirdetés

2024. május 5., vasárnap

Gyorskeresés

Hozzászólások

(#1) Cifu


Cifu
nagyúr

Ez azt jelenti, hogy jövőbeni, esetleges 8GB-os RDNA2 kártyákon se lehet bekapcsolni. Ami valamiért ki van hagyva a hírből. Mert így nem festene olyan jól az AMD-nek, gondolom... :U

Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

(#2) beef válasza Cifu (#1) üzenetére


beef
őstag

Ne izgulj, amire lesz AMD-nek 8GB-os RT kártyája, addigra lesz Godfall patch is hozzá.

(#3) Raggie válasza Cifu (#1) üzenetére


Raggie
őstag

Egyelőre még nem igazán tudni biztos infót ilyen RDNA2 kártyáról(8GB-os). Legalábbis én még nem találkoztam vele.

Clint Eastwood FTW

(#4) Alogonomus válasza Cifu (#1) üzenetére


Alogonomus
őstag

Esetleges álmaid még nem nyertek megerősítést hivatalosan, addig pedig csak az álmaidban léteznek.

(#5) Yutani


Yutani
nagyúr

...És akkor felvetődik a kérdés, hogy RDNA2-n milyen sebességgel fut a Godfall RT on beállítással?

#tarcsad

(#6) Abu85 válasza Cifu (#1) üzenetére


Abu85
HÁZIGAZDA

Igen, az RX 6600-ak max RT minőséget nem nagyon fognak majd felmutatni. Talán a számítási kapacitásuk sem lesz meg hozzá, de lesz ehhez és a VRAM-jukhoz kisebb részletességi szint.

#5 Yutani : 1440p max+RT 105 fps 6800XT és 90 fps 6800.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#7) Strezi


Strezi
őstag

Sok játék effekt lesz még, ami a konzolok miatt AMD-n lesz elöször implementálva, optimalizálva ...

Használt LiFePo 15kWh akuk eladóak! ... Passzív ház klímás fűtéssel, 2011 - | Napelem, 2013 - | Tesla, 2019 - ...

(#8) atok666


atok666
őstag

Borzaszto, rettento, iszonyatos, ... hova jarsz Abu ezekert a jelzokert? :D Kivancsi vagyok meddig tudod meg fokozni oket.

Atok

(#9) Yutani válasza Abu85 (#6) üzenetére


Yutani
nagyúr

Köszi.

Mi a véleményed, szabványos DXR 1.1 esetén mennyivel lesznek gyorsabbak az NV kártyák az AMD megfelelőjüknél?

#tarcsad

(#10) Locutus válasza Strezi (#7) üzenetére


Locutus
veterán

Az AMD-nek sem ez a "játék" az első techdemoja, amiben próbálja a saját kártyáihoz igazodó technológiákkal, túlzott igényekkel azt a látszatot kelteni, mintha más erre nem lenne képes.

Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html

(#11) Yany


Yany
addikt

Mi lesz a Radeon 16 GB-jával, amikor elkezdik használni a GPU-n történő kitömörítéseket? Egy 12 GB-osnak fog megfelelni, vagy mi a várhatóan lefoglalt memóriaterület mérete?

Építs kötélhidat  -  https://u3d.as/3078

(#12) Yutani válasza Locutus (#10) üzenetére


Yutani
nagyúr

Ne b@ssz, hogy valamely gyártó által támogatott játékban van olyan effekt, amely a másik gyártó termékén rosszabbul fut! Még ilyet, sosem hallottam róla!

Oh wait, Crysis 2 föld alatti tenger tesszellálás...

Le van írva, hogy jön a patch, és rendesen menni fog NV kártyákon is. Mit kell itt a hangulatot kelteni? Vagy csak sértődőst játszol?

#tarcsad

(#13) kikikirly


kikikirly
senior tag

Only Shadow sugárkövetésnek Zéró értelme van. Wow Shadowlands ugyanez a sugárkövetés lesz AMD-vel promotálva... Jobban is megerőltethetnék magukat.
Control, Metro Exodus, Minecraft zongorázni lehet a különbséget.

Ez a hír is mutatja mennyi értelme volt kiadni 3070-80-at kiadni 8-10gb Vrammal.
3060-ból jön 12gb-os, 3070-ből 16-os.vélhetően 3080-ál is lépnek valamit.
Tényleg nem szabad megjelenést követő 3 hónapon belül újgenerációs hardvert venni. :)

(#14) Strezi válasza Locutus (#10) üzenetére


Strezi
őstag

Ha adott platformra adott egy lehetöség, akkor azt fogják kihasználni a grafika programozók.
Márpedig két nextgen, húzó platformra most az AMD az alap. Minden egyéb, NV specifikus megoldás plusz munka.
Ezt játékonként majd mérlegelik a fejlesztök.
Lehet hozzászokni, NV is ezt tolja az ö sleppjével. Ugyan az a kettö.

[ Szerkesztve ]

Használt LiFePo 15kWh akuk eladóak! ... Passzív ház klímás fűtéssel, 2011 - | Napelem, 2013 - | Tesla, 2019 - ...

(#15) Locutus válasza Yutani (#12) üzenetére


Locutus
veterán

Talán elkerülte a figyelmed, de nem véletlenül írtam így "Az AMD-nek sem".

Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html

(#16) Abu85 válasza Yutani (#9) üzenetére


Abu85
HÁZIGAZDA

Szabvány kódnál most az látszik, hogy kb. ugyanannyit veszítenek a VGA-k, ha mindkét gyártóra van optimalizálás, és az adott VGA-n van elég VRAM.

#11 Yany : Ha a GPU csinálja a kitömörítést, akkor a tömörített adatokat is a VRAM-ba kell másolni, nem csak a kitömörítetteket. Szóval a VRAM terhelése ettől valóban nőni fog. De a VRAM kapacitása marad, csak egy része tömörített adatokra megy majd el.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#17) Duck663 válasza Abu85 (#16) üzenetére


Duck663
őstag

Abu, mi van azzal a demoval, amivel még a nyáron demoztak? Az a mindenhol agyontükröződő őrülettel? [Erre] gondolok. Ha ott működött a RT, akkor máshol miért nem működik? Lehet nem is a Navi 21-en futott az? Gyanúsan lassú RT alatt, vagy driver gond van?

[ Szerkesztve ]

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#18) Sanya válasza Cifu (#1) üzenetére


Sanya
nagyúr

Sőt a riva tnt 2-n sem. Meg az Intel HD630-on sem. Sőt, ha megjelenik 5 év múlva egy simeretlen gyártó, aki csak 1 giga memóriát rak a kártyájára és nincs benne raytracing, akkor ott sem lehet. Ez is kimaradt, reklamáld be ezt is.

A bortól bolondokat gondol az ember, DE A PÁLINKÁTÓL MEG IS CSINÁLJA!!!

(#19) Abu85 válasza Duck663 (#17) üzenetére


Abu85
HÁZIGAZDA

Ez egy prototípus volt.

[link] - ez jön ténylegesen.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#20) Cassi


Cassi
senior tag

PS5-ön nem lesz a Godfallban RT?

(#21) Sanya


Sanya
nagyúr

az az érdekes, ha valamiben véletlen gyorsabb lenne az amd, akkor mindenki jön, DE HOGY AZ ERTÉ annyira fontos, kihagyhatatlan a 4k ultra 120fps játékból és ott az AMD gyenge.

Ha az AMD kevesebbet fogyaszt, akkor az most nem számít, de néhány generációval korábban, ugye milyen sokat számított 2 watt?

Ha véletlen AZ AMD olcsóbb, akkor azon a szinten már nem nagy a különbség, meg különbenis.

Ha véletlen valami bug (mert az, hisz javítják) miatt nem megy az nvidián az ERTÉ, akkor hirtelen nem is olyan fontos a raytracing,

Ezek a kommentek miatt járok én ide :D

A bortól bolondokat gondol az ember, DE A PÁLINKÁTÓL MEG IS CSINÁLJA!!!

(#22) Duck663 válasza Abu85 (#19) üzenetére


Duck663
őstag

Ezt tudom (elvileg ma jön), de abban a demoban rengeteg a tükröződés, és elvileg működött is, akkor most máshol, miért nem működik?

Jaj igen, mit tudsz attól, hogy az AMD a referencia 6800-asokkal 2021 elején le akar állni? Sokkal inkább egyediek nem kellenének ilyen jó refhűtő mellett. Az a baj az egyediekkel, hogy borzasztóan megemelkedik a fogyasztásuk, az 5700-asokkal is ez volt, simán lehetett +50W-al számolni. Ezt meg még csak véletlenül sem lehet kapni. Szóval nem értem, mit művelnek, mintha nem akarnának profitot termelni.

[ Szerkesztve ]

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#23) Abu85 válasza Duck663 (#22) üzenetére


Abu85
HÁZIGAZDA

A Hangar demó is tele lesz RT-vel. GI, reflection és shadow. De a referenciademó az technikai volt, nem a minőségre mennek, hanem a megvalósításra, a forráskód elérhető volt a fejlesztőknek, stb. Ez volt a célja.

Akinek egyedi kell veheti azt, míg a referencia megy az OEM-eknek, de a gyártók megtarthatják.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#24) Duck663 válasza Abu85 (#23) üzenetére


Duck663
őstag

A Hangar látványát sokan szegényesnek tartják! Szerintem nem rossz, de ez csak az én véleményem.

Én épp hogy referenciát akarnék, kenjék a hajukra a gyártók az egyedi VGAikat, nem kell egy +50W-ot fogyasztó azonos teljesítményt adó VGA.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#25) antikomcsi


antikomcsi
veterán
LOGOUT blog

Akkor egyelőre már akár 3-4 felhasználó is élvezheti, aki kapott ilyen új kártyát. :DDD ;]

(#26) Duck663 válasza antikomcsi (#25) üzenetére


Duck663
őstag

Mármint újságíróra gondolsz, nem?!

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#27) GeryFlash válasza Locutus (#10) üzenetére


GeryFlash
veterán

Nem, igazabol az Nvidia aki azt gondolja 2016ban feleslegesen adtak tul sokat a 11GB-tal, most hogy jonnek az uj konzolok, terjed a 4k es eleg lesz 8-10 GB. ;] Ami ennel tobbet ker az vagy munka vagy AMD altal krealt kamuigeny.

Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

(#28) Z10N válasza Abu85 (#6) üzenetére


Z10N
veterán

"az RX 6600-ak"
Mikor es mynnyiert?

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#29) Yutani válasza Z10N (#28) üzenetére


Yutani
nagyúr

Hadd válaszoljak Abu helyett: soká és drágán. De ezt te is tudod. :)

Sajnos véget ért az olcsó középkategória korszaka.

#tarcsad

(#30) FoxiestFox válasza Yutani (#29) üzenetére


FoxiestFox
félisten

Ez generációnként véget ér egy kicsit, aztán valahogy mégis visszatér.
2 évet adnék a dolognak.

(#31) GeryFlash válasza FoxiestFox (#30) üzenetére


GeryFlash
veterán

APU-kban lévő IGP túl jók lettek szvsz. Innentől kezdve a belépő kategóriájú VGA-k ára is feljebb fog tolódni.

Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

(#32) FoxiestFox válasza GeryFlash (#31) üzenetére


FoxiestFox
félisten

Ez mondjuk lehet, de abban az esetben az történik, hogy a létjogosultsága is elveszik a középkategóriának, hisz a low enddel együtt egyszerűen megy IGP-nek.

(#33) Yutani válasza FoxiestFox (#32) üzenetére


Yutani
nagyúr

Hát azért a középkategóriától még igen messze van az IGP. Talán sosem lesz ott, szimplán technikai okok miatt (nem kapja meg a kell sávszélt, bár talán Infinity Cache talán segíthet ezen valamennyit).

#tarcsad

(#34) FoxiestFox válasza Yutani (#33) üzenetére


FoxiestFox
félisten

Szerintem annyira egyik gyártó sem lesz maki, hogy hagyják, hogy az emberek inkább konzolt vegyenek életképes középkat. helyett.
A high end gaming oké, marad PC-n, de a korrekt ár/teljesítmény arányú és 2-3 éves csúcskategóriás, már olcsóbb GPU-k ellenfelei a konzolok - azok választása, akik nem akarnak hardverre túl sokat gyártani.
Én nem mondom, hogy megyek konzolra, ha nem lesz középkat, de akkor maradok a jelenlegi gépemnél, így is tele a Steam / GOG játszatlan játékokkal, amiket akarok.

Ésszerűtlen így kicsapni a középkategóriát, de genváltásnál vagyunk, sok új tech jön be épp, aminek kell legalább 2 év leszivárogni olcsóbb vasakba is.
Tartom, hogy ez meg fog történni.
Aztán ha nem, hát így járt a PC gaming master race velem együtt. :\

(#35) arn


arn
félisten

Ures duma... :) 3090en siman mehetne, ha az lenne az igazi ok.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#36) GeryFlash válasza FoxiestFox (#34) üzenetére


GeryFlash
veterán

Kozep kategoria nem lesz kicsapva, csak tolodik el a belepesi kuszob. Szerintem 250 dollar lesz innentol az alja (persze lesz tovabbra is 80-100 dollarert valami basic cucc ami kepet ad ha CPU-d van es nem APU-d) de ennyi. Szerintem nem lesznek 100-200 de lehet 100-250 dollar kozotti savban VGA-k innentol. Aki nem ad ki 200-250 dollart az vagy vesz hasznaltat vagy IGP-vel tolja, azok is szepen jonnek fel mar egy Tigerlake-s IGP-vel is egesz jol lehet jatszani 1080p-ben [link] . A linkben ugyan sok jatek 30 FPS alatt van FHD-n de azert mert high beallitasokon van, low-mediumon (ami valljuk be 2020ban mar nem vesz el annyit mint mondjuk 5-10 eve) teljesen vallalhato teljesitmeny. Esportsra meg mar evek ota eleg volt eddig is.

Innentol lesz egy VGA kategoria amivel 1080p/60FPS mehet high ultra grafikan 220-250 dollarert, a tobbi meg az 1440p es 4k szegmens lesz.

Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

(#37) arn


arn
félisten

Meg ugy alapvetoen nagyon eletszeru lehet, hogy talan 1-2 honapja lehetnek gyartasban a kartyak, elotte csak az nvnak volt rt kepes kartyaja, de meg se neztek, hanem gyorsan kiadas elott lekodoltak a rt reszt az amdre.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#38) Abu85 válasza arn (#37) üzenetére


Abu85
HÁZIGAZDA

A fejlesztőknek már a nyár elején voltak kártyái az AMD-től és az NV-től is. Ők azért jóval hamarabb megkapják, mint mi.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#39) arn válasza Abu85 (#38) üzenetére


arn
félisten

Akkor meg mindig nem ertem mi az ok, ha voltak kartyaik... amugy nem tudom milyen kartyak lehetnek azok, amikor a gpukat nyaron kezdtek el gyartani.

[ Szerkesztve ]

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#40) Abu85 válasza arn (#39) üzenetére


Abu85
HÁZIGAZDA

Az aktuális verzió rendkívül zabálja a VRAM-ot. Ez a gond. Semmire nem mennek, ha bekapcsolhatóvá teszik, mert csak felbőszítik az NV-tulajokat, hogy szaggat a kevés VRAM miatt. Nem mellesleg az NV-nek is nagyon rossz reklám az, hogy a termék kiadása után két hónappal már kevés a rajta lévő memória. Simán kérhetik, hogy ne csinálják már ezt, hanem várjanak, amíg lesz optimalizáltabb kód.

Mérnöki mintákat kapnak a partnerek. A kiadás előtt egy évvel a gyártóknak már vannak hardverei, a legközelebbi partnerek ezeket is megkapják. Tehát van olyan stúdió, amelyik már egy éve használhat RDNA2-t vagy Ampere-t.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#41) b. válasza kikikirly (#13) üzenetére


b.
félisten

3080 nál 20 GB verziók vannak engedélyezve.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#42) arn válasza arn (#39) üzenetére


arn
félisten

A tesztelok altal megkapott korai kartyak alapjan a 3080/90 juli, a 3070 aug, a 6800 szept kornyeken ment tomeggyartasba. A piacra kerules alapjan eleg hasonlo atfutasi ido lehetett mindket gyartonal.

Ha beta kartyakrol is beszelunk, akkoris valoszinutlen, hogy egy rtx2000esen ne neztek volna meg korabban, meglepodnek, ha nem azon kezdtek volna el fejleszteni az idofaktor miatt.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#43) b. válasza Abu85 (#40) üzenetére


b.
félisten

"felbőszítik" és" Nv kérheti őket hogy légyszíves ne"...de hogy kéri ne told át légy szíves.Ez egy középszerű játék. Korrektség.

Egy AMD támogatott cím, nincs ebben semmi hogy AMD a kiemelt. Azt gondolom pont AMD kérte őket hogy ne tegyék támogathatóvá a tesztek idejére, mert lehet hogy egy 3080 4 K vagy 1440P ben ban gyorsabb lenne még 10 GB rammal is, aztán ciki lenne. Nekem ez a véleményem.
Cyperpunk meg NV -n fog menni egyelőre és kész. Pénz beszél nincs ebben több.
Overclockeden és Tom's on a cikkíró azt írja hogy nem kapott a megkeresésére konkrét választ a miértre, főleg hogy árnyékolásra van használva az RT itt ami legkevésbé erőforrás és RAM igényes, bejárási idő hossza ide vagy oda.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#44) arn válasza Abu85 (#40) üzenetére


arn
félisten

En ezt elhiszem, hogy igy van... de a mernoki kartyan mi akadalyozta meg oket abban, hogy sok rammal teszteljenek mindket oldalon? Max kiirjak, hogy ezen a kartyan nincs eleg ram, vagy lassabban fut. aztan johet a fix kesobb.

De ez az egesz csak bullshit, total egyertelmu, hogy debut kornyeki amds cimmel mi a cel. Veletlenul pont a konkurencia kartyajan nem ok vmi... lesz itt meg adokkapok a konkurencia kartyajanak gyengesegere apellalva a kov jatekcimeknel. Csak a userek szivnak.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#45) Abu85 válasza b. (#43) üzenetére


Abu85
HÁZIGAZDA

Ez azért lehet a véleményed, mert még nem láttad, hogy mennyire gyorsan fut ez a játék RT-ben 6800 XT-n. 1440p-ben 105 fps-t tud. RT-t kikapcsolva 121 fps. Szóval nagyon gyors az RDNA 2-re az implementáció. Az egyetlen gond, hogy két pofára zabálja a memóriát, mert nem csak pár virtuális méterig engedik futni, ahogy a régebbi játékokban, hanem nagyon messzire lövik a sugarakat. Így viszont sok objektumból kell betölteni a legrészletesebb verziót a memóriába.

A Cyperpunk fejlesztői már megírták, hogy a megoldásuk teljesen szabványos. A Godfall azért megy csak az AMD-n, mert nem is szabványos, csak a DXR 1.1-re építettek egy kiegészítést, ami leviszi a memóriahasználatot. De ezt csak AMD-n tudják alkalmazni, mert NV-nek nincs olyan szervizkönyvtára, ami detektálná a találatokat a DXR-ben. Valószínű, hogy lesz, mert ezt a problémát pusztán a DXR 1.1 alatt nem lehet megoldani, tehát muszáj lesz valami NV specifikus API-t bevetni, hogy levigyék náluk is a memóriahasználatot. Jó eséllyel ez már létezik, csak még nem publikus, de ők bőven elérhetik, mert szükségük van rá. Ha van a találatra szervizkönyvtár, akkor onnan már át lehet vinni a munkát mondjuk az OptiX-ba. Az már egy sokkal kevésbé kötött rendszer a DXR-hez viszonyítva, és ott meg lehet csinálni ugyanazokat az optimalizálásokat, amiket az AMD-re megcsinálnak. Azzal már mehet is a kód, de az sem lesz szabványos. Viszont legalább jól fut, és ez a fontos. Megtehetnék azt is, hogy szarnak bele, és akkor vegyél 3090-et, ha be akarod kapcsolni, de az nem a normális hozzáállás, neki pont ugyanolyan fontos egy NV VGA-val rendelkező felhasználó, és ha ki tudnak dolgozni az NV-vel erre egy optimalizálást, akár az NVAPI-n keresztül, akkor megcsinálják.

#44 arn : Őket semmi, de tesztelni, és production ready szinten effektet szállítani elég nagy különbség. Utóbbi esetben ugyanis számít, hogy mennyire gyorsan fut.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#46) b. válasza Abu85 (#45) üzenetére


b.
félisten

Igen azért fut gyorsan és kevésbé veszteségesen mert csak árnyékolásra van használva, lásd WOW.
Pont te írtad hogy ez értelmetlen mert raszterrel ezt milyen jól meg lehet oldani. Ráadásul ez a játék ilyen 60 % értékeléseket kapott, nem hiszem hogy ezen fog görcsölni bárki a zöldeknélde ha mégis hát nekem jó.
Azt nem értem hogy a 6800 megjelenése óta hirtelen az 1440P nagyon népszerű példálózás lett. ;]
Szóval 1440P-n a Godfall epic beállításon 6 GB vramot eszik valójában RT nél 40% vram megmarad üresen az árnyékolásra.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#47) Z10N válasza Yutani (#29) üzenetére


Z10N
veterán

Psszt. Meg elijjeszted :D

De, hogy erdemben is valaszoljak. Akkor lesz konzol fix aron 185k-ert. Tavasszal gondoltam valtani, de addigra lesznek game bundle-k es megjelennek a hasznalt lemezes hirdetesek az apron. A xeon v3 WS gepbe veszek meg 64G-t es egy masik nvme ssd-t. A pc marad munkara.

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#48) Duck663 válasza Abu85 (#45) üzenetére


Duck663
őstag

Megkérhetik a fejlesztőket? A fejlesztőket kérlelheted aztán, ha ez így működne akkor pl nem használnák ntrollék Physx rendszerét, amely masszívan limitálja az elavult CPU-s kódrészek miatt a Radeonokon való futás sebességét. Itt az működik, hogy viszel egy Nokiás doboznyi pénzt, és esetleg leülnek veled tárgyalni, de a játékban ugyanúgy bent marad, mert az túl sok munka, túl sok idő, túl sok pénz, és az egy doboz az nem doboz, több meg nincs.

DXR, most végül is mi a fenének van akkor DXR, ha lényegében össze-vissza trükközni kell a gyártók különféle termékein, hogy legyen normális tempójú RT?! Semmi értelme így a DXR-nak, és ha itt ez a helyzet, akkor kb a vulkan-ba épített RT esetén is ez lesz.

Az AMD-nek inkább a Mantle-t kellett volna tovább vinnie, saját API, ahhoz kínálni nyílt fejlesztőeszközöket, a többivel meg küzdjön aki, ahogy tud.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#49) FoxiestFox válasza GeryFlash (#36) üzenetére


FoxiestFox
félisten

A 250-300 dolcsis kategória szerintem teljesen oké középnek.
Ha az marad, nem nagyon lesz miért aggódni.

(#50) Piszmaty76 válasza Sanya (#21) üzenetére


Piszmaty76
aktív tag

Valahol megértem őket, védeniük sőt követelniük illik az RT-t. Az RT előtt az Nvidia az AMD-vel ellentétben nem sokat agyalt a dolgokon (technológiai újítások), mindent izomból igyekezett megoldani. Az AMD újítás próbálkozásai sorban ki lettek röhögve, mert a mindenes kártyái nem tudták annyira tartani a tempót az Nvidia csak gamingre kigyúrt kártyáival. Most végre ők is agyaltak egyszer valamin, persze hogy hősök lettek és most már nincs RT nélkül élvezhető játék. Lassan a passziánsz is ciki nélküle. Ha AMD próbálkozott volna először ezzel, jó eséllyel a mostani huhogók fikázták volna őket a legjobban az újabb "haszontalan" újításukért. :)

Thermaltake Overseer RX-1, Seasonic Prime 750W Titanium, ASUS C8H X570 wifi, R9 5900X, Thermalright Peerless Assassin SE, G.SKILL 32GB KIT DDR4 3600MHz CL16 Trident Z RGB, Sapphire 7900XTX Nitro+, Samsung 960 pro NVME gen3. 256GB/Kingston KC3000 NVME gen4. 2TB, LG QNED863QA 55" (HDMI 2.1)

(#51) Abu85 válasza b. (#46) üzenetére


Abu85
HÁZIGAZDA

Meg lásd sok játék, de itt nem ez a lényeg, hanem, hogy mennyire messzire lövik a sugarakat. Ettől függ a terhelés is. A Godfall a nyílt jellege miatt eléggé távolra is számol, és ez az oka annak, hogy az RT effekt annyira memóriaigényes, mert nagy távolságban már rég valamelyik kis részletességű LOD-ot kell használni a modellekre, de az RT effektnél a sugár kilövésének pillanatában kell megválasztani a LOD-ot. Ha hamar találja el a sugár az objektumot, akkor ugye közel van a kamerához, és kell a részletes geometria, de ha messze lesz találat, akkor nem kell a részletesség, viszont ezt menet közben az aktuális DXR futószalagokon nem lehet jól kontrollálni, tehát kényszerből beállítják a maximális LOD-ot mindenre, mert a sugár kilövésének pillanatában nem lehet tudni, hogy a kamerától milyen távol lesz találat. Ez a probléma. A régebbi RT játékok ezt úgy kezelték, hogy nagyon limitált távolságig lőtték ki a sugarakat, és az eredményt sem a maximális részletességű LOD szinttel számolták. Ez egy memóriakímélőbb megoldás, csak rondább. Ha minden kötél szakad, akkor ezt is bevetheti a Godfall, csak a DXR 1.1 lehetőséget ad bizonyos korábbi limitációk megkerülésére, és emiatt jóval nagyobb távolságra dolgoznak, mint régen, ugyanakkor ez teremt új limitációkat, például azt, hogy az effekt rendkívül memóriazabáló lesz. De úgy néz ki, hogy ez valamilyen mértékben kezelhető a DXR-en kívül, és ezért alkalmaznak alternatív megközelítést. Az AMD-nek és az NV-nek is van saját trace engine API-ja erre (Radeon Rays és OptiX), és ezek sokkal többre képesek, mint a DXR, viszont szükség van egy olyan összeköttetésre, amivel a DXR-en belüli munkát részben átviszik egy külső komponensre. Erre kell a szervizkönyvtárakba egy találatjelző. Ha ez megvan, akkor igazából gyártóspecifikus lesz ugyan az RT, de nagyon sokat tudnak segíteni azon, hogy leküzdjék a DXR 1.1 működésének extrém memóriazabálását.
Mondhatod, hogy szemetek, amiért ezt csinálják, de végeredményben nem kevés többletmunkával azt érik el, hogy kevesebb sebességvesztés, illetve kevesebb memóriahasználat mellett szebb effektet kapj a hardvereden. Időigényes és nehéz elérni, de végeredményben tényleg megtehetnék azt is, hogy szarnak rá, és akkor fut ahogy fut NVIDIA-n, nem optimalizálják le, te meg veheted a sok VRAM-os GeForce-ot. Jelenleg olyan 1500 dolláros kiadásba fájna neked, ha nem dolgoznának rajta, hogy működjön az olcsóbb termékeken is.

#48 Duck663 : A PhysX már rég nagyon jól fut a CPU-kon. Nem véletlenül kopott ki a GPU-s feldolgozási formája, mert gyakorlatilag utolérte a CPU-s sebességben.

A DXR a szabványért van, de nem tud mindent a szabvány. Mindkét DXR futószalag eléggé limitált, a DXR 1.1 kevésbé, de ettől még vannak határai, és nagyon komolyak. A gyártóspecifikus Radeon Rays vagy OptiX többre képes, és bizonyos effektek működéséhez érdemes ezeket bevetni, mert a sebességnövekedés, vagy pusztán a memóriahasználat javulása ezekkel jelentős lehet.

Ott van még a driverekben a Mantle, a fejlesztői módban elérhető. De egy végfelhasználónak ez nem kell, teljesen jó a DXR is az AMD-nek, amit nem tudnak vele megcsinálni, arra van Radeon Rays 4.0.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#52) kikikirly


kikikirly
senior tag

Tesztek és gameplay videók alapján elég középszerű játék lett a Godfall. Ezen a Ray Tracing nem tud segiteni, pláne ez a csak árnyékokat rajzolunk ki sugárkövetéssel dolog. Tök felesleges baromság, játék közbe nem veszed észre hogy mennyire élesek az árnyékok... Magad is leírtad több cikkbe hogy a Next Gen konzoloknák hibrid sugárkövetést fognak használni,ahol nincs/alig észrevehető javulást hoz RT ott maradnak az eddigi eljárásoknál,ahhol észrevetően szebb(pl tükröződések) ott bevetik a sugárkövetést.
Ehhez képest sikerült olyan területen használni aminek nincs értelme, ráadásul megnövekszik a játék memória igénye ,amit plusz optimalizálással kell ellensúlyozni, ráadásul két VGA gyártó hardvereire külön külön.
Mindez megmagyarázza miért lett gyenge játék a Godfall, ismét mérnökök fejlesztettek videójátékot, nem olyanok akik játszanak is videójátékokkal.

,,A PhysX már rég nagyon jól fut a CPU-kon. Nem véletlenül kopott ki a GPU-s feldolgozási formája, mert gyakorlatilag utolérte a CPU-s sebességben."
Ha igy lenne miért nem látunk a játékokba GPU PhyX komplexitású particle/Rigid-Soft Body/
fizikát???( 1:15-tól van a lényeg)
Vagy itt van ez.
Mafia 2,Metro sorozat,Killing Floor 2(Fluid PhysX) stb nem is beszéltünk.
Megint olyanról beszélsz amiről gyakorlatba nem sokat tudsz.

[ Szerkesztve ]

(#53) Abu85 válasza kikikirly (#52) üzenetére


Abu85
HÁZIGAZDA

Ahol jól észrevehető a sugárkövetés hatása, azok pont az árnyékok, mert hagyományos megoldásokkal nagyon nehéz megfelelő minőséget hozni. Ha megnézed, akkor sok esetben az árnyékok lehetnek nagyon hasonlók sugárkövetés nélkül, de egyes esetekben szinte lehetetlen normálisan megoldani ezt raszterizálással. [link] - hónapokig kellene rajta dolgozni, arra meg nincs idő, és a befejtetett munka mellett sem biztos, hogy meglenne a minőség. Sugárkövetéssel ez tényleg csak napok kérdése.

A tükröződés annyiban egyszerűbb, hogy ott az SSR szintén gyorsan ad elég jó eredményt, nincsenek olyan nehézségek vele, mint az árnyékoknál, de persze nem is működik úgy, mint az RT-s megoldás, hiszen screen space. De a befektetett munka szempontjából nem igényel több hónapos munkát, mint az árnyékok. Ezért repültek rá sokan inkább az árnyékokra, mert ott a minőségbeli eltérés tényleg nagységrendi lehet, és egy csomó munkát is spórolnak vele.

Az, hogy külön optimalizálnak a gyártókra teljesen érthető. Ezzel nincs különösebb baj, hiszen az a cél vele, hogy mindkét gyártó hardverein jól működjön.

--- A PhysX-hez ---

Mert hülyeségnek tartják a fejlesztők. Egy csomó memóriát pazarolnak vele. De ettől teljesen megvalósítható bárhol, hiszen vannak rá szabványos API-k, van rá CPU-erő is, csak inkább költik olyan dolgokra a memóriát, amire megéri. Például jobb minőségű megjelenítésre, hogy ne nézzen ki olyan ocsmányul egy játék, ahogy a videón.

Láthatod te is, hogy manapság mennyi GPU-s PhysX játék érkezik. Gyakorlatilag semmi, ennek a fő oka, hogy a CPU-s kód utolérte teljesítményben a GPU-sat. Utóbbit már nincs értelme alkalmazni. Nem is használják.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#54) huskydog17


huskydog17
addikt
LOGOUT blog

Szóval ez az új "Ashes of the Singularity": ahogy mások is írták előttem, sajnos ez is egy olyan game, ami tech demo-nak készült, pont úgy mint az AotS. Itt annyi a különbség, hogy a PS5 miatt talán van pár száz játékos világszerte, de ettől a játék nem csak közepesen gyenge, de a Metacritic értékelések alapján kifejezetten pocsék lett.

Nyilván az AMD a jóval korlátozottabb büdzséjéből nem tud több AAA projektet fizetni, így nem tehet mást, minthogy 1-2 nagyobb cm mellé vesznek időnként 1-1 noname címet is, hogy hosszabb legyen a partner lista a PR anyagban (ez a befektetők miatt fontos).
A Godfall fejlesztői az AMD pénzéből megcsinálták a PC verziót a cikkben említett korlátozásokkal, hiszen valszeg ez is áll a szerződésben. A Big Navi-nak jelenleg az egyetlen jelentős előnye az Ampere-ral szemben a több VRAM. Hülye lenne az AMD ezt nem kihasználni, ez üzleti húzás, semmi több.

A Godfall fejlesztői pedig az Epic-től kapott csekkel meg tudják csinálni az alternatív Ray Tracing feature-t NV-re, hiszen ha majd lejár az Epic exkluzivitás és kijön a játék Steam-re, számukra öngyilkosság lenne ha NV kártyákon jelentős korlátozás lenne még mindig. Az AMD-nek elméletben az Epic exkluzivitás időszak jól jön, de ha figyelembe vesszük, hogy ez a noname játék elég fos lett és a Big Navi ugyanolyan katasztrofális launch-t kapott, mint az Ampere (nem lehet kapni), nos, nem túl valószínű, hogy az AMD ebből jelentős gyakorlati hasznot fog húzni, de legalább jól fog mutatni a saját PR anyagukban, hogy "van egy PS5 title, ami csak a mi kártyánkon fut teljes pompájában"

Ami még érdekes, hogy még az AotS is sokkal jobb értékeléseket kapott, mint a Godfall és PS5 platformon is gyenge közepest kapott, szóval nem az a cím fogja segíteni az eladásokat.

Év végére erre a játékra a kutya se fog emlékezni.

[ Szerkesztve ]

Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

(#55) Duck663 válasza Abu85 (#53) üzenetére


Duck663
őstag

Abu NE terjessz zöldséget!!! A Physx CPU-s kódja, el van cs...ve, közelében sincs annak, mint ahol lehetne/kellene. Korábban hoztam már példát, (játék nevét simán elfejeltettem) hasonlítsd össze még a régi Ageia féle szoftveres drivert, bármely másik nv féle physx meghajtóval, minimum a negyede lesz a tempó, pedig nem most történt a felvásárlás, lett volna mit fejleszteni, de csak visszafejlesztettek. A processzorok is fejlődtek, a magok száma már-már egy dinnyét is leköröz, a Physx CPU-s teljesítménye pedig továbbra is a béna hátsója alatt, 8km-rel.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#56) Komplikato válasza Cassi (#20) üzenetére


Komplikato
veterán

Szerintem abban most is van, legalább is a kint lévő gameplayek alapján.

"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)

(#57) FoxiestFox


FoxiestFox
félisten

Ott legelésznek tétlenül az egyre erőpsebb cpu-k, úgyhogy éppenséggel bőven ideje lenne az újabb és újabb eye candy helyett végre valódi fejlődést látni a játékokban.
Ha az utolsó szép pc gaming érában ilyen Max payne 2 - Half Life 2 a Havokot olyan gyönyörűen hajtotta soft bodyval, ragdollal, víz fizikával együtt egymagos Pentium III-asokon, akkor nem értem, hol vannak az ezeknél nagyságrendekkel minőségibb hasonló effektek a nagyságrendekkel erősebb CPU-kon és újabb játékokból...

(#58) Abu85 válasza huskydog17 (#54) üzenetére


Abu85
HÁZIGAZDA

Anyagilag nem megterhelő a sugárkövetést megcsinálni. Maga az effekt nem drága. Nem pénzre van szükségük, hanem egy olyan szervizkönyvtárra, ami képes detektálni a találatot DXR alatt, és azt átadni egy másik rendszerre. Ennyi a lényeg. Ehhez tehát nem pénz kell, hanem egy funkció az NVAPI-ba, ahogy az AMD is belerakta ezt az AGS 6.0-ba.

#55 Duck663 : Már nagyon régóta nagyon gyors a CPU-s PhysX. Ne a múlt legendáiból éljetek meg, hanem nézzétek meg az új verziókat. A mostani verzió simán az egyik leggyorsabb CPU-s fizikai motor. Annyira gyors, hogy a régi GPU-s teljesítményt is üti CPU-ból. Nem véletlen, hogy manapság nincsenek GPU-s PhysX címek, csak lassítanák a feldolgozást.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#59) Duck663 válasza Abu85 (#58) üzenetére


Duck663
őstag

Aha persze, játékok alatt ez miért nem látszik??? Nem legenda a probléma, az FPS számláló /CPU terheltség/ fizikai gyorsítás szintje mutatja. Lásd Frostpunk.

[ Szerkesztve ]

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#60) Abu85 válasza Duck663 (#59) üzenetére


Abu85
HÁZIGAZDA

Melyik olyan játék használ GPU-s gyorsítást, ami új PhysX-et alkalmaz? Amióta - cirka egy éve - ennyire gyors a rendszer, azóta nincs értelme pénzt pazarolni a gyorsításra.

A Frostpunk nem használ GPU-s PhysX-et.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#61) Duck663 válasza Abu85 (#60) üzenetére


Duck663
őstag

CPU-ról van szó, nem GPU-ról.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#62) Abu85 válasza Duck663 (#61) üzenetére


Abu85
HÁZIGAZDA

Tudom. A PhysX ebből a szempontból már bőven nem olyan, mint régen. Nagyságrendekkel gyorsabb. Ezért nincs új GPU-s PhysX-et használó játék, leginkább lassítást tud csak adni.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#63) Duck663 válasza Abu85 (#62) üzenetére


Duck663
őstag

Max papíron gyorsít, játékokban nem látszik. Mondj egy olyan játékot amiben jól működik CPU-n a physx!

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#64) Abu85 válasza Duck663 (#63) üzenetére


Abu85
HÁZIGAZDA

Mindegyik Unreal Engine 4.18 vagy újabb verziójú motort használó.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#65) Duck663 válasza Abu85 (#64) üzenetére


Duck663
őstag

Amiben már nincs Physx?! :D Oké

Van kb 3 játék ami a 4.18 és 4.23 közötti verziókat használja, mert a 4.23-tól kidobták a physx-et és jött a Chaos. Hát ezek után nem biztos, hogy olyan nagyon hirdetned kellene a CPU-s physx-et... :)

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#66) Abu85 válasza Duck663 (#65) üzenetére


Abu85
HÁZIGAZDA

A Chaos nem a PhysX helyett jön, hanem mellé. Az UE4-nek továbbra is a PhysX a fő fizikai motorja, de például a romboláshoz a chaos lesz bevetve, míg a végeselem metódust használó szimulációkhoz a FemFX. Ezek viszont nem tudják helyettesíteni a PhysX-et, teljesen máshogy működnek.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#67) Duck663 válasza Abu85 (#66) üzenetére


Duck663
őstag

Ez most olyan, mint a 3DMark RT tesztje és a Infinity Cache viszonya ugye? Hú de kedvezni fog neki, aztán kidől a sorból. :) Jól működik, de mégsem!

Nem helyettesíteni akarják, hanem egyszerűen JOBB rendszer kell!!! A UE 4-ből kigyomlálják, az UE 5-nek pedig semennyire sem lesz része a Physx. Mert egyszerűen sz@r, és mint tudjuk abból várat nem lehet építeni.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#68) Abu85 válasza Duck663 (#67) üzenetére


Abu85
HÁZIGAZDA

Pontosan, azzal a különbséggel, hogy a 3DMark nem látott még Radeont, de pont úgy rá lehet optimalizálni a működést az Infinity Cache-re, ahogy ezt már megtette a Watch Dogs: Legion, a Dirt 5, és még pár készülő cím. A két említett címben gyökeresen mást látsz, mint a 3DMark tesztjében. ;)

Jobban nehéz lenne csinálni. A lényeg itt az, hogy bizonyos modulokra keressél alternatívát. Egyébként az Unreal Engine 5-ben is lesz PhysX. Le tudnák cserélni, de legalább tíz év lenne, mire írnak ugyanilyen gyorsat. Eközben a PhysX ingyenes, nyílt forráskódú, mindennek megfelel, amire az Epicnek kell.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#69) Strezi válasza Abu85 (#68) üzenetére


Strezi
őstag

Hehe, aktuális vesenmyautós címbe is elkezdték a kollégák az RT shadereket pakolni :K

Használt LiFePo 15kWh akuk eladóak! ... Passzív ház klímás fűtéssel, 2011 - | Napelem, 2013 - | Tesla, 2019 - ...

(#70) Duck663 válasza Abu85 (#68) üzenetére


Duck663
őstag

Majd kiderül, az idő megmondja.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#71) Synthwave


Synthwave
HÁZIGAZDA

Godfall helyett Gandalfot olvastam elsőre, majd egy pillantra elrévedtem, hogy mivan.

:DDD

SKILLNUDGE - it kinda ownz you.▐ My Quake Live/DOOM PoVs(YT): http://tinyurl.com/oe5zwa2▐ 3dfx / Glide & SGI 4EVER▐Golden '80s-'90s▐▐▐▐▐▐▐▐ SZÁNKÓVAL A GERINCEDBEN NEM VIDÁM A KARÁCSONY.

(#73) huskydog17 válasza Duck663 (#63) üzenetére


huskydog17
addikt
LOGOUT blog

Példa

Ez "csak" 3.4-es verzió, ami már alapból veszettül gyors, játékmenetre is kihatással van a fizika, az egész CPU-n fut, nagyon alacsony gépigénnyel. Azóta a PhysX még tovább fejlődött, a 4-es verzió még gyorsabb lett és ahogy Abu is írta, teljesen nyílt forráskódú, így mindenki úgy módosítja, ahogy akarja, vagyis az alapból gyors tempót még jobban lehet fokozni.
Nem véletlen, hogy az Unreal és Unity Engine alapértelmezetten ezt használja. A Unity tavaly migrált át PhysX 3.4-ről 4.1-re.
Brutális mennyiségű játék használja valamelyik CPU PhysX SDK-t, listát lehetetlen összeállítani, mert nincs olyan ember a világon, aki mindet összeszedné.

Az Exor Studios csak azzal, hogy az X-Morph-ot PhysX 3.3-ról 3.4-re migrálta, 2-3× gyorsulást ért el.

[ Szerkesztve ]

Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

(#74) Abu85 válasza #32839680 (#72) üzenetére


Abu85
HÁZIGAZDA

A memóriazabálás attól függ, hogy mennyire messzire lövöd a sugarakat. Ahogy többször írtam, a DXR futószalagok nem támogatják azt, hogy a sugár kilövése után módosuljon a LOD, tehát már a sugár kilövésekor meg kell ezt határozni, és ha mondjuk a találat a kamerától távol van, akkor is a nagy részletességű tartalommal számol az effeket. Az RT onnan lesz memóriazabáló, hogy sokáig pásztázzák a jelenetet a sugarak, tehát elég messzi objektumokat is eltalálnak, amelyek esetleg a minimális részletességgel vannak betöltve, de az RT miatt be kell rakni a memóriába a maximális részletességű verzióját is.

Egy GI vagy egy reflection is ugyanígy enné a VRAM-ot, ha messzire pásztáznák a jelenetet a sugarak. A régebbi játékokban azért nem volt ez gond, mert a sugarak azért egyáltalán nem mentek annyira messze, de az új játékokban, főleg az olyen open world kaliberű holmikban sokkal tovább kell lőni ezeket. És az aktuális DXR futószalagokon ez bizony zabálja a VRAM-ot. Erre az egyik megoldás, hogy limitálod az effekt működési távolságát, de nem ezt választották a fejlesztők, hanem megpróbálják elérni, hogy kíméljék a memóriát, amellett, hogy megőrzik az effekt minőségét. Ehhez viszont ki kell lépni a szabványon túlra, mert a DXR nem alkalmas számos olyan optimalizálásra, amivel memóriát lehet spórolni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#75) b. válasza Abu85 (#74) üzenetére


b.
félisten

A Godfall nem olyan nagy távolságokkal operál mint a reflectiont vagy GI-t használó Metro vagy Battlefield.
messze nem open world csak azt a látszatot kelti.Értelmetlen felhasználása ez ennek a dolognak igazából azért történik, hogy a vramból kifusson a játék Nvidián.nem képvisel hozzá adott értéket főleg nem hatalmas távolságokban. Most ha más nincs a Vram nagysága a fontos tényező természetesen, felesleges marketinget ne erőltessük.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#76) Abu85 válasza b. (#75) üzenetére


Abu85
HÁZIGAZDA

Sokkal nagyobbal. Az eddig megjelent játékok közül ők küldik a legmesszebb a sugarakat. Ezért probléma nekik a memória, míg a többinek ezért nem volt az. Ez van. De elvileg meg fogják oldani úgy, hogy nem kell visszavenni a távolságból.

Ha erre lesz életképes megoldás, akár specifikusan per gyártó alapon is, akkor az másnak is jó, mert kezelik az egyik legnagyobb gondot: a memóriazabálást. A megoldás mehet is a következő DXR-be.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#77) b. válasza Abu85 (#76) üzenetére


b.
félisten

erre felesleges bármiféle megoldás, mert hülyeség. Semmi értelme nincs egy ilyen játékban nem érzékelhető távolságokban árnyékokat számoltatni, hogy kifusson a vramból a játék. ugye ez a hirhedt Nvidának felvetett tesszelálás a föld alatt, na ez is valami hasonló. Ráadásul nem igazán képvisel hozzá adott értéket kinézetre.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#78) huskydog17 válasza b. (#77) üzenetére


huskydog17
addikt
LOGOUT blog

Azért lett ilyen, mert az AMD így akarta, ezért fizettek a fejlesztőknek. A fejlesztők simán csinálhattak volna olyan eljárást is, amit az eddigi alkotások, így sokkal alacsonyabb lenne a VRAM fogyasztás, de a megrendelés kikötötte azt, hogy kifusson a 10 GB-ból, ezért a fejlesztők az ennek megfelelő eljárást választották és becsomagolják egy "nekünk a minőség a fontosabb" PR bulshit dobozba.

Ez a másik oldalon is van amúgy: a Cyberpunk 2077 ray tracing effektjei kizárólag RTX kártyákon fognak menni kezdetben (a játék megjelenésekor), majd később jön az AMD patch. Nem véletlen, az NV így kérte, ezért fizettek a lengyeleknek egy csomó pénzt.

Amúgy igen, értelmetlen, de pénz beszél. Nem érdemes ebbe többet belelátni.

Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

(#79) b. válasza huskydog17 (#78) üzenetére


b.
félisten

Igen egyetértek.
A CP eljesen szabványos DXR megoldás, nincs semmi varázslat ezt nem is tagadják szerencsére, csak Nvidia időszakos exkluzivitást kér a pénzéért cserébe. Szerintem ez korrektebb egyenesebb megnyilvánulás mint ez.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#80) Yutani válasza b. (#79) üzenetére


Yutani
nagyúr

Tehát amit Abu mond, semmiképpen sem lehet igaz, mert a gonosz AMD direkt kiszúr az NV tulajokkal.

Apropó, azt tudtátok, hogy a nagy magasságban átrepülő jetek kémiai anyagokat szórnak a légkörbe, hogy mérgezzék és butítsák a zemberiséget? Most kiderült az is, hogy az AMD pénzeli a műveletet.

#tarcsad

(#81) Piszmaty76 válasza Yutani (#80) üzenetére


Piszmaty76
aktív tag

:D

Thermaltake Overseer RX-1, Seasonic Prime 750W Titanium, ASUS C8H X570 wifi, R9 5900X, Thermalright Peerless Assassin SE, G.SKILL 32GB KIT DDR4 3600MHz CL16 Trident Z RGB, Sapphire 7900XTX Nitro+, Samsung 960 pro NVME gen3. 256GB/Kingston KC3000 NVME gen4. 2TB, LG QNED863QA 55" (HDMI 2.1)

(#82) b. válasza Yutani (#80) üzenetére


b.
félisten

Tehát nézzük hülyének a másikat és bélyegezzük trollá szokás szerint tőled mert véleménye van.

1. Nem Abu nem mond igazat, mert ő csak azt a PR.- t mondja amit a Godfall keszítői/AMD.
2 A kommunikáció véleményem szerint gyakorlatilag igaz.
3 Attól hogy igaz ez egy felesleges dolog mert nem érzékelhető, gyakorlatilag zéró elönnyel jár. A valódi szándék ebben az hogy Nv kártyákat a marketing a cikkekben a Vram hiánya miatt említse meg. Ügyes dolog.

4 Ha értesz az RT hez egy kicsit is a gúnyolódás mellett akkor tudod hogy az árnyékolás a legkevésbé megterhelő folyamatot jelentik, lásd WOT ahol szintén erre szamoljak.Felesleges távolságokra, gyakorlatilag alig látszó objektumok szamoltatnak ez miatt hogy megnoveljek a Vram igenyet.

Tehat attól hogy ügyes és igaz egy bullshit. nem gonosz AMD , ez az üzlet. A PR az viszont kamu. Lehet ezt úgy is ahogy a CD Project csinálja.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#83) Yutani válasza b. (#82) üzenetére


Yutani
nagyúr

Mi van, ha azt mondta a fejlesztőnek az AMD, hogy itt a 16 gigás kártya, tudtok messzebbre lőni sugarat, próbáljátok ki. Hú de fasza, nem fut ki a VRAM-ból, az RTX 2000 meg kit érdekel, az úgyis a múlt. Aztán jött az RTX 3080 10 gigával, kipróbálták: de gyerekek, itt nagy b+ van, a piac nagyobb részének nem lesz így jó, vissza kell venni a távolságot, mert nem férünk bele 10 gigába. Na fasza, csak itt a határidő, ki kell jönni ezzel a sz@rral. Mindegy, a parancsot meg nem b@szhatjuk, mert szaporodik, szóval akkor release, de azonnal kérjük be a dokumentációt az NV-től és kezdjünk dolgozni a megoldáson, hogy NV kártyákon is jól fusson.

Persze ez csak fiction, de van olyan jó, mint a ti változatotok. :)

#tarcsad

(#84) Cassi válasza b. (#82) üzenetére


Cassi
senior tag

Senki sem panaszkodna, ha csináltak volna egy alapszintű DXR megoldást, ami fut Nv-n is, és egy emeltet, ami csak az új Radeonokon. Akkor a kettőt össze is lehetne hasonlítani. De nyilván nem volt rá idő, tudom. :U

(#85) Cassi válasza Komplikato (#56) üzenetére


Cassi
senior tag

A fórumokban többen azt írták, hogy szerintük (még) nincs RT a PS5-verzióban. Érdekes lenne látni, PS5-ön mekkora fps veszteséget tud okozni (ha kikapcsolható egyáltalán).

(#86) zsintai1987


zsintai1987
tag

Nemtudom, én anno úgy tanultam, hogy az árnyékot egy játékban sokkal nehezebb kiszamoltatni mint magát az objektumot, ezért is használtunk durva szélű árnyékot(bár ez 10 éves tudás)
Régen wotoztam de a "bugworld" engine már 10 éve is szitok szó volt, ennyit fejlődtek volna azóta? Ha igen akkor megértem, de már hány éve heggesztik azt a játékot? 12?

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#89) gejala válasza huskydog17 (#54) üzenetére


gejala
őstag

"de ettől a játék nem csak közepesen gyenge, de a Metacritic értékelések alapján kifejezetten pocsék lett."

A játékmenet alig haladja meg egy mobil játék színvonalát, csak tettek alá egy csilli-villi grafikát. Szó szerint, mert mindennek olyan fényvisszaverése van, hogy kiég a szemed. :DDD

Mire kijön a patch, legfeljebb a benchmarkolók lesznek a játékban. ;]

(#90) Abu85 válasza b. (#77) üzenetére


Abu85
HÁZIGAZDA

Azért elég jelentős problémát jelent a nagy részletességű LOD-ot használni távol. Megbirkózik vele a hardver, de nagyon zabálja a VRAM-ot. Szóval ennek a kezelése nem egyáltalán nem felesleges, mert a VRAM-mal lehetne ám spórolni is. A brute force megvalósítás nem mindig kifizetődő.

#88 morgyi : A Godfall implementációja az AMD-n azt csinálja, hogy dinamikusan LOD-ot vált a sugár kilövése után. Ezt programozható bejárással meg lehet csinálni nagyon egyszerűen. A gondot az jelenti, hogy szabványos futószalagon belül nem programozható a bejárás. Az NVIDIA-ra már dolgoznak egy megoldáson, ami hasonlóan képes a LOD-dal játszani, igaz nem pont ugyanúgy, ahogy az AMD-n teszik, vannak vele kezelendő kellemetlenségek, de úgy néz ki, hogy ráhackelhető ez a működés a hardverre, és így Ampere-en is spórolnak a VRAM-mal, miközben az effekt minőségében nem éri majd hátrány a GeForce-okat sem. Van realitása annak, hogy ezt megcsinálják. Ez fontos lehet számukra, mert ez az optimalizálás jelentheti a GeForce-okon a különbséget sebességben. Nem mindegy, hogy 100 fps-sel fog menni a 3080, vagy 20-szal.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#91) Duck663 válasza huskydog17 (#73) üzenetére


Duck663
őstag

Hát srácok, én ennek a Physx dolognak majd akkor hiszek, hogy ez jól működik CPU-n, ha a saját gépemen ezt tapasztalom. (Eddig ez egyetlen Physx-es játékkal sem történt meg.)

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#92) melega válasza Piszmaty76 (#50) üzenetére


melega
őstag

Srácok a játék nehézsége milyen?

Dark souls, Sekiro nehézségű vagy inkább egy Darksiders 1 nehézségű?

A bossifhtok milyen nehezek Dark souls ,12 vagy Darksiders szinvonalúak?

(#94) melega válasza #32839680 (#93) üzenetére


melega
őstag

Ez több tesztben is mondták a youtubon, meg az ára a felét nem éri meg, még arra panaszkodtak.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.