Hirdetés

2024. április 25., csütörtök

Gyorskeresés

Hozzászólások

(#201) Kansas válasza 1dude (#200) üzenetére


Kansas
addikt

Azzal nem mi vagyunk beljebb, hanem a játékfejlesztők. Nagyon sok játéknak kéne használnia az UE5 motort ahhoz, hogy mi is beljebb legyünk... esetleg abban lehet reménykedni, hogy a Mantle mintájára ez a szoftveres RT is bekerül majd szabványos API-ba, vagy legalább DirectX-be. Az mondjuk valóban nem lenne rossz...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#202) 1dude válasza Kansas (#201) üzenetére


1dude
aktív tag

Én beljebb leszek vele, ha nem 3 VGA -t kell majd itthon tartanom, mert mikor melyiken fut valami jól/rosszul. Erre gondoltam egyébként, hogy legyen benne valami szabványos API -ban.

[ Szerkesztve ]

(#203) b. válasza 1dude (#202) üzenetére


b.
félisten

az Nvidia kártyák szabványos API-t támogatnak már a megjelenésük óta,a DXR-t, ezért fut AMD-n is és Intelen is

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#204) Kansas válasza 1dude (#202) üzenetére


Kansas
addikt

"3 VGA -t kell majd itthon tartanom, mert mikor melyiken fut valami jól/rosszul"
Most ugye hülyéskedsz? Semmi értelme 3 kártyát tartani otthon, se most, se később, se korábban nem volt.
Akkor már inkább 2 kártya árából vegyél egy erősebbet, mindegy hogy melyik gyártótól(na jó, Inteltől azért nem esélyes hogy egyhamar kapsz), a harmadik árát spórold meg és máris sokkal magasabb teljesítményt kaptál, mintha 3 kártyát tartanál, és pénzed is több maradt...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#205) Kansas válasza b. (#203) üzenetére


Kansas
addikt

Csak a DXR a hardveres implementáció miatt nem valami rugalmas, alighanem azért álltak neki az Epic-nél szoftveres RT fejlesztésének.

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#206) b. válasza Kansas (#205) üzenetére


b.
félisten

Szerintem az miatt, mert konzolok a fő célirány és még mobilokra és ARM alapú cuccokra is megy ,Apple is támogatott rá. A Windows és a Dx 12 egy része csak ahogy olvastam a nyilatkozatokat róla.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#207) PuMbA válasza b. (#206) üzenetére


PuMbA
titán

Igen, a Lumen egyik lényege, hogy a konzolokban lévő RTX 2070 / RX5700XT sebességű VGA-val lehessen elég jó minőségű RT 60fps vagy kiváló minőségű RT 30fps-sel. Ez benne is van az eddig linkelt doksiban:

"Lumen's Global Illumination and Reflections primary shipping target is to support large, open worlds running at 60 frames per second (FPS) on next-generation consoles. The engine's High scalability level contains settings for Lumen targeting 60 FPS.

Lumen's secondary focus is on clean indoor lighting at 30 FPS on next-generation consoles. The engine's Epic scalability level produces around 8 milliseconds (ms) on next-generation consoles for global illumination and reflections at 1080p internal resolution, relying on Temporal Super Resolution to output at quality approaching native 4K."

[ Szerkesztve ]

(#208) 1dude válasza Kansas (#204) üzenetére


1dude
aktív tag

Pedig nagyon esélyes ha tovább fogják nyomni a hardveres RT -t. Egyik új kártyát sem fogom megvenni, semmi értelme. Csapnivaló az ár/frame mutatójuk.

[ Szerkesztve ]

(#209) b. válasza 1dude (#208) üzenetére


b.
félisten

Nincs hardveres RT .
A DXR egy szabványos szoftveres eljárás amit hardveresen gyorsítanak.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#210) Busterftw válasza b. (#209) üzenetére


Busterftw
veterán

Így-így . :K

(#211) PuMbA válasza b. (#209) üzenetére


PuMbA
titán

Az Unreal Engine dokumentációiban hardveres RT-nek hívják, ami a VGA erre a célra szánt hardveres egységén fut, és szoftveresnek, ami az általános számolóegységeken.

[ Szerkesztve ]

(#212) b. válasza PuMbA (#211) üzenetére


b.
félisten

Minden szabványos eljárás fut RT gyorsítók nélkül is, csak a sebessége nem mindegy. Ezért nem lehet aktiválni egyes eljárásokat szoftveres gyorsítás esetén Unreal 5 ben, mert értelmetlen lenne 3 FPS-sel futtatni.
Ezért ad lehetőséget pl RTXGI és hasonló gyártóspecifikus beépülő modulok használatára meg hoznak pl saját eljárásokat a saját motorjukhoz.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#213) Abu85 válasza b. (#212) üzenetére


Abu85
HÁZIGAZDA

Az Epic pont azért használja a DXR helyett a saját compute shaderes RT eljárását, mert sokkal gyorsabb, mint amit a DXR-ből ki tudnak hozni.

Igen. Például pont a Lumen vs. RTXGI a probléma. A Lumen nem csak jobb minőségű, de lényegesen gyorsabban fut azzal, hogy nem nyúl hozzá a DXR-hez. Az Epic számára nem lenne értelme lassabb és gyengébb minőségű eljárásra váltani.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#214) b. válasza Abu85 (#213) üzenetére


b.
félisten

Hogy lenne jobb minőségű egy olyan eljárás ami nem képes dinamikusan mozgó tárgyakon működni, bőreffektust kezelni, vagy nem képes csontvázakon és vízen aktiválódni, korlátozottan képes csak raytracing effektekre szoftveres működéssel?
Max a sebességet elfogadom a DXR ebben hiányos, nem tud versenyezni egy hibrid eljárással sokkal gyorsabba Lumen.
Jelenleg a legjobb eljárás az RTXGI Nvidia kártyán a többi meg csak vitát generálna köztünk tehát ki is szálltam nem érdekel hogy folysz bele megint abba milyen szar az Nvidia eljárása szerinted.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#215) Abu85 válasza b. (#214) üzenetére


Abu85
HÁZIGAZDA

Miért ne működne a Lumen a mozgó objektumokon? Nincs ilyen limitációja.

A Lumen GI-nak pár limitációja van csak. Például nem üzemképes statikus megvilágítás mellett, amire mondjuk Lumen mellett nincs is nagyon szükség. Nem kompatibilis a forward leképezővel, de manapság mindenki a deferredet használja. Vizet pedig támogat, csak az úgynevezett Single Layer Water Shading Modelt nem. Ezt amúgy később támogatni fogja. És itt nem a Lumennel van a gond, hanem a Single Layer Water Shading Modellel, mert más scene based GI megoldás sem kompatibilis vele.

Ha az lenne a legjobb, akkor azt használná az Epic, de sajnos messze van a minősége és a sebessége a Lumentől.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#216) Busterftw válasza b. (#214) üzenetére


Busterftw
veterán

Majd lesz pár kijózanító benchmark később, persze nem itt az oldalon. :)

Addig meg kell újra magyarázni, hogy a félgőzös RT gyorsabb mint a komplexebb.

[ Szerkesztve ]

(#217) b. válasza Abu85 (#215) üzenetére


b.
félisten

Nem a levegőből jön a sebesség. [link]
Ilyen az a mikor egy szakértő elemzi a két eljárást.
Az RTXGI pontosabb és finomabb, valósághűbb míg a Lumen gyorsabb, de messze nem jobb minőségű.
Itt a fenti összehasonlítás videó formában. [link]
Az RTXGI-t erős hardverek nélkül nem lehet futtatni, ezért nem használja ezt Epic egy általános, konzolokra fejlesztett motorban, ilyen egyszerű, nem azért mert a Lumennek jobb a minősége.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#218) Raymond válasza Abu85 (#215) üzenetére


Raymond
félisten

"Miért ne működne a Lumen a mozgó objektumokon? Nincs ilyen limitációja."

Akkor mukodik ha hardveres RT-t hasznalsz vele, egyebkent nem.

Privat velemeny - keretik nem megkovezni...

(#219) Abu85 válasza b. (#217) üzenetére


Abu85
HÁZIGAZDA

És ez a szakértő elfelejtette leírni, hogy miképpen paraméterezte a Lument, mert van rá azért nem kevés beállítás. Például milyen tracing módot használt, mennyi volt a reflection capture felbontása? A GI paraméterezésnél mit állított be ezekre: Lumen Scene Lighting Quality, Lumen Scene Detail, Lumen Scene View Distance, Final Gather Quality, Max Trace Distance, Quality? Nem tudni? Ó de kár! De azért micsoda szakértés volt. :))

Nem az Epic nem azért használja az RTXGI-t, mert erős hardverek nélkül nem futna, ugyanis, ha a Lument felhúzod maxra, akkor az is megfektet mindent, hiszen kb. 100x többet számol, mint default, és persze a képminősége is sokkal jobb lesz, ugyanúgy az RTXGI-t is le lehet paraméterezni a defaultról, hogy gyorsan fusson, csak szar lesz a minősége. A gond az, hogy az RTXGI csak DXR-t használ, és a DXR-rel az UE5-nek egy rakás képessége egyszerűen nem kompatibilis. Tehát vagy az UE5 képességeit használják, vagy a DXR-t cserélik le olyan alternatívára, amivel használhatók a motor újításai.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#220) b. válasza Abu85 (#219) üzenetére


b.
félisten

jah hát persze csak a szokásos adu ász. Mit is tudja ő, igazából csak erre tartanak fent egy renderelő stúdiót Kanadában ,és ebből él, meg összeütött egy kis összehasonlítást 4 K ban. jah nem, ez a szakértés amit itt te mondtál.
idézet tőled : "messze jobb minőségű" ! köszi elhisszük! :R
na további jó szórakozást nem ér ennyit ez az oldal már sajnos, lehet tovább etetni a rajongóida az Ubisofttal meg a Lumennel.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#221) Abu85 válasza b. (#220) üzenetére


Abu85
HÁZIGAZDA

És ebbe az összehasonlításba nem fért bele megmutatni, hogy miképpen paraméterezte a két eljárást? Ez kb. pár kép, vagy 10 másodperc a videóból.

A Lumen és az RTXGI is két olyan eljárás, amelyek működése állítható. Van egy default működése mindkettőnek, de pozitív-negatív irányba lehet húzni mindkettőt, amitől lassulnak és gyorsulnak, illetve nő a minőség és csökken.

Az Ubisoftot nem értem, hogy miért keverjük ide. Ők teljesen mást csinálnak, mint az Epic. A Lumen azért különleges, mert van szoftveres és hardveres módja is, annak előnyeivel és hátrányaival. Az Ubi megoldásának csak hardveres módja lesz.

#222 b. : Láttam a videót. A beállításokat nem látom benne.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#222) b. válasza Abu85 (#221) üzenetére


b.
félisten

ott a videó belinkeltem .. : [link]

nem Ubisoftot akartam írni, téves..

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#223) Dr. Akula válasza PuMbA (#211) üzenetére


Dr. Akula
nagyúr

Szerintem itt hardveres = GPU-val gyorsított, szoftveres = CPU kiizzadja 1-2 fps-sel.

(#224) Kansas válasza Dr. Akula (#223) üzenetére


Kansas
addikt

Nem igazán.
Hardveres: fix funkciós RT egységek által számolt.
Szoftveres: shader kódban futó, általános célú CUDA/shader magokon számolt

NVidia tud DXR-kompatibilis RT-t szoftveresen is, GTX GPU-kon pl. CUDA magokon... nem valami gyors, nyilván.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#225) PuMbA válasza Dr. Akula (#223) üzenetére


PuMbA
titán

Nem, hiszen a szoftveres RT gyorsan fut jelenleg is a Fortnite-ban :) Bármilyen grafikai elemet CPU-val számoltatni értelmetlen, mert ki kíváncsi az 1-2 fps-re?

[ Szerkesztve ]

(#226) Busterftw válasza PuMbA (#225) üzenetére


Busterftw
veterán

Csak ugye azt is kell nézni, hogy "mennyi" RT fut.
Lásd a Portal RTX:
"Unlike with Quake II RTX, Portal with RTX implements fully ray-traced lighting, which means every light-source across the game is ray traced, and isn't a point-light that casts a stencil shadow. "

A Quake II is RT-t használ és ugyanúgy érvelhetnénk hogy " gyorsabb" mint a Portal RTX, csak ugye pontosan azért, mert "kevesebb" RT van használva.

Ha a Fortnite-ban is úgy lenne használva az RT mint Portalnál, valószínűleg el sem indulna.

(#227) 1dude válasza b. (#209) üzenetére


1dude
aktív tag

Akkor hivjuk aminek szeretnéd, ha gyártóspecifikus HW kell majd hozzá, veszett ügy.

(#228) Busterftw válasza 1dude (#227) üzenetére


Busterftw
veterán

Nem kell gyártóspecifikus hardver mert a DXR-t fut szoftveresen, lásd AMD.
Az már más kérdés, hogy melyik fut gyorsabban.
Semmi nem akadályozza meg az Intelt és az AMD-t, hogy hardveresen gyorsítanak ők is.

(#229) PuMbA válasza Busterftw (#228) üzenetére


PuMbA
titán

AMD-nél se szoftveresen fut, vannak rá gyorsító egységek, amit az AMD Ray Accelerator-nak hív :) Az RDNA2 architektúra felépítési diagramjában láthatóak ezek az egységek és a megjelenéskor körbe lett járva ez a téma.

[ Szerkesztve ]

(#230) 1dude válasza Busterftw (#228) üzenetére


1dude
aktív tag

Aztán majd nehogy úgy legyen ez is mint a az NV féle G-sync modul, hogy meg a süllyesztőbe mert a pénzéhség nem jött be :DDD

(#231) Busterftw válasza 1dude (#230) üzenetére


Busterftw
veterán

Süllyesztőbe?
Él és virul, sőt érkezett új HDR tier a G-Sync Ultimate.
Bármikor vehetsz dedikált scaleres G-Sync monitort vagy TV-t.

PuMbA
Azért nem teljesen ugyanaz a kettő :
"the RT Cores are dedicated separate hardware cores that have a singular function, while the Ray Accelerators are a part of the standard Compute Unit structure in the RDNA 2 architecture."

(#232) 1dude válasza Busterftw (#231) üzenetére


1dude
aktív tag

Soha jobban ne viruljon egyik üzletáguk se ;]

(#233) Abu85 válasza Busterftw (#231) üzenetére


Abu85
HÁZIGAZDA

Már valóban nincs eredeti G-Sync modulos monitor. Az NVIDIA 2019 eleje óta nem követeli meg.

Mind az RDNA 2-ben, és a Turing, Ampere, illetve Ada architektúrában ugyanott vannak az RT magok: a textúrázó mellett. Ebből a szempontból egyik architektúra sem különbözik. Az RDNA 3-ba is ugyanott lesznek, illetve az Intel Arc-ban is ugyanott vannak.
A különbség az AMD és az NV megoldása között nem ez, hanem az, hogy az NV a bejárást fixfunkciósra tervezte, míg az AMD programozhatóra.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#234) Busterftw válasza Abu85 (#233) üzenetére


Busterftw
veterán

Az Nvidia honlapján nem ez szerepel.
A G-Sync és G-Sync Ultimate monitorokban Nvidia scaler van.

G-SYNC Ultimate
Features the top NVIDIA G-SYNC processors to deliver the very best gaming experience, including lifelike HDR, stunning contrast, cinematic color, and ultra-low latency gameplay.

G-SYNC
Features a NVIDIA G-SYNC processor to deliver an amazing experience with no tearing, stuttering, or input lag. Enthusiasts and pro-level gamers can count on full variable refresh rate (VRR) range and variable overdrive for pristine image and outstanding gameplay.

G-SYNC Compatible
Doesn’t use NVIDIA processors, but have been validated by NVIDIA to give you a good, basic variable refresh rate (VRR) experience for tear-free, stutter-free gaming.

(#235) Abu85 válasza Busterftw (#234) üzenetére


Abu85
HÁZIGAZDA

[link] - itt volt régebbről a váltás.

Ilyenkor hozta be azt az NVIDIA, hogy miket fogad el úgynevezett G-Sync processzorként. Ez azért volt nagyon fontos, mert korábban úgy utaltak erre, hogy latest G-Sync processzor, de mivel azt már nem gyártják, így szimplán van egy specifikáció, hogy a lapkáknak minek kell megfelelnie, és azt lehitelesítik NVIDIA G-Sync processzorként. Ezért nyilván fizetni kell. Viszont ezek a hardverek már nem a saját tervezésű processzoraik, hanem más gyártja, és kapnak egy hitelesítést a funkciók szerint. A régi klasszikus G-Sync processzorok már nincsenek ott ezekben az újabb monitorokban. Ennek a legfőbb oka az, hogy az eltelt időben már több nagyságrenddel olcsóbban is legyárthatók a megegyező képességek, de az NVIDIA nem tervezett belőlük újat. Így terveznek helyette a 3rd party cégek, ha érdekeltek ebben, aztán fizethetnek egy hitelesítést.

Ilyen formában az öszes G-Sync szint egy tesztkörnyezetet takar csak, amelyen belül különböző képességeknek kell megfelelni. De az NVIDIA már hardvert nem ad bele, hanem 3rd party vagy közvetlenül gyártói lapkákat hitelesít le, hogy jók-e a szinthez, vagy nem. Ez a megoldás egyszerűen sokkal olcsóbb. Valós hátránya sincs egyébként, mert igazából semmit olyat nem tudott az NVIDIA saját hardvere, amit más gyártó lapkájával ne tudnának megoldani. Már csak azért sem, mert amióta kifejlesztették az utolsó saját lapkát, azóta eltelt fél évtized.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#236) Busterftw válasza Abu85 (#235) üzenetére


Busterftw
veterán

Nem tudom milyen váltásról beszélsz, amit bemásoltam az a hivatalos Nvidia honlapján van, jelenlegi infó.

Ott az Nvidia azt hozta be (2019 eleje), hogy a Compatible plecsnit Nvidia processor nélkül maguk tesztelik és adják olyan monitoroknak, ami alap VRR élményt nyújt problémák nélkül (flicker, black screen stb).

A HDR miatt pedig jött egy újabb tier, de G-Sync/G-Sync Ultimate-nál Nvidia processor van.

(#237) Abu85 válasza Busterftw (#236) üzenetére


Abu85
HÁZIGAZDA

Arról a váltásról, hogy már nem gyártják a saját lapkájukat. A legutóbbi verzió bemutatása óta eltelt 5 év, és azóta minden évben javítottak a saját lapkáikon a monitorgyártók. Nyilván nehéz lenne őket meggyőzni arról, hogy egy fél évtizede kiadott, sokkal drágábban gyártható terméket használjanak. Emiatt az NV már specifikál egy tear, és oda hitelesíti a partnerek lapkáit. Ennek két előnye van. Egyrészt nem kell gyártaniuk semmit, másrészt a hitelesítés ugyanakkora költség, tehát több pénzük lesz belőle, miközben a gyártók már használhatják is a modern fejlesztéseiket, nem kell ragaszkodniuk egy fél évtizedes holmihoz.

Ez nem azért van, hogy szar legyen a G-Sync nagyobb tierek, hanem azért, hogy jobb legyen, és nyilván egy múlt évben tervezett lapka jobb, mint az NV-nek a 2018-as fejlesztése, vagy a korábbi 2013-as. Viszont hitelesíteni kell, hogy megfelelő-e a specifikációknak.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#238) Busterftw válasza Abu85 (#237) üzenetére


Busterftw
veterán

A modult ők gyártják és adják el a monitor/TV gyártóknak, a chipet (FPGA) nyilván nem, azt veszik.
Pl Igor's Lab megnézett egy G-Sync Ultimate monitort HDR 1000-el, ott egy Intel Altera Arria A10X volt.

A modul sem fel évtizedes hiszen azóta frissült, volt belőle v2 majd a HDR miatt kellett újabb modul.
Wikin az eredeti hardver specifikáció teljesen más mint a cikkben lévő G-Sync Ultimate modul.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.