Hirdetés

2024. május 2., csütörtök

Gyorskeresés

Hozzászólások

(#101) gbors


gbors
nagyúr

Elméleti síkon nagyon érdekes, hogy pontosan mi az oka az NVIDIA-oldali nagyobb CPU-terhelésnek, de a játékosok számára édesmindegy - ha valaki azt gondolta, hogy a pár éve vett 2600X mellé még be lehet ugrasztani egy 3070 szintű kártyát WQHD-re, az nem biztos, hogy most felhőtlenül örül. Emellett ezek az eredmények igencsak nem mindegyek azok számára, akik 120+Hz-en akarnak játszani.

Vicces dolog ez, 2010 környékén AMD oldalon volt potenciálisan jelentős hátrány nem elég erős CPU mellett, úgy látszik, most ennek is sikerült megfordulni. A videokártya-piac bőségesen ellát indokokkal, hogy miért ne vegyek semmit :D

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#102) dSERiES válasza Abu85 (#90) üzenetére


dSERiES
senior tag

Még egyszer köszönöm :R

Low level API, értem.

Egyet mondj még meg akkor, hogy mi oka van a folyamatos 'játékra szóló' driver kiadásoknak akkor? Nagyobb címek esetén jönnek az új driverek, amely ajánlott ahhoz és valamiféle optimalizálást tesz hozzá.
Akkor csak valami köze van a drivernek a dologhoz. Azaz ha rendszererőforrás-kezelési gond van, akkor nem csak és kizárólag az alkalmazás lehet a 'gond'.

[ Szerkesztve ]

⊿sff⊿

(#103) arabus válasza Abu85 (#98) üzenetére


arabus
addikt

Bár nem ez derül ki az Nvidia aktivan használja is.
Micsoda lebőgés hogy az amd egy sima szoftveres inline ray tracing alkalmazásáig jutott el!
Biztos kötött a Microsoft keze ebben a kartellben mivel pár millónyi xbox-ról is szó van a történetben.
Nem kivánok további hablatyokat erről olvasni.
Idővel úgyis kiderülnek ezek a turpisságok.
Ja igen a win 2020 may update óta funkcionálisan támogatott.

Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#104) Snail_Zero válasza dSERiES (#102) üzenetére


Snail_Zero
csendes tag

Persze, hogy nem, folyamatosan jobb teljesítményt adnak az újabb driverek DX12 és Vulkan alatt is.

Fogalma nincs miről hablatyol, csak eteti itt a népet évek óta a marhaságaival meg a paintben rajzolt csoda ábráival :))

(#105) zsintai1987


zsintai1987
tag

Ha ennyire inkompetens a PH, akkor miért olvassák és kommentelnek?
Én nem szeretem a BMW-s cikketek, ezért nem is megyek oda kommentelni
Ahogy nemszeretem a tücc tücc zenét, nem is hallgatom youtubon hogy alakommenteljem, hogy ebbe hol a hangszer?
Ha nem szeretem kis grofót, nem kommentel em alá, hogy hol van ez egy Ákos dalszöveghez.

Ha valaki nemszereti Abu cikkeit, miért olvassa el? És ami a legjobb meg kommentel is alá. Csak nekem tűnik sziszifuszi munkának?
Szoftver fejlesztőként én elolvasom, mert érdekel. Igazat is adok neki ebben a cikkben is.
Tudnátok milesz ha egy fejlesztőt elengednek egy csúcs gépen, abból sz@r lesz. Ha én a 3700xemen elengedem a unityt a 2070s vagy az 5700xtvel, munkatarsamnak közelébe nem lesz az 1600xel 1060 3gvel, nem véletlenül, de nincs is pénz rá.
Meg kapom a feladatot, az MI- bol helyezzék el itt a várban 12t, csináld meg a walking mest rá. Hiába hívom fel a figyelmet hogy srácok ott az a szenabogja os ott frame droppol a 2070en, jön a válasz:hagyd úgy, tag-éld meg. Aztán azóta sem volt kipeccselve...

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#106) arabus


arabus
addikt

Hogy mekkora a parasztvakitás szépen szemlélteti ez a kis részlet a Radeon 19.7.2-es driveréből ami már akkor támogatta a szoftveres ray tracing-et.
Nem azért gyors a radeon mert bivaly erős hanem mert rengeteg dolog van a driverben
kihagyva.
És hogy miért nem fordit figyelmet erre az Nv sem?Mert nem érdeke ebből botrányt kirobbantani amig 2 perc alatt adja el az összes legyártott gpu-t.

Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#107) Abu85 válasza dSERiES (#102) üzenetére


Abu85
HÁZIGAZDA

A shadereket továbbra is ki lehet cserélni. [link] - Ezeket az optimalizálásokat még ma is használják.

DirectX 12 és Vulkan API alatt kevés a változtatási lehetőség. A fejlesztőknek kell megmondani, hogy mit csináljanak. Erre az AMD és az NVIDIA ajánlásokkal dolgozik:
AMD GPUOpen tutorial cikkek: [link]
NVIDIA DirectX 12 Do's And Don'ts: [link]
Ezek eléggé gyártóspecifikusak, mert néhol az AMD és az NVIDIA ajánlásai ellentmondanak egymásnak. Sőt, egyes NVIDIA ajánlások még a Microsoft általános ajánlásaival is szembemennek. Végeredményben a fejlesztő dönti el, hogy mire dolgozik, és ez fontos, mert a driverben már nincs kernel meghajtó.

#103 arabus : Ez megint marhaság, már ne is haragudj.
A fejlesztők azért nem használják a Feature level 12_2 szintet, mert a Microsoft még nem ajánlja. Ennek az az oka, hogy ha ezt kérdezik le, akkor egy DirectX 12 Ultimate API-t használó játék csak Windows 10 October 2020-on tud futni. Ezzel szemben jelenleg minden ilyen játék fut May 2020 frissítésen. Hogy miért? Mert egyenként lekérdezik, hogy van-e DXR 1.1 és VRS. A mesh shadert és a sampler feedbacket még nem használja semmi.
Emellett a feature_level_12_2 egyik nagy hiányossága, hogy nem kínálja fel a DirectX 12 Ultimate API összes képességét. Ha csak ezt kérdezed le, akkor csak a sampler feedback Tier_0_9-hez férsz hozzá, holott létezik Tier_1_0 szintje is, ami a maximális funkciószint. Tehát megint ott vagy, hogy inkább külön lekérdezed, hogy elérd a legjobb képességeket. A DXR-hez érkező traversal shader szintén nem része a feature_level_12_2-nek. Felmerült, hogy jön egy feature_level_12_3, ami már biztosítaná a traversal shadert és a Tier_1_0-s sampler feedbacket, de az egész nem váltott ki osztatlan sikert, mert a fejlesztők egyelőre hülyeségnek tartják úgy a funkciószinteket, hogy a régi Windows 10 verziók miatt mindenképpen le kell kérdezni egyenként a funkciók elérhetőségét. Akkor inkább megteszik ezt külön és a funkciószinttel nem is foglalkoznak. Az API több képességéhez férnek hozzá, és nem kell a legújabb Windows 10 verzió ahhoz, hogy a program fusson.
Igazából fogalmad sincs, hogy miket írsz. Olyan nincs, hogy szoftveres inline ray tracing. Az inline raytracing a DXR 1.1 futószalagja, és még maga a Microsoft sem írt rá szoftveres implementációt a WARP12-höz. Elvileg lehet írni hozzá, de se az AMD, se az NVIDIA nem gondoskodik a hardveres RT-t nem támogató hardverek DXR 1.1-es támogatásáról. Nem éri meg pénzt ölni bele, mert kapnál 5 fps-t a játékban.

A feature_level_12_2 múlt augusztusban lett bejelentve. [link] A 20170-es Windows Insider build óta támogatott. A May 2020-es hivatalos Windows 10 frissítés a 19041.207-es Insider buildet vette alapul, abban a funkciószint nem volt benne. Külön kellett ellenőrizni a DirectX 12 Ultimate képességeit. Ez annyiban különbözik csak a programozó számára, hogy három sor helyett kb. 15-öt ír be, és több funkcióhoz tud hozzáférni.

#106 arabus : Egy lófaszt van kihagyva bármi is. A többit fentebb olvashatod.
Az NV azért nem fordít erre egy másodpercet sem, mert ismerik a specifikációt.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#108) dSERiES válasza zsintai1987 (#105) üzenetére


dSERiES
senior tag

Én abszolút nem kötözködésből kérdezem, informálódnék, érdekel a téma / jelenség. Láthatóan jobban ért hozzá a szerző, mint én (tutira, a többieket nem tudom :DDD ).

@ #107 Abu85: köszi ismét :R

⊿sff⊿

(#109) paprobert válasza gbors (#101) üzenetére


paprobert
senior tag

+1

Érdemes lenne látni egy körképet, hogy a játékok hány százalékát érinti a jelenség, és milyen mértékben.

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#110) Duck663 válasza arabus (#106) üzenetére


Duck663
őstag

Hogy ki mit támogat, és milyen szinten: [link]

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#111) tasiadam válasza Alogonomus (#46) üzenetére


tasiadam
veterán

Es ez az ami engem is elszomorit... Tavaly aprilisban megvettem az 1600AF-es felkonfigot, mert de jo ar ertek aranyu gep igy. Aztan konkretan eltelt 1 ev, es kb sirnom kell a prociktol. 1600AF 1 eve jonak szamitott, most a 3060 melle is bottleneck. A 2700X is ilyen. Es letezik 1 ev elteltevel 10.gen, 11.gen es egy 30-50%al erosebb zen3.
Konkretan akkor mire jo a zen+? Megveszed a procit, aztan ra 1 kicsivel mar gyengenek szamit es erosebb VGA melle kell is az uj gen.

Gyermektelen, nem házas, másodrangú állampolgár

(#112) paprobert válasza tasiadam (#111) üzenetére


paprobert
senior tag

És még kint sincsenek a valóban next-gen játékok. ;]

Erről beszélek kb. egy éve, de persze röhögtek itt páran amikor jeleztem, hogy bajban lesz a PC, és sírni fognak a gamerek, mert nincs elég erős CPU.
A mostani konzol ciklusa alatt high refresh gaming-re való processzor biztosan nincs a piacon, 60 fps-re már talán van, bár eléggé a határon.

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#113) Alogonomus válasza tasiadam (#111) üzenetére


Alogonomus
őstag

A Zen+ alapvetően még nem annyira rossz. Nvidia kártyával valószínűleg egy hasonló korú Coffee Lake is ugyanúgy szenvedne, míg AMD kártyával mind a két platform még elfogadható lehet.
Szóval inkább az a gond, hogy akinél nem csúcskategóriás friss processzor van a középkategóriás Nvidia kártya mellett, azok vagy alacsonyabb felbontáson kapnak aránytalanul alacsony fps-t, vagy magas felbontáson eleve alacsony fps-t kapnak a magas felbontás nagy erőforrásigénye miatt.

(#114) tasiadam válasza Alogonomus (#113) üzenetére


tasiadam
veterán

Az utolso mondatot reggel atolvasom 2 kave utan

Gyermektelen, nem házas, másodrangú állampolgár

(#115) Petykemano válasza Alogonomus (#113) üzenetére


Petykemano
veterán

Nem rossz, de nem is a 2010-es éveket idézi.
2 generáció már jelentős különbséget eredményez.
A megoldás a kérdésre egyébként az, hogy pénztárcakímélő proci mellé AMD kártyát kell venni és akkor a procid 20%-kal többet ér.

Na itt kapcsolódnék be egy gondolattal, ahhoz is, amit paprobert kolléga mondott a jövőre vonatkozólag'
Kíváncsi vagyok, fog-e további mélyebb együttműködést hozni az AMD az Infinity Fabric segítségével. Vagy hogy tudnák-e (végre valahára) enyhíteni a konzolról a pc cpura érkező nyomást IGP-vel? Végso soron egy amds gépben így pont ugyanúgy össze lenne kötve IF-en keresztül, mint a frontierben.

Találgatunk, aztán majd úgyis kiderül..

(#116) dSERiES válasza tasiadam (#111) üzenetére


dSERiES
senior tag

Én szerintem teljesen jó az AF, nincs azzal semmi baj. Nekem is van egy AF-es konfigom, nagyon szeretem. Valami 3x ezer Ft-ért vettem újonnan, úgy gondolom hogy bőven túl teljesíti az árát minden tekintetben. Ennyiért én nem várok tőle többet (még lehet meghúzom egy 4-re / 4.1-re azért :DDD ).

Attól függ mire, a high refresh, 200 frame-es, 1080p low/medium fajta gamingre bottleneck lesz, persze (5700Xt-ig jó vagy, azért az se rossz :)) ). De ha feltekered ultrára (vagy amit a GPU bír), akkor azért egyáltalán nem ennyire drámai a helyzet. 1440p-ben meg pláne nem.

Ezek CPU limites szituk, úgy kell kezelni, nem úgy, hogy 1600/2600-hoz már eleve ne vegyen senki 3060-at.

AMD-seknek meg pláne könnyű, az AF-ed helyért bedobsz egy 3600-at és problem solved.
Később még mindig tudsz 5600x-re fejleszteni. :)

⊿sff⊿

(#117) tasiadam válasza dSERiES (#116) üzenetére


tasiadam
veterán

Azért egy gyári 1600AF szerintem nem olyan hú de jó, all core 4ghz-n még oké, de húzni kell.

Gyermektelen, nem házas, másodrangú állampolgár

(#118) dSERiES válasza tasiadam (#117) üzenetére


dSERiES
senior tag

Nem tudom mit várnak az emberek egy 33-34 ezer Ft-os processzortól (most 10essel több), verje a 8700k-t?

Nekem nagyon jó :))

⊿sff⊿

(#119) tasiadam válasza dSERiES (#118) üzenetére


tasiadam
veterán

Csodát nem várnak tőle, igen, de sokáig volt az a szöveg, hogy a 2600-as egy olyan 6 magos, ami több évig elég lesz. Tartott ez ideig óráig. Az 1600AF meg ugyan az.

Gyermektelen, nem házas, másodrangú állampolgár

(#120) zsintai1987 válasza tasiadam (#119) üzenetére


zsintai1987
tag

Hogy tarthatott volna évekig? Az AMD évente jött a +20%os teljesítménnyel, azthitte bárki is hogy elég lesz?
Sorra jönnek az erősebb VGAk, a játékokban egyre több npc, ezek zabálja a proci erőt

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#121) tasiadam válasza zsintai1987 (#120) üzenetére


tasiadam
veterán

Akkor még nem volt zen2 és zen3 sem, intel IPC főleg nem nőtt.

Gyermektelen, nem házas, másodrangú állampolgár

(#122) dSERiES válasza tasiadam (#119) üzenetére


dSERiES
senior tag

2018. április a launch date a 2600-nak. 3 évig elég volt. Sőt, nagyon is túlzás, hogy volt.
Direkt CPU limit 'előállítására' gyártott tesztben nem hajtja ki a 600.000 Ft-os VGA-t? Az 50.000 Ft-os processzor? :DDD :DD :))

@ #120 zsintai1987: mi nem elég?

⊿sff⊿

(#123) Kansas válasza tasiadam (#121) üzenetére


Kansas
addikt

Mire az 1600AF kijött('19 október), addigra az már nem volt új processzor... a sima 1600-hoz('17 április) képest 2,5 év telt el addigra, de a 2600-hoz('18 április) képest is már több mint másfél év, és bizony már a Zen2 is kint volt fél éve('19 április óta)... addigra bőven tudni lehetett, hogy az AMD milyen ütemben fejleszt.
Ha azt nézzük, hogy a 2600 most fullad ki, akkor is volt 3 éve a piacon...
Gyanítom, te is azért vetted meg, amiért bárki más: mert használható teljesítményt adott Pentium/i3 árban... sohasem volt teljesítmény-bajnok, max egy ideig ár/érték bajnok.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#124) zsintai1987 válasza tasiadam (#121) üzenetére


zsintai1987
tag

Tehát ha jól értem akkor egy 3 éve vásárolt 50 000res procival akarsz kihajtani egy 500 000res VGAt. Nincs több kérdésem.

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#125) zsintai1987 válasza zsintai1987 (#124) üzenetére


zsintai1987
tag

Sőt az 1600xemet 36 000ert vettem egy 35ezres asrock lappal. Abba a lapba ment később egy 2700x, aztán abba a 3700x
Szerintem jó üzletet csináltam. Én legalabbis

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#126) tasiadam válasza zsintai1987 (#124) üzenetére


tasiadam
veterán

Nem. Hanem a 2600-ból kiindulva, ami persze az 1600AF dezsvíre, másik, hogy ne a bolti árat nézd már kérlek, hanem az MSRP-t, hogy almát almával hasonlítunk, mondjuk egy 3060ti-al. És nézzük a normális árát, nem azt, amit adnak érte, mert ennyi erővel a 1600AF mellett (vagy legyen a perpill 60 ezres 2600?) a 150 ezres 1070 egy meme kombó.

[ Szerkesztve ]

Gyermektelen, nem házas, másodrangú állampolgár

(#127) zsintai1987 válasza tasiadam (#126) üzenetére


zsintai1987
tag

Az 1600xemet megfektette a 2070em ac odusseyben 1080p.
A 2700x só-só. A 3700xel nemvolt baj.
Amikor megvetted az AFet mi volt a hozzá ajánlott VGA?

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#128) tasiadam válasza zsintai1987 (#127) üzenetére


tasiadam
veterán

Akkor a 2060S tető, meg húzva az 5700XT

Gyermektelen, nem házas, másodrangú állampolgár

(#129) zsintai1987 válasza tasiadam (#128) üzenetére


zsintai1987
tag

Akkor marad használtan egy 3600x, és később 5600/x.
(Meló miatt kénytelen vagyok pakolgatni a 2 vga-mat, de játékok alatt nemsokat veszek észre ha a 2700x vagy 3700x-ben van az 5700x vagy a 2070, na jó a SP77ben igen, de az mit nemfektet meg?)

3700x, ASUS 570prime, 2X16GbCorsair 3200 cl16 , ház:CM 500P fehér, Seasonic Focus+ 550W 80+ GOLD, rx 5700xt nitro+

(#130) Pingu


Pingu
csendes tag

Van egy uj video a HW Unboxed csatornajan ahol probaljak elmagyarazni mi lehet a jelenseg hattereben (40 perc kornyeken ) : [link]

Ok arra jutnak hogy a Fermi utan az NV a GPU-ban levo HW utemezo-t egy SW-es verziora cserelte, ami az akkoriban elterjedo tobbmagos processzorok miatt kifejezetten ugyes huzas volt, mivel a jatekok nagy resze akkor meg 1 magot hasznalt intenziven, igy egyszerubb let a GPU, es a hatekonyabb is. Ill. a CPU hasznalat is javult..

Az AMD ezt nem lepte meg, talan amiatt mert a konzolok-ba gyartott sok magos de azert nem tul izmos CPU-in (Jaguar magok ha jol figyeltem ) nem akartak ezzel is novelni a CPU terhelest.

Aztan mara eljott a DX12/Vulcan era, ahol a jatekok kepesek minden CPU magot teljesen leterhelni. Ilyen esetben viszont mar lathatova valik az NV megoldasanak a hatranya is..

Azt nem sikerult megfejtenem hogy az 'utemezo' alatt mire is gondolnak pontosan.

Abu: Orommel meghallgatnam - laikuskent - Te hogyan latod ezt!

(#131) paprobert válasza Petykemano (#115) üzenetére


paprobert
senior tag

"The future is fusion" második felvonás?

Szerintem nem. Olcsóbb is, ill. anyagilag jobban megéri fejni a következő pár évben a gémereket azzal, hogy mindig csak a legújabb CPU tudja azt, amire vágynak.
Így lesz motiváció a váltásra... :)

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#132) gbors válasza paprobert (#131) üzenetére


gbors
nagyúr

Így lesz motiváció a konzolra váltásra...

Fixed it for ya :D

#130 Pingu : rémlett nekem is, hogy volt valami kavarás az ütemező körül, de már nem emlékszem, változott-e valami azóta visszairányba. Itt írnak róla Anandék bővebben.

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#133) Alogonomus válasza Pingu (#130) üzenetére


Alogonomus
őstag

Amennyiben valóban ez a jelenség fő oka, akkor viszont nem értem, hogy az Nvidia miért nem kezelte már eddigre a színfalak mögött csendben a problémát.
A rejtett hiba csendben történő kezelésére tökéletes példa lehetett volna számukra az Intel, ahogy az évtizedes "huncutságának" a kockázatát próbálta generációról generációra csökkenteni. Minden generációval csak 10% alatti fejlődést ért el - mert úgysem volt konkurencia az AMD -, de közben sorban javította a hibásra tervezett megoldásokat, és így amikor 2018-ban napvilágra került az információ, addigra a frissebb architektúráik teljesítményét már nem érintették annyira a kényszerű javítások.

Amennyiben csak a SW-es ütemezés okozza a látványos problémát, akkor az Nvidia legkésőbb az Ampere architektúránál kezelte volna a helyzetet, mert legkésőbb az
RDNA1 kapcsán biztosan összerakta az Nvidia, hogy az Ampere-RDNA2 generációban komoly verseny fog kibontakozni, ahol a 20% bőven el is dönti a győztes személyét.
Szerintem inkább sok kis "slamposság" okozza együtt ezt a helyzetet, amik abból erednek, hogy az elmúlt 2 generáció során nem kellett igazán megfeszülniük az Nvidia mérnökeinek.

(#134) b. válasza Alogonomus (#133) üzenetére


b.
félisten

az hogy valaki 6800 vagy 3080 kártyával akar 1080 P-n játszani kérdés milyen versenyt fog el dönteni valójában.
Ki az aki akár egy 6700 kártyánál is( direkt nem Nvidiát írok) feláldoz akár 20-30 % teljesítményt mert 1600X- 2600 X van a gépében, hisz a HU tesztjében is ennyit mutat még egy 5700 XT vel is az 5600 X és a 2600X között.
Akkor már érdemesebb felbontást növelni ( monitort cserélni) vagy CPU-t cserélni.
A múltkori driveres problémára hivatkozás után most már ütemező probléma, 4 nap múlva meg más lesz.
Továbbra is azt gondolom Abunak van igaza, optimalizálás hiányzik szoftveres oldalról főleg Nvidiára az első sorban konzolokra fejlesztett játékoknál.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#135) b. válasza b. (#134) üzenetére


b.
félisten

Mondjuk maga a tény jó hogy erre rávilágítanak és hogy foglalkoznak vele, mindenképpen kellett ez.
Ajánlom ezt a videót annak aki még nem látta, szerintem sok szempontból jobb mint a HU-s még ha régebbi is és korrekt magyarázattal szolgál miért is történtek dolgok... [link]
Kíváncsi vagyok valóban működik e még ez hogy szétdobja az illesztő a feladatokat, több szálra, mert sokak szerint igen. Ha ezt inaktiválják, akkor elméletileg romlik a dx11 teljesítmény ,de javulhat a Dx 12/ vulkan alatta CPu kihasználás Nvidián.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#136) Alogonomus válasza b. (#134) üzenetére


Alogonomus
őstag

Ez az alacsonyabb teljesítmény nem csak a Ampere kártyáknál jelentkezik, hanem 1660, 2060, és ilyesmi kaliberű kártyáknál is. Azok mellé pedig abszolút reális egy 1600/2600, vagy 7700/8700 processzort elképzelni.
Pont az a lényeg, hogy egy 6700-as kártyánál várhatóan nem jelentkezik ez a probléma, ahogy az 5700 XT kártya is vígan elvolt egy régi processzorral, és ostromolta a 3080-3090 duó teljesítményét 1080p környezetben. Persze nyilván egy RDNA1 is meghálálja a jobb processzort.

Vagyis most egy Nvidia tulajdonosnak vagy fel kell kapcsolnia magas felbontásba, ahol marad elég szabad processzoridő a drivernek, vagy cserélnie kell a processzorát egy friss sokkal erősebb modellre, ami Intel esetén nyilván alaplapcserét is jelent. Ráadásul a FullHD monitorok még eléggé elterjedtek, és akinek csak olyan van, az nagyon nem is tud hova felváltani. Eléggé sok 3070 tulajnak még valószínűleg FullHD monitorja van, mert a 1440p monitorok igazán csak az elmúlt évben kezdtek tényleg elterjedni.

[ Szerkesztve ]

(#137) tasiadam válasza Alogonomus (#136) üzenetére


tasiadam
veterán

Mert egy i9 9900/9700 is bottleneck ilyen teren, meg a 8700 is? Pedig ezekbol a K lenyegeben most sem rossz CPU, es ha van valakinek egy felszar B360, vagy mas Z-s 1151 v2, akkor halal jol elvannak es a kovi upgrade az alder lake.

De akkor kezd leesni, hogy miert van az, hogy az AMD 1080p-ben relative jobb, pl 6900 vs 3090. Amint fordul es 4k, maris mas a sorrend.

[ Szerkesztve ]

Gyermektelen, nem házas, másodrangú állampolgár

(#138) b. válasza Alogonomus (#136) üzenetére


b.
félisten

Hogy ne jelentkezne mikor épp a HU tesztben is ott van hogy egy 1600X 5700 Xt párossal 100 FPS van egy 5600X pedig 128 FPs-t hoz ki vele ugyan azon a felbontáson, míg egy 5600 XT nél ez 6 FPS eltérés. Azaz az 1600 X mllé FHD ra 5600 XT fölötti kártyát nem vennék.
valamint linkeltem feljebb az Intel tesztet ott egy 7700 K már egész jól szuperál a 3070 kártyával FHD-n ezt hiányolom a HU tesztből. AZ I3 más kategória.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#139) Alogonomus válasza b. (#138) üzenetére


Alogonomus
őstag

Írtam is, hogy "Persze nyilván egy RDNA1 is meghálálja a jobb processzort."
Az AMD kártyák egy régi 1600X esetén is látszólag egységesen 70/100 értéket tudnak hozni, míg az Nvidia kártyáknál 60/85 az elérhető érték, plusz 5600X esetén is zavarba ejtően jól tartja a lépést az Infinity Cache nélküli 5700 XT a 3070-nel, de igazából még a 3090-nel is. A 6900 XT eredményére persze lehet azt mondani, hogy az az Infinity Cache eredménye.

(#140) gbors válasza b. (#134) üzenetére


gbors
nagyúr

Továbbra is azt gondolom Abunak van igaza, optimalizálás hiányzik szoftveres oldalról főleg Nvidiára az első sorban konzolokra fejlesztett játékoknál.

Nekem ez eléggé sántít amúgy. Mit kellene annyira optimalizálni egy implicit APIs parancsátadás környékén? A nagy CPU-igényű munkák (scene, fizika, AI) függetlenek attól, hogy milyen GPU van a túloldalon, az átadandó adatlisták standardok (DX12 vagy Vulkan), és állítólag az implicit API-kban sokkal vékonyabb ez a réteg, mint a DX11-ben. Ennek ellenére az látszik, hogy az NVIDIA kártya mellett több CPU powa' kell ugyanannyi FPS-hez. Ez valamilyen extra munkára utal, és nem 1-2%-ról beszélünk. Nem tudom, hogy a warpon belüli ütemezés még mindig a CPU-oldalon van-e az NVIDIA-nál, de ez sokkal reálisabbnak tűnő, és nem utolsósorban sokkal kézzelfoghatóbb magyarázat, mint az NVIDIA-ra való optimalizáció hiánya.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#141) b. válasza gbors (#140) üzenetére


b.
félisten

nagyjából igor választ ad a kérdésedre itt [link] a mai tesztjében és egyben igazolja Abu igazát is, ő is erre jutott amire ő.
Szerinte a Dx 12 alatt aszinkron compute igényes és erős grafikus motorokban van probléma alacsony felbontásban, amiket elsősorban az AMD hardvereire és ( Konzolok) optimalizáltak. HZD és WD is ilyen,de pl BFV is.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#142) Mumukuki válasza b. (#141) üzenetére


Mumukuki
aktív tag

Vajon ezek után akik sportot űznek abból hogy Abut üssék mit mondanak ? Igor is hülye ?

Nincs közöm Abuhoz és én is látom hogy néha kicsit elfogult (nekem belefér ) de amit és ahogy egyesek művelnek az nekem gusztustalan .

(#143) gbors válasza b. (#141) üzenetére


gbors
nagyúr

Nagyon jó cikk, köszi! :R Bár én nem pont azt látom benne, hogy az optimalizációra kenné a dolgot :)

Az elemzés jó magyarázatot ad arra, hogy miért van olyan eset, amikor a felbontás növelésével változik a kártyák relatív teljesítménye (azt egy másik topicban sikerült kideríteni, hogy van pár ilyen játék, ha nem is túl sok). Azt viszont nem magyarázza, hogy azonos FPS-hez miért kell több CPU-munka az NVIDIA-tól, ill. azonos CPU-munka mellett miért lesz kevesebb FPS - ez Igornál is látszik a CPU-fogyasztásokból. Ide megintcsak szépen belepasszol, hogy NVIDIA kártya mellett többletmunkája van a CPU-nak - és a feltételezett részben szoftver ütemező ugyanúgy lehet ludas az aszinkron compute feladatoknál.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#144) b. válasza gbors (#143) üzenetére


b.
félisten

A második oldalon a szürke kiemelt sávban találod azt hogy a motor optimalizálást hozza fel.

Az utolsó oldalon hivatkozik egy 5 éves cikkre. Ha arra is rákeresel, akkor ott leírja, hogy az aszinkron számításoknál alacsonyabb felbontásnál hatványozottan megnő a CPU terhelése.
Az AMD és az Nvidia máshogy oldotta meg az aszinkron compute futószalagot a GPU etetésére.
A konzoloknál egyszeres mintavételezést használnak pl HZD ben is ( nem tudom ez pontosan mit jelent" single passssamppler ", én valami ilyesminek értelmeztem) hogy csökkentsék a CPU terhelését , ami az AMD hardvereinek( illetve feldolgozójának) és a gyengébb CPu nak ideális, míg az nvidia aszinkron feldolgozója a többszörös mintavételezést preferálja ami jobban megterheli a CPu-t de kiélezett helyzetben ( felbontás , nagyobb terhelés) erős CPU -val jobban etethető lehet.
Tisztára a GCN jut erről az eszembe amúgy, az volt rohadt erős ebben elméletileg, kiaknázatlan teljesítményben.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#145) gbors válasza b. (#144) üzenetére


gbors
nagyúr

Igen, utal arra is, mint lehetséges okára annak, hogy az async compute-ban gyengélkedik az NVIDIA - de a fő konklúzió magára async compute-ra gyanakszik, és az ezzel kapcsolatos problémáknak lehet számos más oka is.
Azt nem találtam meg, hogy olyat ír, hogy alacsony felbontásnál hatványozottan nő a CPU-terhelés - praktikusan tudtommal annyival nő, amennyivel az FPS, merthogy az async compute csökkenti a frame kiszámolásához szükséges teljes időt, és így növeli az FPS-t. Egyéb CPU-s hatásáról a felbontás függvényében nem tudok.

A single pass downsampler MIP szintek gyorsabb számolásához való, itt megintcsak nem látom a jelentős CPU-oldali kontribúciót. De ha van itt grafikus programozó, majd legfeljebb kijavít :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#146) paprobert válasza gbors (#145) üzenetére


paprobert
senior tag

Az async compute viszont kikapcsolható, pl. a Rage2-ben, ezt elég egyszerű lenne tesztelni on-off állásban.

640 KB mindenre elég. - Steve Jobs

(#147) Abu85 válasza Pingu (#130) üzenetére


Abu85
HÁZIGAZDA

Ennek kicsi jelentősége van. Egyrészt látszódna a szintetikus méréseknél, amelyek direkt a driver overhead tesztelésére jók, de ott igazából nincs kardinális különbség az NVIDIA és az AMD meghajtóimplementációja között. Ahhoz, hogy ilyen mértékű eltérést mutasson egy meghajtó az egyes játékokban, legalább felezett tempó kellene az NV-től a szintetikus overhead tesztekben. De közel sem ennyivel lassabb a GeForce DirectX 12 és Vulkan drivere. Amennyivel lassabb az pedig a gyakorlatban nem okozhat pár százaléknál nagyobb deficitet.

#140 gbors : Explicit API, nem implicit. :)

Elég sok problémát szülhetnek a program oldalán az olyan tényezők, hogy az NVIDIA-féle DirectX 12 Do's And Don'ts ( [link] ) esetenként konkrétan az ellentettjét ajánlja a Microsoft-féle DirectX 12 előírásoknak. A Microsoft az egész API-t egy tipikus erőforrás menedzsmentre tervezte, mégpedig arra, hogy a memóriahalmazok kerülnek a root signature-be, és a memóriahalmazokba kerülnek a pufferek és a konstansok. Az NVIDIA ezt kiemelten nem ajánlja, helyette azt mondják, hogy közvetlenül a root signature-be kerüljenek a konstansok és a konstans pufferek:
* Constants that sit directly in root can speed up pixel shaders significantly on NVIDIA hardware – specifically consider shader constants that toggle parts of uber-shaders
* CBVs that sit in the root signature can also speed up pixel shaders significantly on NVIDIA hardware
A Microsoft erre azt mondta régen, hogy ez papíron lehetséges, de egyrészt limitálja a pufferek kezelhetőségét, illetve alapvetően felboríthatja az API-hoz tervezett menedzsmentet, például a barrierek sokkal többször futhatnak nem valós függőségekbe akkor, ha egy puffer közvetlenül a root signature-ben van. Tulajdonképpen nem arra a működésre tervezték az API-t, amit az NV ajánl.

Látni kellene itt a játékok konkrét működését, de alapvető kérdés lehet az NV-nek, hogy a pixel shader teljesítmény visszaesésén buknak-e többet, vagy azon, hogy vállalnak az API-ra egy elvben megengedett, de nem optimális működést. Az NV oldaláról lehet, hogy az utóbbi a jobb, és ezt a program oldalán kell lemenedzselni. Márpedig annyira nem nagy meló csak a GeForce-okra átrakni a CBV-ket és a konstansokat a root signature-be, ha azok kezelhetősége az adott programban pont nem változik meg. Az már nagyobb meló, hogy ehhez optimalizálják a működést, és itt a barrierek tekintetében elég sok szopást kellene bevállalni, ami valószínűleg nem fér bele mindenki idejébe.

#145 gbors : Az aszinkron compute már nem akkora gond. Az azért volt baj régebben, mert elég szar hardverállapothoz volt kötve az NV-n a compute shader. Még most sem stateless, de az AC feladatok döntő része vagy compute-compute, vagy pixel-compute. Tehát az már elég jó, ha a pixel shader hardverállapotához van kötve a compute shader, és így már egy ideje. Persze, ha csinálsz valami rohadt egzotikus dolgot, mondjuk geometry shader mellett küldöd a compute shadert, akkor nem fog tetszeni a GeForce-oknak, de ez inkább teoretikus probléma, mintsem egy gyakorlatban valóban használt dolog.

A GPUOpen SPD-nek igazából nincs nagy jelentősége. Egyrészt ez egy rendkívül egyszerű eljárás, ami arányaiban elképesztően gyorsan lefut, a mai hardvereken nagyon bőven 1 ms-on belül. Másrészt a CPU-terhelésre nincs hatással. Annyi a lényege, hogy egy számítással generálja le a szükséges MIP szintet, vagyis egy csomó számolást kivág a rendszerből. Az, hogy futhat async compute-ban leginkább egy extra, de őszintén szólva egy mai combosabb hardver esetében kb. nyers az async lehetőséggel úgy 0,1 ms-ot, aminek igazán nincs jelentősége. Jójó persze, ki a kicsit nem becsüli... :)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#148) gbors válasza paprobert (#146) üzenetére


gbors
nagyúr

Igen, így meg lehetne nézni, ha minden játékban ki/be kapcsolható lenne, ill. ha minden async compute-os játékban jelentkezne ez a differencia. A HZD motorja amúgy is elég furcsa, ember legyen a talpán, aki a különböző jelenségek magyarázatát szét tudja választani benne.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#149) Egon válasza Alogonomus (#136) üzenetére


Egon
nagyúr

Eléggé sok 3070 tulajnak még valószínűleg FullHD monitorja van, mert a 1440p monitorok igazán csak az elmúlt évben kezdtek tényleg elterjedni.

Nem láttam erről statisztikát, de kötve hiszem hogy ez így lenne.
10 évvel ezelőtt vettem az első fullhd (sőt, igazából fullhd+: 1920*1200-as felbontású) monitoromat, és már több mint 5 éve megvan a jelenlegi 1440p-s. Mivel a 3070-es vga sosem volt olcsó, kb. azok vették, akik a 1080-2080 szériát is (nyilván 2080-ról nem váltottak sokan, de 1070-1080-ról már lehet), és ezen vásárlói körnek pont hogy jellemző az 1440p (leginkább a 60-as szériát veszik fullhd-re, a 80-as 4K-ra).
A fullhd felbontás (asztali gép tekintetében) már évek óta gyakorlatilag alap, ennél rosszabb felbontással nem vesz senki új monitort. Lehet ugyan kapni még alacsonyabb felbontású kijelzőket is, de jellemzően nulla árelőnnyel. Ha pedig a fullhd a minimum, akkor belátható, hogy az alsókategóriás, illetve alsó-középkategóriás vga-vásárlók felbontásáról beszélünk - a 3070 pedig egyik kategóriába se illik.
Azt az egy ezreléknyi kompetitív gémer, aki szerint öccáz' fps alatt nincs élet a Minecraft-szintű grafikájú, ezer éves lövöldéikben, nyilván nem módosít sokat a statisztikán (na ők lehet hogy fullhd monitort vesznek egy 3070-hez).

"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

(#150) gbors válasza Abu85 (#147) üzenetére


gbors
nagyúr

Explicit API, nem implicit.

Ouch. Brainfart :B Persze, hogy explicit.

Amiket leírsz, azok mind magyarázhatják az alacsonyabb FPS-t, de azt nem látom, hogy a magasabb CPU-terhelést generálnának - a fogyasztás alapján valós magasabb terhelést, nem csak lekötött és nem elérhető erőforrásokat.

Gondolom, az in-warp schedulingnek adott extra feladatokat az Ampere "újszerű" ALU-felépítése. Nem tudom, hogy pl. egy 1600X-en jelenthet-e ez 1-2 msec-et frame-enként - lehet, érdemes lenne csinálni friss méréseket a driver overheadre.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

Copyright © 2000-2024 PROHARDVER Informatikai Kft.