Hirdetés
- Rap, Hip-hop 90'
- Elektromos rásegítésű kerékpárok
- sziku69: Szólánc.
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- sziku69: Fűzzük össze a szavakat :)
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Gurulunk, WAZE?!
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- Luck Dragon: Asszociációs játék. :)
- ldave: New Game Blitz - 2025
Új hozzászólás Aktív témák
-
Habugi
addikt
válasz
velizare #40097 üzenetére
Szerintem a memory leaktől nem szenvedett amikor megjelent, h megtölt bármennyit és amikor túlcsordulna/ürít akkor másodpercekre beáll.
A bugokról nem beszélve, T pose ami mára úgy ahogy eltűnt de még mindig belefutni azért, vagy a talaj alá eső minitankok, az hogy ha kötélen lövöd le a BT mobot akkor beáll a script mint a gerely és mehet a restart, legyen az egy Roosevelt vagy RAID..
(Csak hogy olyanokat említsek amiket az utóbbi időben kihagytam a felsorolásokból de olvastad őket..)
Itt is csak annyit akartam érzékeltetni, hogy a játék kb legeslegkisebb gondja most a DX12, vagy hogy az NV driveres fordítója kuka hozzá.
-
Ragnar_
addikt
válasz
Dtomka #40096 üzenetére
Szerintem sokszor van az , hogy 10+ évig toldozzák az enginet (CoD) és nem fogják a nulláról újraírni, hogy optimális legyen a legújabb szabvány szerint, hanem annyi lesz csak, hogy akár működőképes dx12 alatt is, de így totál elvesznek az előnyök, sőt. Ott az Ashes engineje amit direkt dx 12-re lett írva ott azért látszanak pozitívumok. De amíg konzolra 10x annyi játékot adnak el valószínűleg nem foglalkoznak annyira a PC porttal.
-
Dtomka
veterán
válasz
s.bala31 #40092 üzenetére
DirectX 12
Én már 2015 ben azt hittem, hogy a dx12 által szebbek és még jobbak lesznek a játékok. Lassan 5 év telt el...
Annyit tapasztalok , hogy szebbek sem lettek, és lassabbak...Leginkább a BF V nagy csalódás számomra, mert ott sokkal kevesebb az fps (+ microlagg)
De talán majd a dx 13 ... -
s.bala31
őstag
Division 2 is fos DX12 alatt, folyamatosan crashel, pedig gyorsabb lenne mint a Dx11-el. Azt gondoltam anno hogy 2020-ra már szinte csak DX12-es játékok jönnek, valahogy nem igazán megy ez az átállás.
-
Abu85
HÁZIGAZDA
válasz
Raggie #40089 üzenetére
Nem az API a hibás. A Borderlands 3 esetében a memóriamenedzsment a gond. Ezt úgy fogják orvosolni, hogy az egészet úgy ahogy van kicserélik az AMD által írt D3D12 Memory Allocatorra. Viszont ezt nem tudják csak úgy kiadni, mert utolsó pillanatban hozott döntés, és nincs elég teszt erre vonatkozóan.
A probléma onnan származik, hogy az Unreal Engine 4 DirectX 12-re írt memóriamenedzsmentje nem thread-safe. Tehát nincs garantálva, hogy többszálú feldolgozásnál hibátlanul működik. Ellenben a Borderlands 3 többszálú parancsgenerálást használ, amivel az erőforrások létrehozása is többszálú. Na most a thread safety probléma kezelésére van beépítve a motorba egy olyan rutin, amely ellenőrzi folyamatosan, hogy az adott erőforrás használatban van-e, és ez okozza a rendkívül rossz működést. Ennek a megoldása az Unreal Engine 4 esetében az, hogy a rendszer csak erősen korlátozottan használjon többszálú parancsgenerálást, úgy, hogy ne kelljen alkalmazni ezt a rossz hatásfokú rendszert. A másik lehetőség a Vulkan, ugyanis a Vulkan API tekintetében az Unreal Engine 4 már thread-safe memóriamenedzsmentet használ, csak az erre vonatkozó fejlesztések, még nem kerültek visszaportolásra a motor DirectX 12 leképezőjébe.
A harmadik lehetőség írni egy egyedi DirectX 12-es memóriamenedzsmentet az Unreal Engine 4-be, vagy beépíthető az AMD D3D12 Memory Allocator, ami eleve thread-safe megoldás. Viszont az Unreal Engine 4 miatt ebbe is lehet, hogy módosítás kell, mert ezt a memóriamenedzsmentet az AMD az erőforráshalmazra vonatkozó specifikációknak a tier_2-es szintjére írta, és ugyan kezeli a tier_1-et is automatikusan, csak szimplán olyan egyszerű megoldást alkalmaz rá, hogy elszeparálja az erőforrásokat és kész. Szóval valószínűleg lesznek itt is módosítások még, bár kiindulásnak jó.
-
Ragnar_
addikt
válasz
huskydog17 #40085 üzenetére
Most vagy a szabvány értelmetlen, vagy a fejlesztők nincsenek a helyzet magaslatán, de hogy egy specifikáció az alkalmazásnál 4 év múlva is katasztrófa legyen, az vicc. A Vulkanról több jót hallani, de azt se sűrűn alakalmazzák.
-
Raggie
őstag
válasz
huskydog17 #40088 üzenetére
Persze én ezt értem, és egyet is értek sok helyen. Csak annyit mondtam, hogy ezért nem feltétlenül a DX12 a hibás, hanem a fejlesztők hoztak egy döntést.
Egyébként szerencsére itt a tempóval nincs gond DX11-ben, mert pl GTX1060/RX590 is elviszi Ultrán.
-
huskydog17
addikt
válasz
Raggie #40086 üzenetére
Van minden: extrém hosszú töltési idők, random összeomlások, képarány problémák, sokaknak el sem indul DX12-ben a játék stb.
Teljesen mindegy, mert használhatatlan, a felhasználókat a legkisebb mértékben sem érdekli, hogy miért, azt látják és tapasztalják, hogy egy fos, míg DX11-ben a játék jól működik. Ez olyannyira tény, hogy maguk a fejlesztők és kiadó is a DX11-et javasolja mindenkinek.
Ah, hogy később jobb lesz-e, nem tudni, de igazából annyira nem is fontos, mert mire rendbe rakják, addigra nem az a játék lesz a trendi, vagyis szinte senkit nem fog érdekelni, a launch-ra kell jól összerakni, hogy nagyon szóljon. Utólag hiába kalapálják helyre, senkit nem fog érdekelni, elékezz csak vissza az AC Unity-ra, ott is a launch technikai szempontból katasztrófa volt, utólag ugyan rendbe rakták, de a legtöbb ember ugye a launch-ra emlékszik és elkönyvelték, hogy az a rész egy sz*r, miközben ma semmi baja nincs (saját tapasztalatból is mondom).
Control-nál ugyanez volt, a DX12-es mód súlyos problémákkal küzdött (lehet még ma is), emiatt sokan DX11-ben tolták/tolják.#40087 do3om: Szerencsére akad 1-2 üdítő kivétel, ahol a DX12 lényegesen jobb lett a 10 éves DX11-nél, az egyik legszebb példa ugye a Shadow of the Tomb Raider, ahol a kiadó nyomás ellenére a Nixxes példa értékű DX12 leképzőt készített. Az is tény sajnos, hogy nagyítóval kell keresni azokat a címeket, amelyek DX12-ben lényegesen jobban működnek, mint DX11 alatt.
-
do3om
addikt
válasz
huskydog17 #40085 üzenetére
Pedig a fejlesztők hogy kérték a DX12 őt, legalábbis ezen az oldalon.
Az DX 12 egy katasztrófa talán a legrosszabb címre lesz esélyes. Semmit nem hoz, amit észrevennénk, a fejlesztőknek is valahogy a 11 az egyszerűbb. Ahol van egyszree 11, és 12 ott a 11 sokszor jobb, ahol nincs ott valószínűleg ha raktak volna bele szintén ez lenne. -
Raggie
őstag
válasz
huskydog17 #40085 üzenetére
A cikk nem azt írja, hogy a DX12-es verzió még kb befejezetlen? Tehát akár egy-két peccs múltán már jó is lehet. Ez nem valószínű, hogy az AMD döntése volt, hanem inkább a játék készítőié.
Én úgy tudom elképzelni, hogy előbb a DX11-es verziót fejezték be, mert az kompatibilis a legtöbb ember hardverével majd utána elkészítik a DX12-t is csak azzal nem lettek kész a kiadási dátumra.persze az már más kérdés, hogy elkészül-e tényleg és hogy jó lesz-e, csak még megvan a lehetősége talán.
-
huskydog17
addikt
Borderlands 3-nak a DX12 leképzője jelenleg katasztrofális, a fejlesztők is a DX11 használatát javasolják.
Úgy tűnik az AMD partnersége sem hozott semmit a DX12-nek, ez a játék az idei év egyik legjoban várt címe, itt lehetett volna nyomni a DX12 szekerét, ehhez képest ez a játék is csak negatív tapasztalatot ad a felhasználóknak.
Egy újabb nagy AAA cím, ahol a 10 éves DX11 sokkal jobban működik, mint a DX12. -
Abu85
HÁZIGAZDA
Igazából, ha HDMI 2.1 van a kijelzőn, akkor működnie kell, mert a HDMI 2.1 VRR az szabványos, és a szoftver, amit az NV csinált az ezt célozza. Persze nem mondhatják rá, hogy tutibiztos, de mivel nem HDMI-s FreeSync-féle zárt rendszerről van szó, így egyik gyártó sem csinál eltérő dolgokat, amelyeket külön le kellene kezelni.
-
"If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue."
na, érdemes próbálkozni
[link] -
Abu85
HÁZIGAZDA
válasz
Locutus #40073 üzenetére
Egyszerű. A HDMI 2.1-es bemenet mellett már rá lehet tervezni a kijelzőket a VRR-re, és ezt igazából ki lehet használni HDMI 1.4-es vagy HDMI 2.0-s VGA-val is. Az egész egy szoftver. Hasonló az AMD-nek a HDMI-s FreeSync-jéhez, csak ott az a különbség, hogy nem kötelező a HDMI 2.1-es bemenetű, VRR-t támogató kijelző, mert az AMD kiegészítette magának a HDMI-t, míg az NV egyszerűen felhasználja a HDMI 2.1 specifikációját. Utóbbi miatt szükséges a HDMI 2.1-es bemenetű, VRR-t támogató megjelenítő, de a VGA oldalán ennek nincs igazán hardveres követelménye, 5-6 generációra is vissza lehet portolni. Ugyanakkor a régi hardverekre már nem éri meg. Nem hoznak már pénzt, miközben a szoftverimplementáció portolása viszonylag drága lenne.
-
imi123
őstag
-
válasz
Locutus #40073 üzenetére
nem tudom,de tippre ez az LG-n is múlik, mert HDMI-n át még eddig nem volt Gsync compatible kijelző, sem firmware, és a TV ket kell frissíteni hozzá,(megkapja a 2019 es OLED felhozatal náluk) nem a kártyákat. Szóval lehetséges, hogy menni fog pascallal is is,de ez a HDMI-n át menő VRR tök újdonság minden szempontból a zöldeknél, dedikált hardver nélkül a kijelző oldalán.Ez szerintem azt jelenti, hogy hamarosan a monitoroknál is megjelenik ez a funkció, HDMI adaptive sync .
-
Egon
nagyúr
válasz
FLATRONW #40069 üzenetére
Nemtom, ki kellene próbálni, de nekem nincs olyanom (ha valakit érdekel, és van olyan kártyája, szívesen megadom hozzá az inputot privátban).
Annyit tudok, hogy a 2080 Ti-nek szűk 2 óra a becsült futási ideje, a 1070-emnek kb. 6.5 óra volt (a feladat jellegéből adódólag, lehet hogy a tényleges számítással fele ennyi idő alatt végez; elvileg a becsült futási idő a releváns, mert az a maximum ami alatt ténylegesen végezni fog). -
LoL?
[LG’s 2019 OLED TVs are getting Nvidia G-Sync support]
nesze neked Big Screen -
Shing
őstag
válasz
imi123 #40068 üzenetére
Kiábrándítóan unalmas. Aki 1080Ti-t vett anno, az nagyon jól járt.
RX5700-nak meglepően jól néz ki a fogyasztási mutatója, aztán leesett hogy 7nm. De akkor is, legalább az nincs kimaxolva, így beleférhet még erősebb kártya.RX5600 pedig jöhetne már, amíg legalább 7nm előnye van az AMD-nek. Ha az nvidia átáll jobb gyártástechnológiára és újabb architektúrára, akkor végleg cseszhetik az olcsóbb kategóriákat is... és valszeg megint ők jönnek előbb egy szériával.
Lassú, vontatott, unalmas lett az egész piac... Vársz 5 évet, hogy na most majd befrissítek aszt' alig van erősebb kártya.
-
Egon
nagyúr
Emberek, engem meggyőzött az 5700 XT. A céges feladatok tekintetében ilyet kellene vennünk, legalább kettőt. A célfeladatra mindössze cca. 25%-kal lassabb, mint a 2080Ti, így ár/teljesítményben nyilván jobb.
Mondjuk a feladatnak köze sincs a grafikához, de ez egy másik kérdés.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #40061 üzenetére
Attól függ, hogy a benchmarkot tesztelték-e. Az szándékosan lett a GPU-ra kiélezve. A 3 player co-op részét pedig nem igazán lehet tesztelni egy benchmarkkal, de persze annak a terhelése elsődlegesen a procira esik rá, mert a GPU ugyanazt számolja, mint single módban.
A parancsgenerálás nem áll meg 6 szálnál. Mivel explicit, ezért ez lényegében addig skálázódik, ameddig csak lehet, viszont az Unreal Engine 4-nél 20 szál a limit. De ez csak mesterségesen van meghúzva, mert azért nem csak az API lehetőségei számítanak itt. Viszont például az Ashes a legújabb patch-csel már 80 szálig skáláz.
-
Petykemano
veterán
válasz
Ragnar_ #40059 üzenetére
Nem ismerem ezt a játékot, de a multis játkékoknál szokták mondani, hogy teljesen más a cpu terhelése mondjuk egy 100 játékost tartalmazó pályán, mint single player benchmarkban.
Ha ez is egy ilyen masszívan multiplayer játék, akkor jöhet még jól az a skálázódás annak ellenére, hogy mondjuk grafikára 8 szálnál nem használ többet. (A DX12 skálázódása egyébként 6 szálnál megáll)Ha ez nem ilyen játék, akkor tényleg elkiabálták azt a skálázódást
-
Ragnar_
addikt
válasz
bertapet11 #40055 üzenetére
Fantasztikus. Állítólag 20 magig skálázódik a Gears5 motorja, erre egy 4/8-as proci kb. 1-2% belül ugyanannyit megy mint a 8/16-os.
(Min FPS-ben gyengébb a 4/4-es i3, mint a mezőny többi tagja.)
-
Abu85
HÁZIGAZDA
Picit igen. A legtöbb játék eddig úgy csinálta az aszinkron compute-ot, hogy egy-két compute futószalag futott egy grafikai mellett. A Gears 5-nél akár 12 futószalag is futhat párhuzamosan. Ezzel a stateless compute architektúráknak nincs baja, de az NVIDIA még mindig hardverállapothoz köti a compute shadereket, nem tudja akármilyen állapotban lefuttatni ezeket a kódokat. Ilyenkor a hardver ugrálni fog az állapotok között. Ez kevés compute futószalagnál is előfordul, de ott nincs annyi állapotváltás, hogy az aszinkron compute hatása negatív legyen. Az AMD-nél ez a terhelés azért nem számít, mert a GCN és az RDNA is stateless compute, vagyis a feldolgozás alatt sosem vált hardverállapotot, így nem tud lelassulni. Önmagában ez egyébként olyan nagyon sok problémát nem okoz, mert a GeForce-ok lassulása ettől egészen minimális, a GCN viszont sokat tud gyorsulni az ilyen dizájntól. Az RDNA-nak sincs túl nagy hasznára ez a fajta megoldás, mert az idle buborékokat fel tudja a hardver tölteni, viszont van priority tunneling, és ettől ez a hardver is gyorsul, de csak nagyon picit.
-
Z_A_P
addikt
válasz
bertapet11 #40055 üzenetére
Nvidia-t lassitja az async, meg a 2000 sorozatot is
-
bertapet11
tag
-
[Back Stage” Ray Tracing Tech Demo]
Nagyon jól néz ki , végre egy ízléses demó ami megmutatja milyen természetes dolog tud lenni az RT. -
GodGamer5
addikt
"Here is how you can completely fix the annoying DX12 stutters, even with Ray Tracing, in Control"
[link] -
huskydog17
addikt
-
GodGamer5
addikt
Igen tudom, hogy a dx12 nagyon nem fekszik a pascaloknak, viszont az újabb architektúrára épülő kártyák sem hoznak akkora előnyt dx12 alatt, mert nincsenek az enginek az alapoktól átírva és ezért még mindig van dx11-es mód is, ami durván visszahúzza a dx12-t. Az meg, hogy van pár "benchmark" játék pl Ashes of the Singularity meg a Battlefieldek, WWZ stb. ahol az új kártyák nagyon gyorsak, az egy dolog, de nem ez az átlag, mert a legtöbb játék egy gyenge dx11-es port. A tonnányi indie játékról nem is beszélve ami meg úgy lett összedobálva unity, vagy U4 engine-ben.
-
Devid_81
félisten
AMD Overtakes NVIDIA In GPU Market Share For The First Time Since Q3 2014 – Jon Peddie Research
Hozok popcornt
-
Abu85
HÁZIGAZDA
válasz
GodGamer5 #40043 üzenetére
A Pascallal nem lehet mit kezdeni. A DirectX 12 API bekötése nem úgy épül fel, hogy jó legyen a hardvernek. A Pascal akkor működik, ha a buffer viewek (CBV/SRV/UAV) a root signature-be vannak bekötve. Ezzel szemben a DirectX 12 specifikációja pont úgy lett kialakítva, ha a root signature a konstansok mellett csak leírótáblákat tartalmazzon. Így viszont a Pascal nem működik jól. Meg lehet amúgy csinálni a buffer viewek direkt bekötését is, de mivel ezeknek a leírótáblákban a helye, így a formátumok tekintetében a root signature csak a konstansokra van szabva. Ezen nem fog változtatni semmilyen konzol. Olyan architektúrájú hardvert kell venned, amely megfelel ennek a működésnek, például: Turing, GCN, RNDA, Gen9.5-11. Ettől függetlenül fut a Pascalon egy DirectX 12-es játék, csak a pixelé shader teljesítménye visszaesik, ha a buffer viewek leírótáblákban vannak. Turing, GCN, RNDA és Gen9.5-11 mellett nincs ilyen hatása az API-nak.
-
GodGamer5
addikt
válasz
velizare #40042 üzenetére
Igen, amit leírtál az tényleg eléggé visszarántja a Remedy-t. Viszont dx12-nél arra gondoltam, hogy kb 2014 óta létezik, de sok játékban nagyítóval kell keresni az előnyt, az új Resinél például csak a késleltetés javult, a framerate viszont csökkent. Meg pascalos kártyákon 90 százalékban lassulnak a dx12 játékok. Olyan nyögvenyelős az egész. Erre mondtam, hogy szerintem csak az új gennel jönnek a valóban újraírt engine-ek, addig meg nagyon lassan terjed a dx12/vulkan api és alig van dx12 only játék.
-
válasz
GodGamer5 #40040 üzenetére
nm a dx12 tart itt, hanem a remedy. a qb kiadásának célegyenesében elment tőlük a ceo, és aki érkezett, az átalakította a stúdiót. nem egy kiemelt projektük van, amin az egész cég dolgozik, mint anno a qb, hanem több, és lerövidítette a fejlesztési ciklust is (a qb ~5 éven keresztül készült, a controlt a qb kiadása után kezdték el). a control mellett nekiálltak a crossfire-t felújítani, és ezzel egyidőben készítik a második részt is, valamint egy új projektbe is belekezdtek, valamint rámentek arra, hogy az alan wakeből még több pénzt csináljanak nem-videójáték fronton (sorozat, stb.).
-
GodGamer5
addikt
Azért elég szomorú, hogy a dx12 még mindig itt tart. A QB egy nagyon szép és anno radeonon dx12-ben elég jól futó game volt, de ez egyszerűen visszalépés. Felfoghatatlan, hogy 2019-ben még ott tartunk, hogy egy AAA-s játék lassul dx12-ben a legújabb architektúrájú kártyákon.
Úgy látom az új konzolokig nem lesz itt semmi változás, főleg, hogy a dx11-et még mindig nem sikerült elhagyni. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #40022 üzenetére
Ez a játék DX12-ben tele van furcsa dolgokkal. Az erőforrás-korlátozásoknál iszonyatos, hogy mik vannak. A szinkronizáció ránézésre is eléggé rossz, mert sok a fences, ami azért baj, mert minden ilyen művelet az összes cache ürítését vonja maga után, legalább egyszer, de bizonyos esetekben további szinkronizációs műveletek szükségesek. Itt veszik valószínűleg el a sebesség a DirectX 11-hez képest, mert ugyan a fences fontos funkció, de a túlzott használata nagyon káros. A képi hibák DirectX 12 alatt valószínűleg a rosszul felépített szinkronizációhoz kötődnek, mert az erőforrás-korlátozások nem megfelelő használata bőven okoz hasonló grafikai bugokat, és minden bizonnyal a fences is emiatt van sűrűn használva, mert valamennyire kezelik vele az alapból rosszul felépített szinkronizálást. Csak ez teljesítményben drága, és minden amit nyernek a DirectX 12-n, azt elvesztik itt, plusz még grafikai hibák is vannak.
Ezt rendbe lehet egyébként hozni, bár ez a DirectX 12 legnehezebb része. A legtöbb programot így ki sem adják DirectX 12-vel, mert lerí róla, hogy szarul működik a leképezője, és ez a mód inkább jön egy patch-ben.
A QB ehhez képest sokkal jobb volt, nem tudom, hogy mi ment félre, de gondolom a motort is átírták rendesen.
-
Abu85
HÁZIGAZDA
Ami rossz az rossz, ami jó az jó. Ennyire egyszerű. Itt nincsenek oldalak.
Az, hogy a kiadó sürgeti őket már önmagában egy probléma, mert ettől a végeredmény sokszor lesz rossz. És a kiadó számára nem egy opcionálisan bekapcsolható effekt lesz a fontos, hanem a játék maga. Ehhez tényleg kellenek a konzolok, mert ott akár az is előfordulhat, hogy maga a játék van úgy felépítve, hogy az AI upscaling a leképezés fontos eleme, és akkor az nem csak úgy lesz kezelve, hogy meh... hanem rászánják az időt, hogy jó is legyen, és arra már a kiadó sem mondhatja, hogy baszki nincs több idő, adjátok ki, mert dizájnból úgy tervezték a játékot, hogy az AI upscaling nélkül nem jó a sebesség és a végeredmény. Tehát a Microsoft megoldása nem azért más, mert másképp csinálják, hanem egyrészt ott az Azure, amely összesített számítási kapacitásban mérföldekkel több, mint ami az NV-nek van, és ennek egy jó részét pusztán oda tudják adni a fejlesztőknek, hogy Xboxra jól megcsinálják. Aztán persze lehet ezt hozni PC-re, valószínűleg a Microsoftot nem fogja érdekelni, de mivel a DirectML ugyanaz lesz a következő Xboxon, mint PC-n, ezért az egész fejlesztés egy az egyben másolható.
Az NV megoldása is lehetne jó, csak láthatóan nem érdekeltek abban, hogy ebbe pénzt fektessenek, mert ha azok lennének, akkor teleszórnák a fejlesztőket szerverekkel, hogy csinálják a neuronhálót, de nem csinálják ezt. A DLSS szerintem egy nagyon gyors ötlet volt arra, hogy van egy rakás sötét szilícium a hardverben a Tensor magok által, és azokat nem tudták mire használni. Kitalálták, hogy jó lesz az AI upscalingra, meg is csinálták, mert nem nagy művészet ennek a szoftveres háttere, csak azzal nem számoltak, hogy itt a minőség kulcsa nem a hardveren műlik, ami nálad van, hanem azon, hogy mekkora erőforrást hajlandó a minőségért befektetni a játék fejlesztője. Jelen állás szerint nem sokat, mert a DLSS minősége a játékokban a ritka ronda és a - jó szándékkal - közepes szint között van. És ez ellen nem tud tenni az NVIDIA, mert nem érdekeltek abban a fejlesztők, hogy a legalább jó szinthez szükséges erőforrást belefektessék. Szóval ez alapvetően nem az NVIDIA hibája, látható, hogy a 3DMark DLSS tesztje jól működik (sőt kiválóan), csak az egy 3 perces jelenet, arra nem művészet ezt megcsinálni. Egy 10-20 órás játékra már sokkal körülményesebb. Úgy mondanám ezt, hogy a 3DMark bemutatta, hogy maga a DLSS alapvetően tudja azt, amire tervezték, csak a játékoknál fejlesztők szarnak bele, hogy ezt kihozzák, egyszerűen se erőforrásuk, se pénzük rá, hogy egy korlátozott usernél bekapcsolható fícsőrre koncentráljanak. Emiatt lesz más a konzolnál, mert ott aztán minden usernél működni fog, tehát megéri ebbe pénzt és erőforrást rakni, mert optimalizálásként lehet majd felfogni, és ha már működik, akkor mehet copy-paste PC-re is.
-
szarnak bele? jól teszik. egy jó neuronhálóra rá lehet bízni egy autó vezetését, erre nem ai-ra használjuk egy játékban, hanem a fényvisszaverődés kiszámítására? az npcket meg lua vagy mittudomén milyen scriptek vezetik.
nyugodtan pusztuljon csak ki ez a szar, nem kár érte. -
FLATRONW
őstag
válasz
huskydog17 #40021 üzenetére
Az a baj, hogy nem értítek, hogy valószínűleg itt is mekkora csodát hajtott végre a Remedy.
A lenyeg a következő:
- jól működik a leképző
- átgondolt a szinkronizáció
- szép az allokációs stratégia
- kevés az idle buborék
- átgondolt a multiengine implementáció. -
válasz
huskydog17 #40019 üzenetére
érthetetlen egyébként, hogy a QB alatt is már ez volt, hogy Dx11 alatt lehetett elérni használható sebességet még egy GTx 1070 kártyával is. AZ akkori konfigom ( 6800K + GTx 1070) is bereccent sokszor 40 FPS re.
Akkoriban volt fent nem hivatalos verzió virágboltban, gyorsabb volt mint a legális akár 20 % kal is.Az eredeti dobozos mellé le kellett töltenem ... WTF ? szerintem ezzel megint az lesz.
-
huskydog17
addikt
Igen, gondolom azért, mert mindhárom felbontást engedi az összes RTX kártyán DLSS alatt, viszont sajnos DX12-ben grafikai hibák jelenhetnek meg, így járt a CB is, de még Gronkh is emiatt használta a DX11-et. Egyébként érdekes az is, hogy ez is egy olyan cím, ahol a DX11 leképző jobban működik, mint a DX12, egyrészt a régi API alatt nem csak gyorsabb a játék, de a grafikai hibák is eltűnnek.
AMD esetén alapértelmezetten DX11-ben indul a játék, nem véletlen, Navi alatt akár 13%-al is gyorsabban fut így.A CB esetén is a DLSS csak felerősítette a hibákat, illetve 1080p alatt erősen mosott lesz a kép, mivel a játék alapból nem túl éles képet ad (kikapcsolhatatlan élsimítás).
A játék meglehetősen lassú alapból is, ugyanis 1080p alatt az RX580 és GTX 1060 csak minimális grafikán hoz jó sebességet, de mindent elmondanak a grafikonok.
A brutális gépigényt a Hardwareluxx és PCGH tesztjei is megerősítik.
Összességében azért nem vagyok elájulva ettől, mert a játék látványa szerintem messze nem olyan, hogy ekkora gépigényt igényeljen, az meg, hogy a DX11-es leképző jobban működik, mint a DX12-es, nos láttunk már ennél sokkal jobb PC portokat is. Northlight motoron bőven van még mit reszelni.
-
jól van Abu, tudjuk megmagyaráztad nem először,nem vártam mást hogy erre mit fogsz mondani azt meg megszoktam már hogy a másik oldalon a szar is aranyból van.
a kommentedet úgy olvastam először el, hogy az elsőt sort meg az utolsót a közte lévő 15 sort magamtól is be tudtam volna helyettesíteni mikor láttam ki szól hozzá."Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt."
Erről amit írtál megint az a véleményem hogy ez a te saját véleményed szokás szerint mindenféle bizonyíték nélkül. AZ hogy ki meddig akar tesztelni te rohadtul nem tudod, ki mennyi időt akar erre szánni azt sem tudod. lehet a kiadó sürgeti őket hogy szevasz a játékot meg kell jelentetni vagy nem akarnak rá több időt szánni. Rohadtul nem tudod hogy az Nvidia nem ad e nekik elég gépidőt tanulási folyamatra lehetőséget,. mint ahogy azt sem tudod , hogy a Microsoft féle neuronhálós tanításra mennyit fognak rászánni. szokásos csodaváró bulléshit amikor mindig más cégtől várod a jobb és remekebb megoldást csak ne a zööööödeké legyen az...
Szerinted Nvidiánál balfaszok ülnek és élvezik, hogy szar jön kia kezük alól, nekik nem érdekük, hogy a DLSS ne lehúzva legyen a cikkekben. lehet hogy éppen rohadtul nem tudnak azzal mit kezdeni náluk, hogy a fejlesztő cég nem akar erre több időt/ energát szánni és eltolni a kiadást, még ha fizetne nekik az nvidia akkor sem... -
GodGamer5
addikt
Control Benchmark:
[link] -
Abu85
HÁZIGAZDA
Viszonyítás kérdése. Ahhoz képest jó, hogy pár játék milyen szar képet rak eléd DLSS-sel, de az elvárható minőségtől fényévekre van.
Ugyanaz a probléma mindig. A jó eredményhez jó neuronháló kell, de mivel alapvetően ez csak egy kikapcsolható fícsőr, így nincs értelme belerakni a gépidőt. És itt elcsúszik az egész, mert nem úgy tekintenek rá a fejlesztők, hogy ezzel optimalizálnak, hanem csak megvásárolja tőlük a funkció beépítését az NVIDIA, de eközben a fejlesztői oldalon kb. semmi kedvük arra, hogy ebbe erőforrást rakjanak. A pénz jól jön, aztán szarnak az egészre, miközben a probléma megoldása kellően bonyolult ahhoz, hogy ha ehhez így állnak hozzá a fejlesztők, akkor annak nagyon felemás eredményei lesznek.
Ezen az segíthetne, ha a Microsoft beállnak az egész mögé a következő generációs Xboxnál, és kb. odatolná az Azure-t a fejlesztők segge alá. Tessék ott egy rakás ingyen számítási kapacitás a felhőben, és csináljátok meg az Xboxra jóra, aztán az a neuronháló vihető PC-re is. Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt.
-
válasz
huskydog17 #40009 üzenetére
pedig sokan dicsérik a DLSS-t a Controlban:[link]
-
imi123
őstag
válasz
huskydog17 #40009 üzenetére
Hát talán még ma jön hozzá driver ami azért javíthat a helyzeten(vagy ronthat)
-
-
imi123
őstag
-
huskydog17
addikt
Control - ComputerBase Benchmark
Nem lett valami fényes ez a PC verzió, kb. ugyanaz van, mint Quantum Broke-nál: tetű lassú a motor, csak itt még a raytracing behúz még egy kéziféket, miközben elég sok grafikai hiba van benne. A DLSS pedig annyira lrontja a képminőséget, hogy nem érdemes használni.
-
imi123
őstag
Teljesítményproblémákat okozhat a legutóbbi GeForce driver
És itt erről nincs cikk?
Abu sem a régi már. -
-
FLATRONW
őstag
válasz
GodGamer5 #40002 üzenetére
Azt írják, hogy nem látni különbséget a valós 1440p és a DLSS 1440p között.
Lehet, hogy azért van ez, mert a Remedy grafikus motorja olyan, hogy soha nem számol a valós felbontáson (hacsak ki nem kapcsoljuk ezt a funkciót). Mivel a DLSS is hasonló elven működik, valószínűleg az aktiválásakor a Remedy megoldása kikapcsol, és csak a DLSS lesz aktív. -
GodGamer5
addikt
Egész jól sikerült a Control rtx és DLSS implementációja:
[link]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ÁRCSÖKKENTÉS Menő retró konfig: Q9550, Gigabyte P43, 4GB RAM, ASUS GT730
- HP 15 Pavilion FHD LED Matt Ryzen5 5500U 4.0Ghz 8GB RAM 256GB SSD Radeon RX Vega7 Win11 Garancia
- Gamer PC-Számítógép! Csere-Beszámítás! I7 6700K / RTX 2060 6GB / 32GB DDR4 / 500 SSD
- Bomba ár! HP EliteBook 2560P - i5-2540M I 4GB I 250GB I DVDRW I 12,5" HD I W10 I Garancia!
- Bomba ár! Dell Latitude E5250 - i5-5GEN I 8GB I 128SSD I 12,5"FHD Touch I HDMI I Cam I W10 I Gari!
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest