Anyámnak vagy 20 évig működött a Goldstar tvje. Persze most LG néven fut, de tippre a monitoron nem bír ki 20 évet
You want some birth control, you can smoke a cigarette.
Anyámnak vagy 20 évig működött a Goldstar tvje. Persze most LG néven fut, de tippre a monitoron nem bír ki 20 évet
You want some birth control, you can smoke a cigarette.
Egész jól sikerült a Control rtx és DLSS implementációja:
[link]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Azt írják, hogy nem látni különbséget a valós 1440p és a DLSS 1440p között.
Lehet, hogy azért van ez, mert a Remedy grafikus motorja olyan, hogy soha nem számol a valós felbontáson (hacsak ki nem kapcsoljuk ezt a funkciót). Mivel a DLSS is hasonló elven működik, valószínűleg az aktiválásakor a Remedy megoldása kikapcsol, és csak a DLSS lesz aktív.
Na ebből mi sül ki.
[GlobalFoundries sues TSMC, looks to ban US imports for Apple and Nvidia chips]
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Nocsak, úgy tűnik a GF a 7nm-es a beruházási büdzsét inkább ügyvédekbe invesztálta.
Nem néztem át őket tüzetesen, de első blikkre nagyon alap dolgok miatt perelnek. Ha mégis lenne bármi jogos igény, tejeljen csak a TSMC, van miből.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
fHD felbontás +RTX-re vajon egy 2060 Super elég lesz?
#tarcsad
Teljesítményproblémákat okozhat a legutóbbi GeForce driver
És itt erről nincs cikk?
Abu sem a régi már.
Tévedni emberi dolog, de állati kellemetlen.
Ha a 60fps a cél akkor nem lesz elég, mert a cikk szerint 50-60fps-el fut egy 2080ti-n maxon 1080p-ben.
imi123: Rossz a link.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Control - ComputerBase Benchmark
Nem lett valami fényes ez a PC verzió, kb. ugyanaz van, mint Quantum Broke-nál: tetű lassú a motor, csak itt még a raytracing behúz még egy kéziféket, miközben elég sok grafikai hiba van benne. A DLSS pedig annyira lrontja a képminőséget, hogy nem érdemes használni.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
Nálam Path of Exile-nál csinál furcsaságokat a kártya.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Jogos.
Teljesítményproblémákat okozhat a legutóbbi GeForce driver
Tévedni emberi dolog, de állati kellemetlen.
Nekem a Shadow of tomb fagy kb 15 perc után.
Fórumon beírta egy srác a problémát mire egyből az AMD-re mutogattak mert Ryzen 1700-al jött elő a hiba.
Nálam 3700X-el csinálja, szóval még akár igaz is lehet hogy az új chipset driver vágott alá.
Tévedni emberi dolog, de állati kellemetlen.
Hát talán még ma jön hozzá driver ami azért javíthat a helyzeten(vagy ronthat)
Tévedni emberi dolog, de állati kellemetlen.
pedig sokan dicsérik a DLSS-t a Controlban:[link]
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
a forrasai biztos nem erositettek meg
Első AMD-m - a 65-ös - a seregben volt...
Viszonyítás kérdése. Ahhoz képest jó, hogy pár játék milyen szar képet rak eléd DLSS-sel, de az elvárható minőségtől fényévekre van.
Ugyanaz a probléma mindig. A jó eredményhez jó neuronháló kell, de mivel alapvetően ez csak egy kikapcsolható fícsőr, így nincs értelme belerakni a gépidőt. És itt elcsúszik az egész, mert nem úgy tekintenek rá a fejlesztők, hogy ezzel optimalizálnak, hanem csak megvásárolja tőlük a funkció beépítését az NVIDIA, de eközben a fejlesztői oldalon kb. semmi kedvük arra, hogy ebbe erőforrást rakjanak. A pénz jól jön, aztán szarnak az egészre, miközben a probléma megoldása kellően bonyolult ahhoz, hogy ha ehhez így állnak hozzá a fejlesztők, akkor annak nagyon felemás eredményei lesznek.
Ezen az segíthetne, ha a Microsoft beállnak az egész mögé a következő generációs Xboxnál, és kb. odatolná az Azure-t a fejlesztők segge alá. Tessék ott egy rakás ingyen számítási kapacitás a felhőben, és csináljátok meg az Xboxra jóra, aztán az a neuronháló vihető PC-re is. Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Control Benchmark:
[link]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
jól van Abu, tudjuk megmagyaráztad nem először,nem vártam mást hogy erre mit fogsz mondani azt meg megszoktam már hogy a másik oldalon a szar is aranyból van.
a kommentedet úgy olvastam először el, hogy az elsőt sort meg az utolsót a közte lévő 15 sort magamtól is be tudtam volna helyettesíteni mikor láttam ki szól hozzá.
"Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt."
Erről amit írtál megint az a véleményem hogy ez a te saját véleményed szokás szerint mindenféle bizonyíték nélkül. AZ hogy ki meddig akar tesztelni te rohadtul nem tudod, ki mennyi időt akar erre szánni azt sem tudod. lehet a kiadó sürgeti őket hogy szevasz a játékot meg kell jelentetni vagy nem akarnak rá több időt szánni. Rohadtul nem tudod hogy az Nvidia nem ad e nekik elég gépidőt tanulási folyamatra lehetőséget,. mint ahogy azt sem tudod , hogy a Microsoft féle neuronhálós tanításra mennyit fognak rászánni. szokásos csodaváró bulléshit amikor mindig más cégtől várod a jobb és remekebb megoldást csak ne a zööööödeké legyen az...
Szerinted Nvidiánál balfaszok ülnek és élvezik, hogy szar jön kia kezük alól, nekik nem érdekük, hogy a DLSS ne lehúzva legyen a cikkekben. lehet hogy éppen rohadtul nem tudnak azzal mit kezdeni náluk, hogy a fejlesztő cég nem akar erre több időt/ energát szánni és eltolni a kiadást, még ha fizetne nekik az nvidia akkor sem...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Igen, gondolom azért, mert mindhárom felbontást engedi az összes RTX kártyán DLSS alatt, viszont sajnos DX12-ben grafikai hibák jelenhetnek meg, így járt a CB is, de még Gronkh is emiatt használta a DX11-et. Egyébként érdekes az is, hogy ez is egy olyan cím, ahol a DX11 leképző jobban működik, mint a DX12, egyrészt a régi API alatt nem csak gyorsabb a játék, de a grafikai hibák is eltűnnek.
AMD esetén alapértelmezetten DX11-ben indul a játék, nem véletlen, Navi alatt akár 13%-al is gyorsabban fut így.
A CB esetén is a DLSS csak felerősítette a hibákat, illetve 1080p alatt erősen mosott lesz a kép, mivel a játék alapból nem túl éles képet ad (kikapcsolhatatlan élsimítás).
A játék meglehetősen lassú alapból is, ugyanis 1080p alatt az RX580 és GTX 1060 csak minimális grafikán hoz jó sebességet, de mindent elmondanak a grafikonok.
A brutális gépigényt a Hardwareluxx és PCGH tesztjei is megerősítik.
Összességében azért nem vagyok elájulva ettől, mert a játék látványa szerintem messze nem olyan, hogy ekkora gépigényt igényeljen, az meg, hogy a DX11-es leképző jobban működik, mint a DX12-es, nos láttunk már ennél sokkal jobb PC portokat is. Northlight motoron bőven van még mit reszelni.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
érthetetlen egyébként, hogy a QB alatt is már ez volt, hogy Dx11 alatt lehetett elérni használható sebességet még egy GTx 1070 kártyával is. AZ akkori konfigom ( 6800K + GTx 1070) is bereccent sokszor 40 FPS re.
Akkoriban volt fent nem hivatalos verzió virágboltban, gyorsabb volt mint a legális akár 20 % kal is.Az eredeti dobozos mellé le kellett töltenem ... WTF ? szerintem ezzel megint az lesz.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Ez egy ilyen lassú fajta motor.
Szerencsére engem abszolút nem érdekel annyira ez a cím, hogy ezért pénzt adjak, sőt, a Remedy d*gja fel magának az Epic pénzét.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
Az a baj, hogy nem értítek, hogy valószínűleg itt is mekkora csodát hajtott végre a Remedy.
A lenyeg a következő:
- jól működik a leképző
- átgondolt a szinkronizáció
- szép az allokációs stratégia
- kevés az idle buborék
- átgondolt a multiengine implementáció.
[ Szerkesztve ]
Ja és ezért gyorsabb a DX11 kód.
Az is lehet, hogy egyszerűen a Remedy már egy jó ideje magasról tesz a PC-re, ezt most jól tükrözi az Epic-el kötött szerződésük.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
szarnak bele? jól teszik. egy jó neuronhálóra rá lehet bízni egy autó vezetését, erre nem ai-ra használjuk egy játékban, hanem a fényvisszaverődés kiszámítására? az npcket meg lua vagy mittudomén milyen scriptek vezetik.
nyugodtan pusztuljon csak ki ez a szar, nem kár érte.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
Pontosan. Ez lenne az utolsó amit bekapcsolnék egy játékban, legyen az Microsoft- Nvidia- AMD eljárás.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Ami rossz az rossz, ami jó az jó. Ennyire egyszerű. Itt nincsenek oldalak.
Az, hogy a kiadó sürgeti őket már önmagában egy probléma, mert ettől a végeredmény sokszor lesz rossz. És a kiadó számára nem egy opcionálisan bekapcsolható effekt lesz a fontos, hanem a játék maga. Ehhez tényleg kellenek a konzolok, mert ott akár az is előfordulhat, hogy maga a játék van úgy felépítve, hogy az AI upscaling a leképezés fontos eleme, és akkor az nem csak úgy lesz kezelve, hogy meh... hanem rászánják az időt, hogy jó is legyen, és arra már a kiadó sem mondhatja, hogy baszki nincs több idő, adjátok ki, mert dizájnból úgy tervezték a játékot, hogy az AI upscaling nélkül nem jó a sebesség és a végeredmény. Tehát a Microsoft megoldása nem azért más, mert másképp csinálják, hanem egyrészt ott az Azure, amely összesített számítási kapacitásban mérföldekkel több, mint ami az NV-nek van, és ennek egy jó részét pusztán oda tudják adni a fejlesztőknek, hogy Xboxra jól megcsinálják. Aztán persze lehet ezt hozni PC-re, valószínűleg a Microsoftot nem fogja érdekelni, de mivel a DirectML ugyanaz lesz a következő Xboxon, mint PC-n, ezért az egész fejlesztés egy az egyben másolható.
Az NV megoldása is lehetne jó, csak láthatóan nem érdekeltek abban, hogy ebbe pénzt fektessenek, mert ha azok lennének, akkor teleszórnák a fejlesztőket szerverekkel, hogy csinálják a neuronhálót, de nem csinálják ezt. A DLSS szerintem egy nagyon gyors ötlet volt arra, hogy van egy rakás sötét szilícium a hardverben a Tensor magok által, és azokat nem tudták mire használni. Kitalálták, hogy jó lesz az AI upscalingra, meg is csinálták, mert nem nagy művészet ennek a szoftveres háttere, csak azzal nem számoltak, hogy itt a minőség kulcsa nem a hardveren műlik, ami nálad van, hanem azon, hogy mekkora erőforrást hajlandó a minőségért befektetni a játék fejlesztője. Jelen állás szerint nem sokat, mert a DLSS minősége a játékokban a ritka ronda és a - jó szándékkal - közepes szint között van. És ez ellen nem tud tenni az NVIDIA, mert nem érdekeltek abban a fejlesztők, hogy a legalább jó szinthez szükséges erőforrást belefektessék. Szóval ez alapvetően nem az NVIDIA hibája, látható, hogy a 3DMark DLSS tesztje jól működik (sőt kiválóan), csak az egy 3 perces jelenet, arra nem művészet ezt megcsinálni. Egy 10-20 órás játékra már sokkal körülményesebb. Úgy mondanám ezt, hogy a 3DMark bemutatta, hogy maga a DLSS alapvetően tudja azt, amire tervezték, csak a játékoknál fejlesztők szarnak bele, hogy ezt kihozzák, egyszerűen se erőforrásuk, se pénzük rá, hogy egy korlátozott usernél bekapcsolható fícsőrre koncentráljanak. Emiatt lesz más a konzolnál, mert ott aztán minden usernél működni fog, tehát megéri ebbe pénzt és erőforrást rakni, mert optimalizálásként lehet majd felfogni, és ha már működik, akkor mehet copy-paste PC-re is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Ez a játék DX12-ben tele van furcsa dolgokkal. Az erőforrás-korlátozásoknál iszonyatos, hogy mik vannak. A szinkronizáció ránézésre is eléggé rossz, mert sok a fences, ami azért baj, mert minden ilyen művelet az összes cache ürítését vonja maga után, legalább egyszer, de bizonyos esetekben további szinkronizációs műveletek szükségesek. Itt veszik valószínűleg el a sebesség a DirectX 11-hez képest, mert ugyan a fences fontos funkció, de a túlzott használata nagyon káros. A képi hibák DirectX 12 alatt valószínűleg a rosszul felépített szinkronizációhoz kötődnek, mert az erőforrás-korlátozások nem megfelelő használata bőven okoz hasonló grafikai bugokat, és minden bizonnyal a fences is emiatt van sűrűn használva, mert valamennyire kezelik vele az alapból rosszul felépített szinkronizálást. Csak ez teljesítményben drága, és minden amit nyernek a DirectX 12-n, azt elvesztik itt, plusz még grafikai hibák is vannak.
Ezt rendbe lehet egyébként hozni, bár ez a DirectX 12 legnehezebb része. A legtöbb programot így ki sem adják DirectX 12-vel, mert lerí róla, hogy szarul működik a leképezője, és ez a mód inkább jön egy patch-ben.
A QB ehhez képest sokkal jobb volt, nem tudom, hogy mi ment félre, de gondolom a motort is átírták rendesen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Azért elég szomorú, hogy a dx12 még mindig itt tart. A QB egy nagyon szép és anno radeonon dx12-ben elég jól futó game volt, de ez egyszerűen visszalépés. Felfoghatatlan, hogy 2019-ben még ott tartunk, hogy egy AAA-s játék lassul dx12-ben a legújabb architektúrájú kártyákon.
Úgy látom az új konzolokig nem lesz itt semmi változás, főleg, hogy a dx11-et még mindig nem sikerült elhagyni.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Ha nem csinálsz baromságokat, akkor teljesen jól tud működni. Már több tucat fejlesztő bizonyította. Valószínűleg a Remedy is meg tudta volna oldani, csak erőltették a kiadást. Majd fél éven elül rendbe hozzák.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
nm a dx12 tart itt, hanem a remedy. a qb kiadásának célegyenesében elment tőlük a ceo, és aki érkezett, az átalakította a stúdiót. nem egy kiemelt projektük van, amin az egész cég dolgozik, mint anno a qb, hanem több, és lerövidítette a fejlesztési ciklust is (a qb ~5 éven keresztül készült, a controlt a qb kiadása után kezdték el). a control mellett nekiálltak a crossfire-t felújítani, és ezzel egyidőben készítik a második részt is, valamint egy új projektbe is belekezdtek, valamint rámentek arra, hogy az alan wakeből még több pénzt csináljanak nem-videójáték fronton (sorozat, stb.).
[ Szerkesztve ]
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
Igen, amit leírtál az tényleg eléggé visszarántja a Remedy-t. Viszont dx12-nél arra gondoltam, hogy kb 2014 óta létezik, de sok játékban nagyítóval kell keresni az előnyt, az új Resinél például csak a késleltetés javult, a framerate viszont csökkent. Meg pascalos kártyákon 90 százalékban lassulnak a dx12 játékok. Olyan nyögvenyelős az egész. Erre mondtam, hogy szerintem csak az új gennel jönnek a valóban újraírt engine-ek, addig meg nagyon lassan terjed a dx12/vulkan api és alig van dx12 only játék.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
A Pascallal nem lehet mit kezdeni. A DirectX 12 API bekötése nem úgy épül fel, hogy jó legyen a hardvernek. A Pascal akkor működik, ha a buffer viewek (CBV/SRV/UAV) a root signature-be vannak bekötve. Ezzel szemben a DirectX 12 specifikációja pont úgy lett kialakítva, ha a root signature a konstansok mellett csak leírótáblákat tartalmazzon. Így viszont a Pascal nem működik jól. Meg lehet amúgy csinálni a buffer viewek direkt bekötését is, de mivel ezeknek a leírótáblákban a helye, így a formátumok tekintetében a root signature csak a konstansokra van szabva. Ezen nem fog változtatni semmilyen konzol. Olyan architektúrájú hardvert kell venned, amely megfelel ennek a működésnek, például: Turing, GCN, RNDA, Gen9.5-11. Ettől függetlenül fut a Pascalon egy DirectX 12-es játék, csak a pixelé shader teljesítménye visszaesik, ha a buffer viewek leírótáblákban vannak. Turing, GCN, RNDA és Gen9.5-11 mellett nincs ilyen hatása az API-nak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
AMD Overtakes NVIDIA In GPU Market Share For The First Time Since Q3 2014 – Jon Peddie Research
Hozok popcornt
...
Gondolom a Raven Ridge / Picasso húzza az AMD-t, de tényleg rég volt már ilyen.
[ Szerkesztve ]
solfilo
Valoszinuleg minden szamit ezeknel a felmereseknel
...
Úgy lett jobb az AMD, ahogy az Intel uralja a GPU bizniszt.
#tarcsad
Igen tudom, hogy a dx12 nagyon nem fekszik a pascaloknak, viszont az újabb architektúrára épülő kártyák sem hoznak akkora előnyt dx12 alatt, mert nincsenek az enginek az alapoktól átírva és ezért még mindig van dx11-es mód is, ami durván visszahúzza a dx12-t. Az meg, hogy van pár "benchmark" játék pl Ashes of the Singularity meg a Battlefieldek, WWZ stb. ahol az új kártyák nagyon gyorsak, az egy dolog, de nem ez az átlag, mert a legtöbb játék egy gyenge dx11-es port. A tonnányi indie játékról nem is beszélve ami meg úgy lett összedobálva unity, vagy U4 engine-ben.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Hunt: Showdown Benchmark - ComputerBase
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.