- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Luck Dragon: Asszociációs játék. :)
- Magga: PLEX: multimédia az egész lakásban
- eBay-es kütyük kis pénzért
- Lalikiraly: Sencor SMC BS30 aktív hangfalszett bemutató
- mefistofeles: A 15 centi nagyon rövid.........
- LordAthis: AI Kérdés érkezett - 3600 soros Spagetti kód refaktorálása és budget
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Geri Bátyó: Agglegénykonyha 1 – rizseshús másképp
Új hozzászólás Aktív témák
-
cskamacska
addikt
válasz
Petykemano #30699 üzenetére
Hát, ha már #mocskosamdéerjáték
, akkor legyenek ilyetén mód következetesek, ne csak a Vega meg a Polaris legyen kiemelve, mint a Warhamster DX12 módjánál, hanem minden GCN legyen gyors.
Ez szerintem teljesítve is lett, frametime-ban RX460 behozta a 1050Ti-t és lehagyta a 960-at, R9 380 behozta a GTX970-et, Fury X pedig átlagban is az 1070 nyakára lépett.De minden gyorsan a helyére kerül, mert megjött ez évi CoD adagunk
Gamegpu.ru - Call of Duty WWII Beta GPU / CPU Test
Proci teszten egész jól teljesít az FX/Ryzen felhozatal, AMD fanoknak sincs miért bánkódniuk.
-
Petykemano
veterán
válasz
TTomax #30692 üzenetére
Na végre.
Persze:
amikor a vega 56 és 64 teljesít ugyanúgy (mint a fiji), akkor az amd #deszar #debéna #lekénetennialantot, #rajamondjonle, #nemtudnakdrivertírni, stb
Amikor az nvidia kártya ütközik valamilyen hardveres limitbe: #aprogramszar, #aprogrammondjonle, #mocskosamdéerjáték #egyfecskenemcsinálnyarat
Nem is csinál és biztos ki is fogják javítani ezt a hibát (vagy legalábbis azt, hogy több ilyen játék ne készüljön, amíg az nvidia fel nem készül rá), de meglehetősen szórakoztató látni, ahogy elbicsaklik az nvidiafan-felsőbbrendűségtzdat, s hogy azok, akik eddig lesajnálták az amd fanokat, milyen érveket húznak elő: valami nem stimmel a programmal, nem használja ki a kártya hardveres lehetőségeit. Ez a de a növekvő felbontással fordul a kocka, meg a pascal kevésbé veszít az erejéből, mint a vega, és mindezt százalékosan különösen szórakoztató, mert ugyanezek az érvek elhangzottak anno a fiji mellett (tudniillik hogy magasabb felbontáson kevésbé limites és 4k-ban lehagyja 980ti-t), és értelemszerűen le voltak söpörve: ki játszik magasabb felbontáson? A 144hz sokkal fontosabb.
Annyit mondok: nyugi, egyformák vagyunk. Ha valami nem logikusnak tűnőt látunk, ugyamazokat az izzadtságszagú érveket és logikát rántjuk elő.
Lehet, hogy csak valami apró porszem került a fogaskerekek közé és holnap helyreáll a rend, de a para megvolt. -
ÁdiBá
veterán
válasz
TTomax #30694 üzenetére
Szerintem sem kerek valami, hiszen ha pár 4K tesztet megnézel, akkor van olyan, pl Rise of Tombraider ahol közel 100% gyorsabb a 1080Ti mint a 1080.
Én nem hiszem hogy teljesen rendben van ehhez a játékhoz az nvidia driverei.
De azt sem tartom kizártnak, hogy az AMD *jövőbe mutató fejlesztései itt előtérbe kerültek.
Mindenhol ezt látnánk, már adnám is el a 1080Ti.
De sajnos ez most valami egyedi eset. -
TTomax
félisten
Egyébként azt sem értem a teszt hogyan készült el amikor 60fps lock van a játékon...
PC SPECIFIC KNOWN ISSUES
• Unlocked framerate is currently not supported in the Forza Motorsport 7 but will be available with a future update.
-
Raymond
titán
válasz
TTomax #30692 üzenetére
Vagy igy nezve:
1080p 1440p 2160p
-----------------------------
GF1070 100% 94% 73%
GF1080 100% 91% 73%
GF1080Ti 100% 92% 82%A 1080Ti kemeny 18%-ot veszit csak a teljesitmenybol ha megnegyszerezed a pixel mennyiseget (FHD->UHD). A Polaris es a Vega itt sokkal jobban esik:
1080p 1440p 2160p
-----------------------------
RX580 100% 80% 53%
Vega56 100% 81% 61%
Vega64 100% 84% 61%Szerk: latom kozben szerkesztettel hasonlo mondandora
-
TTomax
félisten
-
Milka 78
nagyúr
-
Milka 78
nagyúr
Very Nice!Na ezt kellett volna mindenhol tudnia a Vegának és a kutyát sem érdekelné,hogy lekotlik alatta Paks 2,vagy befűt egy 2 szintes családi házat,mert egy ilyen teljesítmény mellett ez pont lényegtelen
ÁdiBá : Ráadásul ez nem beépített bench,hanem a játék egy adott pontja (25mp,23 versenyzős,Szuzuka,jó idő)
-
Yutani
nagyúr
válasz
->Raizen<- #30683 üzenetére
Kikap a Ti = szar a kód
-
Raymond
titán
válasz
#85552128 #30680 üzenetére
Figyemelbe veve hogy a jatek nagyon gyenge kartyakon is kivalo FPS-t produkal mert eleve XBO limitacioira lett zomeben epitve megkockaztatom hogy ugyanaz a helyzet mint a Dirt4-nel is alacsony felbontason - az egesz working set teljesen vagy majdnem teljesen belefer a kartyan talalhato cache-be igy ennek, plusz a CU-k kozti javitott kommunikacionak hala megmutatkozik a shader/Gflops elony.
-
Abu85
HÁZIGAZDA
válasz
Crytek #30681 üzenetére
Nem sok köze van a Vega eredményének a DX12-höz. Azért ennyivel gyorsabb, mert dupla olyan nagy a felhasználható LDS, mint a korábbi GCN-ekben. Mivel a Forza shaderjeit nem írják PC-re, hanem az Xbox One shaderekből konvertálják egy programmal, így már a korábbi részre is jellemző volt, hogy az LDS kapacitása limitálta a futtatható wave-eket lényegében minden architektúrán. A Vega azonban kezeli ezt a problémát, így ennél az architektúránál már több wave futhat, mint mondjuk a Polarison, még akkor is, ha ugyanaz a shader. Vagyis végeredményben a GPU kevesebb időt tölt el azzal, hogy vár az adatra. Az Xbox One-on ez azért nem probléma, mert ott ismerik azt a hardvert, amire fejlesztenek, és direkten képesek kontrollálni a GPU-n belüli erőforrás-allokációt. Ilyet PC-n nem lehet tenni. Túl sok az eltérő hardver, és nincs is olyan felület, amivel ez egyáltalán megoldható. Majd a Volta itt is jobb lesz, mert az NV összevonta az LDS-t és az L1-et, így a Vegához hasonlóan több LDS kapacitást ad.
-
#85552128
törölt tag
válasz
Yutani #30679 üzenetére
Az biztos, hogy valami visszafogja (CPU limit), de nem csak ettől van a különbség, a játék is jobban szereti a Vegát, mert sehol máshol nem gyorsabb ennyivel az 56 mint a Fury X. A 1060 is szintén furán viselkedik, mert a felbontás növelésével gyorsabb lesz mint az 580.
-
gV
őstag
-
smkb
őstag
válasz
Crytek #30676 üzenetére
120 usd egy blur effektért. Jól mérik.... másik 120 dollárért meg vehetek egy élkiemelős kivitelt, ha pocsék minőségű videot néznék... vagy akár egy emboss-t...végül minden nyomi 2d képfeldolgozó algoritmust külön külön csipen megvehetek
Azért egy ilyen blur nem egy nagy truvaj, egy mezei mátrix szorzás. Ha már ennyit kérnek érte, akkor lehetett volna programozható, hogy milyen funkciót is csináljon. Ez ma már egy egyszerűbb okostelefon ára, amiben sokkal okosabb nagyobb teljesítményű csipek dolgoznak és egyéb alkatrészek is ott figyelnek akkustól, kijelzőstől.
-
Crytek
nagyúr
Ilyen, amikor a HDMI kábel végzi az élsimítást a játékokban Ó jaj csak az nvidia meg ne tudja mert beépíti a G-Sync mellé a monitorjaiba ezt a cuccot
-
#85552128
törölt tag
-
HSM
félisten
válasz
cskamacska #30671 üzenetére
Jó, de ami elsőnek jön ki, az még aligha optimalizált cucc....
Ennél már láttunk sokkal jobbat, pl. már a BF4 Mantle módja sokévvel ezelőtt is szuperül hasított megfelelő vasakon.(Igaz, csak 5 szálon, de az se rossz szvsz.)
Az, hogy az FX8350 kikap az i3-2100-tól egyetlen dolgot jelez biztosra, hogy valami katasztrrófálisan el lett szúrva ennél a friss ropogós első bindless (?) játéknál.
Normálisabban skálázódó programokban az FX-nek úgy kellene mennie, mint amit a Crysis3-nál látunk, hogy valahol a 2600K i7 magasságában.
-
cskamacska
addikt
válasz
erer1000 #30668 üzenetére
"akkor igazából ha nem a high end hajhászás a cél, egy FX 8350 elég lesz FHD-hez még pár évig"
Nagyon bátornak teccik lenni.
Friss ropogós bindless(?) DX12 játék, a jövő amit vártunk(??):
Hogy két tucat patch után ez, és az elkövetkezendő DX12 cuccok milyenek lesznek nem tudjuk, de az FX tulajok ehhez hasonló megtrollkodása már jó 6 éve tart a játékiparban, ez bizonyos.
kis érdekesség
-
HSM
félisten
válasz
erer1000 #30666 üzenetére
Igazából megválaszoltad magadnak a kérdésed.
"nincsen optimalizálva 8 szálra a program?"4 szálra még viszonylag könnyen megírható a program, hogy jól skálázódjon (egyet elvisz a DX11, marad 3 a játéknak), viszont 8 szálnál már sokminden beleszól, pl. a DX11 skálázását sem könnyű olyan magasságokba megvalósítani, és ha a DX11 rajzolós szála kimaxolódik (egy szál) akkor hiába van még 7 másik processzormag a CPU-ban, ott nem fogja tudni kihasználni őket. Ez egy komoly fejlődés a DX12 alatt, hogy ott már nem olyan nehéz az API skálázódását megoldani sok szálra. Persze, ott is el lehet szúrni a motort, de a lehetőség adott jobban megcsinálni.
Érdemes lehet nézegetned azt a mérésem: [link]
Tipikus példa a sok magra, de némi egyszálú limit (DX11?) miatt rosszul skálázódó játékokra. Hiába csak 62% a CPU használat a "valós" 4 magos 8 szálasított mérésnél, mégis gyorsulni tudott a 6/12 szállal nem is keveset.
Az FX-nél a fő szűk keresztmetszet, hogy az egyszálas teljesítménye gyenge, tehát a sok magra nem jól skálázódó játékokban csúnyán kikap. Viszont meglepően erős (modern négymagos i7-ek mellé tehető), ha a sok szálat jól kihazsnálni képes programot teszünk alá. -
Raymond
titán
válasz
Malibutomi #30663 üzenetére
A Guru3D ugyanugy, foleg a Vega temaban, csak gondolom most jobban tetszik amit mondanak igy megint OK-sak lettek
Egyebkent tok mindegy, a Gigabyte-os mokus mar irta a Tomshardware hirre hogy nem igaz: [link]
-
#85552128
törölt tag
válasz
Malibutomi #30661 üzenetére
Ugyanúgy a Tomshardware is "source"-októl közölte mint most a Guru3D (akik szintén nem éppen a legjobbak az utóbbi időben). Szóval biztosra csak akkor lehet tudni ha tényleg megjelenik...
-
Malibutomi
nagyúr
válasz
#85552128 #30644 üzenetére
Gigabyte WILL release Custom Radeon RX Vega 64 Cards
Tomshardware lassan teljesen a full gagyi kategoria lesz.
-
válasz
#85552128 #30644 üzenetére
Ez csak annak a jele, hogy tényleg kevés GPU "csomag" érhető el valószínűleg, így nem lehet stabil gyártásra állni, annélkül meg nem éri meg foglalkozni vele (túl drága felpörgetni, majd leállítani a gyártást rövid időn belül)... (amellett persze, hogy a vélemények sem bíztatóak a szériával kapcsolatban - a kettő együtt meg már túl sok probléma).
Az sem lepne meg, ha nem jönne egyik gyártó sem ilyen kártyával, aki nincs igazán közel az AMD-hez.
-
erer1000
őstag
-
Raymond
titán
válasz
erer1000 #30652 üzenetére
Mert az a szam az egesz CPU-ra vonatkozik es a magok/szalak kihasznalasabol adodik. Tehat a 4/4-es i5-on ha 2 szal 100%-ra megy a tobbi meg 0% akkor az osszkihasznaltsag 50%, az FX-nel ugyanez a 2 szal szinten 100% lenne a tobbi (CPU3-CPU8) pedig 0% az osszkihasznaltsag csak 25%-ot mutatna. Ott a videoban is lathatod a magok/szalak kihasznaltsagat. ha barhol megallitod a videot, osszeszamolod a magonkenti/szalankeni %okat es elosztod a magok/szalak szamaval akkor kijon az a szam ami ott a CPU sorban van a homerseklet mogott.
-
Abu85
HÁZIGAZDA
Vega 56 HBCC on-off teszt. [link] - első fele bekapcsolva, második fele kikapcsolva. Sarokban van real time frame-time grafikon.
-
erer1000
őstag
ebben a videóban 1070 OC-val 16 játékot letesztel az illető, FX8350 és i5 7400-al
az tűnt fel nekem hogy oké, kevesebb FPS van az FX-el, de 1 játékot leszámítva sehol sincs 100% CPU load az FX-nél.
egy két helyen 80% körül tetőzik, de 65-70% a jellemző.
alapból GPU limitre gondolnék, de látom az is csak 40-70% közt mozog, az sincs kihasználva(witcher intel 95% load GPU 64% amd 70% load 53%GPU)
mi okozza ilyenkor a szűk keresztmetszetet az FX-nél? nincsen optimalizálva 8 szálra a program? (na de kb 13-14 a 16ból?)
-
Petykemano
veterán
Ennek a mindless bekötésnek mi értelme van, ha semmit nem hoz, de a kártyák 90%-ával lényegében inkompatibilis?
-
X Factor
addikt
válasz
#85552128 #30649 üzenetére
Ebben egyetértünk.
Én például még év elején vettem kijelzőt, mert h. juniusban jonnek a vega-k. Hát nem jöttek. Egy idő után úgy voltam, h. bármi jön ami erősebb mint a fury megveszem. Ígyis lett. Csak hát az a fél év.
Abban viszont egyetértek, hogyha jelentős javulást tudnak elérni, akkor ennyi idő távlatában az a plusz 2-3 hónap belefért volna.
A többire meg majd az új driverek megjelenésével visszatérünk.
Abban igazad van, h. minden elérhető fórumon sírtak volna a userek, mert hát valljuk be a userek ilyenek.
Ellenben, ha feature unlock után megvan a teljesÍtmény, akkor szvsz annyira mindegy, h. azt 1382 vagy 1512mhz-es gpu órajellel éri el. De abban igazad van, h. ezzel a véleménnyel vélhetően kisebbségben vagyok
-
#85552128
törölt tag
válasz
X Factor #30648 üzenetére
Szerintem meg nem pozitívabb légkör kellett volna ideiglenes UV trükökkel, hanem addig nem kellett volna kiadni amíg nincs kész a kártya
AMD nagyon belelendült ebbe a HW-s early accessbe.
Ha ugyanis lényeges előrelépés lesz az a driver, akkor az a 3 hónap késés a 6-7-hez képest már semmiség, főleg ha versenyképesebb színben is tüntetné fel őket és pont az ünnepi szezon előtt eláraszthatták volna a piacot.
Csak van egy olyan gyanúm, hogy ők is meg a gyártók is tisztában vannak vele, hogy ez bizony már nem lesz jelentősen jobb, de még problémás is. Talán majd a die shrink/refresh jövőre.
-
X Factor
addikt
válasz
#85552128 #30647 üzenetére
Nyilván, ad egy referencia értéket és ez a jellemző. De van előttem pont egy valag 7870/270x, 480, 1060, 1070 amik gyártói custom értékekkel mennek (nem csak órajel, hanem fesz is), nem pedig az amd/nv által használt defaultok-kal.
Én is kiváncsian várom h. a tömeges UV-t bÍrni fogják-e a feature unlock-ok után. Csak arra akartam utalni, h. első körben, ha ezek amőgy sincsenek engedélyezve, okosabb dolog lett volna, első körben, UV-zva akár driver-ből leszabályozni, Így mérsékelni a fogyasztást és a hőtermelést és növelve a teljesitmenyt.
Így a kártya megjelenést egy pozitivabb légkör is belenghette volna, aztán az új driverrel ami tartalmazza az általad is emlÍtett feature-ket, belehet lőni olyan alap órajelet és feszt, ami kell. Ha ezáltal alacsonyabbak lesznek az órajelek, elvileg az se baj, higy az új feature-knek ezt kompenzálnia kéne. Ha meg nem akkor ott a választás a felhasználó előtt.
-
#85552128
törölt tag
válasz
X Factor #30646 üzenetére
Azért mert ezt nem a gyártónak kellene beállítani hanem az AMD-nek, a gyártók a saját OC-jüket szokták maguknak letesztelni a stock értékekből kiindulva. Az AMD tudja (tudja ?) hogy mennyi az optimális fesz. ami kell majd a stabil működéshez ha kész lesz majd a driver.
Ha ugyanis most kiadják pl. 1.1V-ra alulfeszelve, biztos jó értékei lesznek, de lehet a novembertől érkező driverekkel meg elszáll a kártyák 90%-a, ezzel meg csak maguknak csinálnak felesleges garanciális problémákat. Még kész termékkel is időbe telik mire kijönnek a kártyákkal, hátmég egy félkésszel amivel állítólag gyártási problémák is vannak... Az ASUS is már 1 hónapja szenved a Strixével ami early szeptember kellett volna, hogy megjelenjen. -
X Factor
addikt
Én egyedül azt nem értem, h. a gyártók, miért nem csinálnak annyit, h. 1.2V helyett p6 és p7 State-ben adnának 1.050 és mondjuk 1.100-as értéket.
Mindenki ezt csinálja, így csökken a fogyasztás, kevesebb hő lesz, halkabb még a blower venti is, a kártyák meg konstans 1500+-at tartanak órajel szinten. HBM-ből meg a vega56-ok is mind 1000+-t futnak.
A guru3d-s strix tesztet meg abszolúte nem értettem... Korábban maga a cikk Író is leÍrta, h. ha megjön az új bios megnézik majd az UV-t. Erre a teszt végén 1.2V mellett áthúzta a csuszkát a performance módra, majd közölte h. hát az órajelek nem nőnek, a fogyasztás meg az egekben...
Máshol meg 1700+-al rohangál a strix rotr alatt, 60 fokon, 40%-os rpm settingel.
Vagy magát az AMD-t nem értem, h. inkább a magasabb chip kihozatal miatt az egekbe lett tolva a fesz, mert hiába van fejlett vezérlés, ha a limitek miatt folyamatosan fogja valami a kártyát.
Az alap setting-hez képest egy picit több mint 20%-ot sikerült kifacsarni a vega56-ból nálam, úgy h. kevesebbet fogyaszt és halkabb lett :S timespy-ban pedig több mint 7k pötyöt tol. Ami olyan 1070 és 1080 közti régió, attól függően h. ref-hez vagy aib kártyához hasonlítjuk.
Nem kell nevetni, 131k volt, annyit megért
A 21:9-es 144hz-es IPS monitor meg 150k (34uc79g), koppra ugyanaz Gsync-el (34uc89g) meg 290k, nekem ez volt a döntő érv
-
do3om
addikt
válasz
#85552128 #30644 üzenetére
Ez valahol érthető. Persze visszaolvasva a lelkes rajongók a devil-toxic-trix...... karikra nedvesedve most legfeljebb a szemük az sírástól, nekem meg a rajtuk röhögéstől amire szinte folyamatosan adnak is okot.
A Vega 64 vizesre várható volt hogy nem építenek, sok márkának a vizes cucc méregdrága csúcskategória, itt meg hiába vízecskéznek akkor is legjobb esetben is messze az konkurens legjobbja mögött lennének, így nincs elég vevő. Na meg egyedi vízre nem is épít mindenki és itt még a régi blokkok sem lennének kompatibilisek.
A sima 64 meg látjuk mit megy, szarrá van hajtva csak hogy valamit felmutasson, (lehet szépíteni de az igazság ez). A gyártók viszont szeretnek kitűnni az egyedi megoldásokkal, na ennél eltűnni lehet. Az Asus szív a biossal, hála a jóságos és csúcs szuper AMD fesz szabályzásnak. A többieket megértem ha nem kérnek belőle. Nem lehet kimagasló terméket hozni rá.
Vega 56, itt még talán várható valami, persze azóta is csak ref van miközben nagyrabecsült mindent tudó cikkírónk lehozta hogy csak az oemek kapnak refet, komplett képekkel a többiek egyedire építenek. Na ez is bejött szépen mert csak ref van mint a felső két variánsból.
-
#85552128
törölt tag
Folytatódik a sikersztori: Gigabyte says no to custom Radeon RX Vega 64
"According to Tom’s Hardware, Gigabyte has no plans for custom Radeon RX Vega 64. The company, however, does not rule out the possibility of custom RX Vega 56. "
"Gigabyte and MSI are now focusing on upcoming GeForce GTX 1070 Ti graphics cards, which is expected late October."
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #30641 üzenetére
Meggyőződésem, hogy most nem erre kutatják a választ, mert ezt könnyen el lehet érni a shaderekkel. Ezek viszont kicserélhetők, akár egy későbbi patch-ben, akár a driverben.
Én azért remélem, hogy ez az eredmény nem a bindless általános hatását mutatja, mert akkor csúnya lesz itt az AC: Origins és a Far Cry 5. Esetleg ha meghajtóban van a gond, akkor addigra megtalálják a probléma forrását. De elméletben nem kellene esnie a hardverek teljesítményének ennyit a bindlesstől. Kb. úgy kellene viselkedniük, mint a Vegának és a Polarisnek. A sample-ök sem mutattak eddig problémát, na persze az is igaz, hogy egy sample és egy játék között hatalmas a különbség.
-
Yutani
nagyúr
válasz
cskamacska #30637 üzenetére
De várjatok már. Egy olyan DX12 "implemetáció"-ról beszélünk, ahol fHD-n egy 1080 nem elég 60 FPS-re? Ugyan már, én egy szót sem vesztegetnék erre a módra, pláne nem vonnék le messzemenő következtetéseket.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #30631 üzenetére
Tudtommal a Warhammer 2-t egyik cég sem támogatja. Amolyan árva játék ilyen szempontból.
Igazából a DX12-ben nem kellene ekkorát esnie az 1070-nek. Elvégre a bindless egy sebességnövelő funkció, aminek +1-3%-ot kellene hoznia. Ez megkérdőjelezi a bindless használhatóságát, és akkor tudjuk, hogy az Ubisoft is erre áll át a következő körben. Lehet, hogy korai még. Az is kérdés, hogy az NV jól tette-e, hogy a 384.76-os meghajtónál bindless emulációra váltott át. Nem-e jobban jártak volna, ha marad az eredeti megoldásuk? Esetleg arról van csak szó, hogy még kevés erről a tapasztalatuk és lehet, hogy úgy egy éves távlatban mégis ez a jó megközelítés.
Azért vártam az első bindless játékot, mert sok kérdést tisztázott volna, de mondjuk úgy, hogy csak még több kérdés merült fel. A Polaris és a Vega működik ez megállapítható, viszont más szempontból csak pislogni lehet az eredményeken.
-
Raymond
titán
válasz
cskamacska #30637 üzenetére
Ja, hogy csak egy pelda legyen - GF1060 vs. RX480. Ha a GF1060 DX11 ertekeit veszed 100%-nak mert azok a legmagasabbak ezeknel akkor DX11-ben az RX480 hozza annak 70%-at DX12-ben pedig a GF1060 leesik 83%-ra az RX480 pedig feljebb megy 78%-ra. Az RX480 tehat nyer kb. 10%-ot, a GF1060 leesik 20%-at, de meg mindig elobbre van. Fantasztikus es nagyon ertelmes implementacio
-
cskamacska
addikt
válasz
Yutani #30624 üzenetére
Igen, az a szomorú helyzet hogy jelenleg egy szem "next gen" API-s címünk van, a DOOM 2016, minden más játék DX12 módja kabaré és tragédia között áll valahol. DOOM nagyon szépen gyorsított minden GCN kártyán HD7870-től RX480-ig, miközben nVidia kártyákat vagy békén hagyta, vagy azokon is gyorsított csöppet.
De ez a Warhammer 2 mint első bindless DX12 cím, ez valami gyalázat.
0. lépésben nincs SLI/CF támogatás DX12 alatt, ami DX11-ben egész jó hatásfokkal működik. Aztán DX11-ben az AMD kártyák szenvednek, 970 és 1060 3GB pariban van a Fury X-el, GTX960 és 780 beelőzi a teljes 480/290 mezőnyt, Vega az 1070 alá kerül.
Na erre az AMD rettenetes bosszút forral és az válasz DX12-ben, hogy a Vega 64 szinte nem lép semmit előre(42 min 54 átlag fps-ből lesz 44 min 55 átlag), és az RX480 is fél kezén számolja(22-28-ból lesz 25-31) , de minden létező másik grafkártya, beleértve HD7870-től Fury X-ig a GCN kártyákat is, a teljesítménye jó 30-40%-át ott hagyja a zaciban.
CPU kihasználást inkább nem is említem, DX12 alatt a Skylake i3 6100 beelőz mindent és mindenkit, 20%-ot
ver a 8 magos i7 5960X-re, de még a Haswell i7 4770 is lemarad 14%-al.
-
smkb
őstag
válasz
sayinpety #30625 üzenetére
Ezeket évek óta írod. Évek óta mindenben fasza a GCN, NV kínlódás, gyötrelem, pokoljárás. PC gaming piac meg ebből semmit nem igazol. Évente többezer játék jelenik meg, ebből 1 kézen meg lehet számolni, hányban jelent előnyt a GCN. Tények sehol. Kezdesz hiteltelen lenni.
"Polaris, Vega a legjobb, am korabbi GCNek nem eleg jok. Nv meg rosszabb."
Nem értem a Polaris előtt GCN miért nem jó. Korábban még azokról állítottad, hogy milyen remek. Fura. Nem 2016-ra kellett volna elkészülnöd valami DX12 motorral?
-
FLATRONW
őstag
válasz
X Factor #30633 üzenetére
Ez nem magyarázat. A nagyobb teljesítményért mindig is aránytalanul többet kellett fizetni.
Az lenne a normális, hogy DX12 alatt jóval 40 százalék alatt lenne a különbség.(#30632) Szaby59: Én is csak az első rész alapján gondolom ezt, meg az alapján, hogy a DX12-es mód egy AMD-nek kedvezőbb bekötés szerint készült el.
-
Attix82
addikt
AMDnél mindig az van a hírekbe, hogy mennyire időtállók . (GCN miatt )....közbe azt látni, hogy a 2xx / 3xx máris kapáltak. + a mostani RX VGA-kkal a DX12be nem ad kellő fps értéket. ( 25 -30 fps ???)
NV-n esett az fps DX12 alatt, viszont még mindig az AMD előtt van így is.
-
X Factor
addikt
válasz
FLATRONW #30631 üzenetére
Azzal, hogy az rx 480 egy 80k-s kártya volt, amíg a bányászok előtt lehetett kapni, az 1070 megy egy 130-140k-s ársávban mozgó vga?
Szaby59 Az első rész jól ment az AMD-ken (Fury-m volt amikor sokat játsozttam vele), az engine ugyanaz, majd az okosok megmondják az okát.
-
FLATRONW
őstag
Azt mivel magyarázod, hogy egy AMD támogatott játékban DX11 alatt dupla olyan gyors az 1070, mint a RX480?
Ok, hogy DX12 alatt nagyot esik az 1070 sebessége az RX480 pedig egy picit gyorsul, de még így is pont 50 százalékkal gyorsabb az 1070. Pedig nagy átlagban a két kártya között 40-45 százalék különbség van. -
Z_A_P
addikt
válasz
cskamacska #30629 üzenetére
eleven, thirty, 27th, ...
-
cskamacska
addikt
válasz
Raymond #30596 üzenetére
Nem tudom mi volt előtte, és mi jön utána, de nekem azért tetszik nagyon ez a DX11-es BF1 grafikon, mert 4 mag + HT-ig úgy skálázódik, ahogy egyébként a procik erősorrendje áll az elméleti számolási kapacitásuk alapján. Sor végén a 2 modulos FX procik kullognak, aztán 2,6 magos i3-ak jönnek, majd 3 modulos FX-ek kelnek birokra a 4 magos i5 ellenfeleikkel, mellettük az alacsony kat Ryzen procik a 4 modulos FX-el szemeznek, majd a 4 mag + HT i7 és közép kat Ryzen, végére meg a sokmagosok kicsit kuszán de nem vészesen, egyedül a Skylake i7 lóg ki de bőven belefér.
Aztán jön a DX12 és az i3 felugrik i5 szintre a 4 modulos "inkább egy ember egy lapáttal" elé, a Haswell i7 pedig lenyomja a 6 magos Sandy-t és a legerősebb Ryzen-t. Mármint azon API alatt ahol messze jobb multi core kihasználást várna az ember olyan IPC kötöttség látszik ki, hogy az Intel legnedvesebb álmaiban nem gondolna ilyenre.más
hogy neve is legyen a gyereknek, ím a Warhammer 2 eredmény képei
-
-
sayinpety
tag
A D3D12 specialis. Nem szamit mennyi memoria van VGAn. Hiaba GCN mind az iterations eltero. Polaris, Vega a legjobb, am korabbi GCNek nem eleg jok. Nv meg rosszabb. Sajat bindless engineben ket groupra bontom a hardware tamogatast. Polaris, Vega es osszes tobbi. Maskepp optimalizalok rajuk. Polaris, Vega groupra a celom a videoram hasznalat optimalizalasa. Tobbi hardwarenel a celom a sebesseg megtartasa a videoram hasznalat karara. Az engine mar forward+ a VR miatt, nem igenyel sok videoramot.
Amit Microsoft mond a D3D12rol nem realis. Egyedul Polaris es Vega tamogatja normalisan. A tobbi hardware nem eleg jo. Nv es Intel D3D12 implementation eleg surun valtozik.
Az Nv resource binding implementation a 384 driver ota katasztrofa. Nalam -10 szazalek performancebe kerult. Inkabb kernem vissza a regi drivert. Nem kell fogni a kezem, tudom kezelni a tier restrictionst vagy RS 1.0-1.1 kulonbseget. Inkabb teljesitmenyt kerek.Szemelyes velemenyem, hogy Vulkan jobb. Nincs bindless, jo a performance. SPIR-V CodeGent varom. :fingers crossed:
-
Shing
őstag
válasz
#85552128 #30606 üzenetére
Eh. Nem csak GPU-k lassulnak, hanem a CPU-k is. Egyébként ezek az újabb játékok már DX11.1-11.3 újításokat is kihasználnak? Mitől van az, hogy ennyire rossz a DX12 még mindig? 2 éve még az volt a hype, hogy egy HD7000-es kártya álleejtő gyorsításokat fog mutatni. Most a legújabb RX400 széria alig gyorsul (ha gyorsul).
Persze mindig van valamilyen implementáció amire rálehet fogni a lassulást.
-
#85552128
törölt tag
Te az indító hszedben még Tier3-at írtál, nem azt, hogy Polaris+ (vagy 6-8 GB VRAM) kell hozzá. Tehát akkor teljesen mindegy, hogy Tier3 a Fury X meg a 290X is mire kijött az első app semmilyen előnyük nincs a kevés VRAM miatt, sőt tovább lassulnak a DX12-re váltástól. Azért kiváncsi lennék a 8 GB-os 390/X mire képes, mert ha az is lassul akkor szimplán semmi köze a VRAM-hoz.
"mivel az AMD bindless implementációja egy két éve optimalizált rendszer, míg az NV aktuális implementációja csak három hónapos"
Ez alapján 3 hónap alatt bizony jobb munkát végeztek mint az AMD két év alatt.
-
ÁdiBá
veterán
Aha és akkor vegyél egy VEGA 64, azt is kapsz ilyen áron, megfelelő hűtéssel.
Akkor mi van?! Ja hogy semmi, hát ez az.
Látod azt a grafikont?
A GTX kifizetsz 280 - 300 ezret, csak ott azt kapod amiért fizettél. Míg egy VEGA64 Liquid szintén ennyit kérnek, akkor már nem is olyan nehéz dönteni, nem igaz?!
Soha a büdös életbe nem fogja ez a VEGA beérni a 1080Ti. Az valami álom amit az AMD szemek előtt rebegtetnek.#30617) olle Jó ilyen szinten ne merüljünk már el a részleteknél.
Valaki annyiért vesz autót mint amennyit a másiknak a háza ér. .
Amúgy itt szoftveres, és driveres problémákra utaltam. Erre most jössz az árával. Hát figyelj a jót meg kell fizetni, a szart is meglehet, csak nincs értelme. -
Abu85
HÁZIGAZDA
válasz
#85552128 #30612 üzenetére
A Polaris egy rakás olyan dolgot is támogat, amivel memóriát lehet spórolni, míg a régebbi hardvereket ezeket nem támogatják.
Akkor ne nézzék meg, de ez az első bindless játék, és az NV-nek régóta a bindless implementációjával van baja a DX12-ben. Nem véletlen, hogy a megvalósításuk még azelőtt változott, hogy az első játék megérkezett volna rá. Nem mondom, hogy rossz dolog a most használt emuláció erre a problémára, de hogy nem igazán hatékony az is biztos. Már csak az idő miatt sem lehet az, mivel az AMD bindless implementációja egy két éve optimalizált rendszer, míg az NV aktuális implementációja csak három hónapos, vagyis optimalizálással még nem is igazán élhettek. De ha nekik ez így jó lesz a jövőben, akkor lelkük rajta.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #30608 üzenetére
A sebességesés normális a 3-4 GB-os VGA-knál. A bindless kód sokban eltér, így több memóriát is igényel. 6-8 GB VRAM kell minimum, különben a kevés memória miatt esni fog a teljesítmény.
Érdemes lenne átnézni az emulációt az NV-nek, mert nekik a 6-8+ GB-os VGA-ik sebessége is esik, ami elvileg nem megmagyarázható a kevés memóriával. Már csak azért is lényeges ezt kielemezni, mert az Ubisoft is bindless motorokat hoz a következő körben. Azért -15-20-25% csak a bindlessre váltás miatt sok, a driverbe épített emuláció biztosan lehet hatékonyabb is. -
#85552128
törölt tag
Az összes "nem Tier3" nV kártya a Tier3-as AMD-k előtt van még így is. Ráadásul Ugyanúgy 20%-ot esett a 1080 is mint a "Tier 3" Fury X vagy a 290X is. A 980 Ti meg a Fury X viszonya még DX12-ben katasztrófális, egy kategóriában indultak, előbbi 30%-kal beelőzi DX12-ben és ez csak egy referencia példány.
Szóval nem az nV-nek kéne "valamit" javítani... -
X Factor
addikt
válasz
turbokappa #30582 üzenetére
Meg aki vmelyik sync technológiával felvértezett monitort szeretne, de nem akarja a GSYNC horribilis felárat kicsengetni.
-
Abu85
HÁZIGAZDA
Épp kaptam egy tippet, hogy a Warhammer 2-ben a DX12 módnál a static bindingről áttértek bindlessre. Szóval végre látható lesz a DX11 és a DX12 összehasonlításánál, hogy az egyes architektúráknak ez a váltás mit okoz. Az alapjaiban Tier3-as bekötéshez tervezett hardvereknek elvileg pár, úgy 2-3-4 százalékkal gyorsulniuk kell. A többi hardver viselkedése nagy kérdés, főleg az NV-nek az emulációs megoldása kiszámíthatatlan.
-
namaste
tag
A többszálú gyorsítás mértéke függ a játéktól, hogyan használják az API-t.
Azért nem tudják az NV GPU-k ugyanúgy kezelni a StructuredBuffert mint a GCN, mert a konstans pufferre 64 kB-os mérethatár van. Ezért a shader fordító csak akkor használja, ha cbuffert szerepel a shader kódban vagy driverből egyedileg megoldják. Ha eltörlik ezt a korlátot, az egy megoldás.
-
Sonja
nagyúr
Nem rossz.
China's Top Server-Builders Adopt NVIDIA AI Design for Cloud Computing
Huawei, Inspur, Lenovo Select NVIDIA Volta HGX Architecture to Build AI Systems for Data Centers
-
huskydog17
addikt
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Akció! Sérült! Corsair Icue 5000X RGB Számítógépház! Olvass leírást!
- iKing.Hu - Apple iPhone 13 Pro Max - Silver - Használt, karcmentes, 100% akku
- GIGA AKCIÓ!!! AKTIVÁLATLAN iPad Air M2 11" WiFi + CELLULAR 512GB!!! KÉK
- LG 27GP850P-B - 27" NANO IPS - 2560x1440 - 180Hz 1ms - NVIDIA G-Sync - AMD FreeSync - HDR 400
- BESZÁMÍTÁS! Microsoft XBOX Series X 1TB SSD fekete játékkonzol garanciával hibátlan működéssel
Állásajánlatok
Cég: FOTC
Város: Budapest