- bambano: Bambanő háza tája
- Magga: PLEX: multimédia az egész lakásban
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- hcl: Kelj fel komám, ne aludjál
- Elektromos rásegítésű kerékpárok
- Graphics: Hamis SSD-k az online piactereken, hirdetési oldalakon, hogyan szűrd ki?
- sziku69: Szólánc.
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- eBay-es kütyük kis pénzért
Új hozzászólás Aktív témák
-
#85552128
törölt tag
Újak közül elég sokban a 290X van a 780 Ti fölött Dying Light, GTA V Witcher 3-ban is, de arra állítólag lesz megoldás...
Szimplán annyi, hogy míg az nV-nek már a Maxwellre kell fókuszálnia addig az AMD továbbra is a régi kártyákkal foglalkozik és mivel az új széria sem hoz új kártyákat (a Fijin kívül) egy ideig még kaphatnak pár %-ot a meglévő=aktuális kártyák.
Most még driverek terén jobb az nV, DX12-től viszont a drivernek minimális szerepe lesz optimalizálás tekintetében is... -
bunygyi
tag
Sziasztok!
Vissza olvasásnál felvetődött a kérdés bennem hogy az AMD
több frissítést kap és a kezdeti különbség a játékok terén erősen elvesz!
Ez így van? -
MiklosSaS
nagyúr
válasz
Malibutomi #5890 üzenetére
Szerintem direkt nem, engem is erdekelne a tema.
-
Olvasom, amit írsz, és azt tegyük hozzá, hogy az Intel drivere szerinted a legjobb ebből a szempontból - én pedig azért nem foglalkozom a kékekkel, mert egyrészt nincs releváns teszt róluk, másrészt annyira gyenge a GPU-teljesítményük, hogy az életben nem lesznek CPU-limitesek. Diszkrét GPU-k terén a két végletet az AMD és az nVidia képviseli, és ebben abszolút az nVidia-féle irányt tartom jobbnak, mert ez jobb a játékosoknak.
(#5891) Loha: hát, igen...
-
Loha
veterán
Azért ez rendesen ki van csavarva.
Nagyon finoman fogalmazol, és most nagyon finoman fogalmaztam...
Értelmezzük kicsit ezt a 2 mondatot Abu85-től:
A mai multiplatform címek szándékosan rendkívül butítottak a játékmenet szempontjából, hogy maga a szimuláció kevés processzoridőt igényeljen, és az NV driverének is legyen elég szabad erőforrás.
Tehát a fejlesztők lebutítják a fő bevételi forrásuknak számító Xbox Oneos és PS4-es a játékaikat, hogy az NV-s PC-k is elbírják a konzolokénál többször erősebb procival a szimulációt.
A Halo 3 azért nem jött PC-re, mert nem volt elég processzoridő a driver szálak mellett.
Tehát PS3-ra és PS4-re is az NV-s driver szálak miatt nem jött a Halo 3, ahogyan a legújabb Tomb Raider is csak ezért lett Xbox exkluzív, mert az NV-s driver szálak keresztbe tettek a PC-nek és PS4-nek is.
-
Malibutomi
nagyúr
válasz
Malibutomi #5881 üzenetére
Nem kapok valaszt...vagy direkt nem?
-
Abu85
HÁZIGAZDA
válasz
stratova #5886 üzenetére
A full deferredet semmiképpen, mert a PBS-re az a legjobb. Igaz, szétzabálja a sávszélt, de megvan a maga előnye.
Low-level API-nak annyi az előnye, hogy eltűnik a driver. Tehát a program a teljes processzoridőt megkapja és szabadon felhasználhatja.
A problémát maga a driver okozza. Ezért nincs kernel driver DX12 alatt. Minden új API így oldja meg ezt a gondot. Ez az MS megoldása. A DX11 meg így marad. Nem tudnak vele mit kezdeni.A példákkal az a baj, hogy az MS is itt hasalt el. Lefuttatták a teszteket és szuper volt. De egy játék nem csak rajzolás, hanem szimulációs munka is, és ott már negatívba megy a sebesség. Ezért kért meg mindenkit az MS egy éve, hogy ne használják. Inkább skálázzák le a grafikát.
-
Abu85
HÁZIGAZDA
A Microsoft már magára vállalta a felelősséget. Amikor bemutatták a DirectX 12-t, akkor elmondták, hogy DX11-ben használt modell egy totális tévút, és mindenkit lebeszélnek azóta róla. A probléma egyébként jelentős. Minden évben azt tapasztalták a fejlesztők, hogy jönnek az új processzorok, és eközben csökken az elérhető processzoridő. Ez nem jó irány sehogy sem.
Ha olvastad, amit írok, akkor az Intel drivere ebből a szempontból a legjobb. Az AMD a két végpont között lavírozik.
-
stratova
veterán
Viszont ezzel a lendülettel, kb. ki lehetne dobni a divatosab deferred leképezőket (full, light pre-pass) és/vagy forward+ vagy hibrid (pl. Ryse) megoldást használni?
DX12, Mantle vs. DX11-et kb úgy képzelem el, hogy az előbbi kettő eleve kisebb CPU overhedet eredményez, míg DX11 esetében Nvidia az overhead kérdését úgy oldotta meg, hogy több processzorszálat is igába hajtott (amin mondjuk 4 szálas érában nem tűnik elvetélt ötletnek, amíg nem éppen a csodálatos AI-król híresek a játékok (vagy éppen ezért)).
Nvidia OpenGL driver parancsilsta támogatása azért egészen látványos (igaz feltételezem ahol ez használatban van, ott kb. az egyetlen feladat ilyenkor a megjelenítés nincs AI stb.). A vonatkozó diasoron pedig éppen ez a szalagcím:
Approaching zero driver overhead
Nem lenne megoldható, hogy ahogyan DX11-ben MS opcionálisan teszi használhatóvá a parancsilstás úgy ez a lehetőség, csak az ebben a szemléltben megjelent játékoknál legyen aktív? Vagy ezzel a fejlettebb AI-t, fizikát felvonultató játékok terjednének (pl. port) lassabban?
Az itteni példa vizsgálja az egyes eljárások előnyét és hátrányát. -
Azért ez rendesen ki van csavarva. Az nVidia a hibás az AI és a fizika stagnálásáért, mert a drivere sok CPU erőforrást visz el, hogy normális FPS-eket tudjon biztosítani. Ezzel szemben az AMD drivere király, mert takarékos a CPU-val, és a komplexebb játékok már közepes CPU-kkal is köhögnek (ezt persze a tesztekben a 4GHz fölé clockolt i7-ekkel nemigen látni). Szóval az AMD akkor is okos, amikor hülye. Az pedig remélhetőleg nem zavar senkit, hogy 6-7 éve is hasonló volt a helyzet, amikor még DX11 sem volt
Az a kijelentés pedig, miszerint "Szinte mindegyik exkluzív ls komolyabb konzolos játék AI-ja és fizikája túlmutat a PC-s szinten" - háááááát... szóval, hány játékot is takar a nagyívű kijelentés?
-
Malibutomi
nagyúr
válasz
CsonkaImo #5879 üzenetére
Engem a betoltodo tereptargyaknal jobban szokott zavarni jatekokban ha a maga a terep (a fold) megjelenitese egy jol lathato kb 10 meter sugaru korben elesedik ki mindig a karakter korul...na az undorito
(#5883) Szaby59
Mire lesz eleg hibas chip, addigra felfut a HBM gyartas is.
-
#85552128
törölt tag
válasz
Malibutomi #5881 üzenetére
Lehetne, de annyi HBM nem lesz
(#5880) Abu85: Ha nem kapcsolnám ki és fullra optimalizálva lenne, akkor nem 40-re hanem mondjuk 45-re esne be. Minden játékot úgy állítok be, hogy 50 alá ne menjen, de az 55-60 a cél tehát nekem édes mindegy, valaki ezért vesz +1 VGA-t én nem fogok max nem kapcsolom be...
-
Malibutomi
nagyúr
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #5875 üzenetére
Ez egy ballansz probléma. Mennyi processzoridőt igényel a játék és mennyit vesz el a driver. A mai multiplatform címek szándékosan rendkívül butítottak a játékmenet szempontjából, hogy maga a szimuláció kevés processzoridőt igényeljen, és az NV driverének is legyen elég szabad erőforrás. Az AMD és az Intel drivere ezzel biztosan jó lesz, mert kevesebb szálat futtatnak.
(#5877) Szaby59: Ez a lényeg. Azért kapcsolod ki, mert nagyon zabálja a géped, pedig valójában ugyanehhez a minőséghez nem kellene ennyi veszteség. És akkor már átgondolnád, hogy mást kapcsolj ki például.
A Frostbite 3 egy deferred MSAA technikát használ. Minden render targetet leszűr, vagyis más játékokhoz mérten az MSAA munkája 4-5x-ös.
-
Abu85
HÁZIGAZDA
A Halo 3 azért nem jött PC-re, mert nem volt elég processzoridő a driver szálak mellett. Ekkor volt az, hogy az MS összehívta a cégeket, hogy ez így nem lesz jó, mert hiába jönnek a jobb processzorok a reálisan felhasználható processzoridő az egyre agresszívabb driverek mellett inkább csökken. Ezért nem látsz AI innovációt évek óta. Egyre kevesebb rá a büdzsé.
Szinte mindegyik exkluzív ls komolyabb konzolos játék AI-ja és fizikája túlmutat a PC-s szinten. Az AI szempontjából különösen durva a The Last of Us és a Dragon's Dogma. A fizika szempontjából az Uncharted 3. -
#85552128
törölt tag
Mivel is csesznek ki velem ? Eleve kikapcsolom a Hairworksot mert még anélkül is sokszor beesik 40 környékére az FPS.
Majd ha rendbe szedik a játékot akkor lesz időm azon aggódni, hogy ~10%-al gyorsabb is lehetne a HairWorks...Ugyanúgy ahogy kikapcsoltam a Dragon Age-ben is az MSAA-t, mert még a 2x is -30 FPS-t jelentett akkor nyilván az is direkt volt ilyen, mert más játékban nem lassabb ennyivel...
(#5875) Malibutomi: Ha egy i3-on ennyire szarul fut akkor az összes AMD APU-n és FX-en is mivel azok még gyengébbek egy szálon, de akár az olcsóbb/régebbi i5-ön is amit nem lehet tuningolni.
-
Malibutomi
nagyúr
válasz
#85552128 #5873 üzenetére
Jaaa, akkor megsem minden jatekban, megsem minden kartyaval, megsem minden konfigon...csak elsore kicsit dramaibban adjuk elo
Akkor megiscsak tulzas volt jol gondoltam.
Idezhetek egy allando mantrat ami a mantle cikkeknel jelent meg minden alkalommal: "ki az a hulye aki olyan processzort tesz melle ami gyenge es nem tudja kihajtani a kartyat..."
Vagy ez csak az AMD szidasara fenntartott szoveg, visszafele nem ervenyes?(#5874) Abu85
Ha az NV drivere zabalja az eroforrast akkor miert az AMD driver fut rosszabbul a gyenge procikon. Amit Szaby is linkelt az elobb? -
Abu85
HÁZIGAZDA
válasz
Malibutomi #5872 üzenetére
A D3D driver egy komplex probléma. Amit sokan nem vesznek figyelembe, hogy itt nem csak a megjelent játékokat nézik a cégek, hanem a megjelenés előtt állókat is. Alapvetően az Intel D3D drivere a legjobb. Messze az látszik a legrosszabbnak a tesztekben, de reálisan felhasználható processzoridő jut a programnak. Az NV drivere a másik véglet. Iszonyatosan zabálja az erőforrást, míg az AMD drivere a kettő közötti átmenet.
Hogy ez miért fontos? Bizonyos konzolra írt játékokban az AI és a fizika komplexitása a PC-s játékokon túlmutat. Viszont a D3D driverek miatt ezeket nem lehet PC-re portolni, mert túl sok erőforrást elvesznek a driverek. Ezért kér a Microsoft thin drivert, mert a grafikát képes skálázni a fejlesztő, de az AI-t és a játékmenetre ható fizikát nem. -
#85552128
törölt tag
válasz
Malibutomi #5872 üzenetére
Nem lesz semmilyen alázás mert a tesztekben 8 magos i7-ekkel mérnek, hogy semmiképp se legyen CPU limit, sőt ha "átlagos" CPU-k lennének nagyobb lenne a különbség a jelenlegi driverekkel...
Olcsóbb CPU-val jön elő és nem csak PC-ban: [link]"On the plus side, the GTX 750 Ti fares much better when paired with a budget CPU than the rivalling AMD R9 280. Despite costing £30-40 more, the card is a write-off for 60fps performance at 1080p, even with all settings and sliders at their lowest. Left at high settings, spikes down to 35fps are common, again pointing to an issue with AMD cards when paired with weaker CPUs. Unlike the Nvidia 750 Ti, a 30fps lock is needed here when targeting 1080p and anything close to current-gen console settings."
Nem hozzáállás kérdése, mert látszik, hogy máshol is megvan + W10 alatt a WDDM2.0-s driverben már jobb eredményeket ér el az AMD is PC alatt, azonkívül az AMD is közölte, hogy dolgoznak a hibán, miután a PC fejlesztője elég egyértelművé tette, hogy driverhiba...
-
Malibutomi
nagyúr
válasz
#85552128 #5869 üzenetére
Erdekes ha a driver miatt minden jateban van ez a deficit, akor miert csak a PC alatt jott elo?
Ez kicsit vicces tulzas megint...szerencsere...mit szolnanak az nv tulajok ha az amd kijavitana ezt a velt deficitet es javulna 20-30%-ot? Elegge sirosan allna a szaja a 980 tulajokna hogy huzva alig erik utol a 2 eves 290X-et.
Vicces a hozzaallas...aki az amd ellen beszel fejleszto (na meg az nv) annak minden szava igaz es szent Aki az NV ellen szot emel mint legutobb a witcher fejlesztoje, vagy a nem nv fuggo fejlesztok (na meg ugye maga az amd) az mind hazug, nem hozzaerto, stb....
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5869 üzenetére
És lám kiderült, hogy ezért tudják megcsinálni, mert ugyan felfogod, hogy konkrétan veled csesznek ki, de egyszerűen elfogadod, hogy ez így jó, és hogy ez egy szép jövő lesz. A teljesítményigényes és gyenge minőségű effektek jövője. Eközben keresel minden lehetőséget, hogy kontráz, aminek konkrétan semmi köze ahhoz, hogy a HairWorks jóval több teljesítményvesztést okoz annál, mint amennyit igazából kellene, hogy okozzon.
Nem értem mi az, amitől egy felhasználó annyira jól jár, hogy védeni kell a mesterségesen magasra pakolt gépigényt? Többet költhetsz gépre? Ezt megteheted úgy is, hogy az adott program és effekt úgy fut ahogy kell. -
-
#85552128
törölt tag
Nyilván jót akar azzal a bizonyos másik gyártó is, hogy a saját drivereiben DX11 alatt minden játékkal van legalább ilyen mértékű "deficit". Amikor a PC fejlesztője erre rámutatott valahogy kussba vannak azóta is, előtte meg mentek a szokásos "artifical" megjegyzések...
A TressFX sem a legjobb teljesítménnyel ment a Tomb Raider megjelenésekor... -
Abu85
HÁZIGAZDA
válasz
stratova #5866 üzenetére
A saját felhasználóid megszopatása a következő szint ebben a nem túl fényes jövőben. Ez alapvetően sikeresnek mondható, hiszen nem egy ember védi azt az álláspontot, hogy a saját PC-jén legyen egy effektnek -20-30%-os deficitje az amúgy reális -5-10%-os helyett, csak azért, mert biztosan jót akart ezzel az adott gyártó.
-
-
stratova
veterán
Itt lehet a felhasználók reagálnak máshogy. Azt várnád, hogy egy jó effekt letiltásával a vásárló majd szabotálja az adott gyártót és a konkurenciától vásáról. De amikor ezt egy nagyon várt címmel játsza el egy cég, akkor a felhasználók egy jó része szimplán kártyát cserél, ha pl. AMD tulaj. Igaz van egy réteg, akit Kepler kigolyózása oly' mértékben bosszant fel, hogy inkább Fiji-re vár és nem Maxwellre vált.
Nem nem akar ilyen jövőt senki, de egy-két húzócímmel úgy néz ki mégis erre felé tartunk. -
mlinus
őstag
válasz
FollowTheORI #5862 üzenetére
akkor én köszöntem, marad a konzol.
Az nvidia már így is kaphatna az arcára, nem kell hogy még az AMD is ezt csinálja...
-
Abu85
HÁZIGAZDA
Nem értitek a gondot. A gyártók olyan szerződéseket kötnek, amellyel az adott partnernek gyakorlatilag nincs reális kiszállója. Még ha a szerződésnél át is beszélik: jó persze erre nem fog sor kerülni, mert aranyosak vagyunk, akkor is szerződés világosan fogalmaz. Gondoljatok bele. Az AMD fogja magát és ismét hirtelen felindulásból letiltatja a TressFX-et, vagy akármelyik effektet a Star Citizenben. Nem fog a CIG ellenkezni, mert túl drága lenne. Inkább megteszik, amit kérnek.
Ez az egész ipar problémája. Még ha az iparért is akarnak dolgozni a szerződésekben kibiztosítják magukat és ha elpattan a húr, akkor itt tök szabványos effektek lesznek Radeon és GeForce only megoldások szinte minden játékban. Melyikőtök akar ilyen jövőt?
-
#85552128
törölt tag
válasz
FollowTheORI #5862 üzenetére
Előbb exkluzív játékok kellenének
Az éven mi is jön ami AMD-s ? Hardline, Battlefront... tovább ?
És ugye a VGA Bundle akciók sem elhanyagolhatóak, az R300 és a Fiji mellé mit fognak csomagolni ? A mindenhol már most szarrá akciózott Hardline-t ? nV-nél ősszel ment a Unity, FC4, Crew, most megy a W3, GTAV, Arkham Knight, meg a Dying Light is.
Az AMD is pakolhatta volna a DA:I-t mint teljes játék, de minek rakjunk inkább egy űrhajót a még alpha szimulátorhoz... Az Alien Isolation meg önmaga kevés volt... -
válasz
stratova #5861 üzenetére
Mondjuk épp ideje lenne a sarkukra állni kicsit, ha valamit akarnak.
Exkluzív játék exkluzív effektekkel... ezt kéne tolniuk régóta, hogy a plussz tudásukat eladják és legyen értelme őket venni.
Rengeteg technológiai lehetőséget és fejlesztést dobtak ki a kukába az elmúlt évtizedben, csak azért mert a vezetés nem volt elég tökös ilyen téren ami plussz selling point lehetett volna (+ egy kis pénz persze mellé a fejlesztőnek).Én pl most azért vettem egy 970-et, hogy tudjak pár PhysX címmel játszani "teljes pompájában".
Batman játékok, Metro stb ki akarom pörgetni és habár csak kicsit is de hozzáad az élményhez.Aztán lehet ha végzek velük és az AMD is kínál majd valami exkluzív dolgot váltok megint (vagy kényszerből
)
-
stratova
veterán
Hát a nyitott funkciós kampány mellett kissé érdekes lépés ez AMD-től.
We purposely disabled TressFX on NVIDIA cards. We delivered TressFX on AMD hardware as part of our partnership with AMD.Noha a GPU-PhysX is NV only, ellentétben a GCN és Kepler számára jelenleg nem túl kedvező GameWorks-szel. Más kérdés, hogy egyes fórumok szerint szimpla konfigurációs fájl módosítással újra elérhető Nv VGA-n a TressFX Lichdom: Battlemage alatt.
Gondolom az eladások javulását várták/várják attól, hogy bizonyos címek alatt patchelt változatban csak AMD VGA-ne elérhető az effekt. Nem jött be eszerint a "jó fiú" szerep a kasszánál.Szaby59: A Witcher 3 Hairworks megjegyzés ettől függetlenül jogos. Ha vki 48 óra alatt talál egy workaround-ot a problémára, akkor arra AMD-nek is illett volna időben rájönnie (legalább annak ismeretében miben gyengébb a hardverük).
-
#85552128
törölt tag
Benne voltak a szerződésben a feltételek, innentől kezdve nincs miről beszélni. A fejlesztő legalább olyan sáros mint az nV azzal a különbséggel, hogy előbbire nem volt ráerőltetve, hogy leszerződjön az nV-vel, vagy ,hogy pont illetve csak és kizárólag HairWorksot használjon, sőt állítólag meg is kérdezték őket: [link]
Bár katasztrófa az optimalizálás ahhoz képest ahogy kinéz."Szerinted az AMD miért tehette meg, hogy letiltatja a TressFX-et a Lichdom januári frissítésében?"
Nem tudom, főleg azért mert annyira fair, meg open minden az AMD... Mondjuk legalább kapott egy kis visszhangot ez a noname játék.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5852 üzenetére
Pedig a fejlesztő most a legkevésbé okolható azért, hogy az NV milyen paraméterezéssel kéri szállítani a GameWorks csomagokat. Ezt ők határozzák meg.
Szerinted az AMD miért tehette meg, hogy letiltatja a TressFX-et a Lichdom januári frissítésében? Egyszerűen szerződésben megvan hozzá a joguk. Ott sem a fejlesztő a hibás, de ha nem teszi meg, akkor olyan kötbérrel tud kiszállni a szerződésből, hogy azonnal tönkremennek. -
-
TTomax
félisten
válasz
stratova #5855 üzenetére
Sajnos most nem vagyok képben,mert tegnap csak feltelepítettem az 1.04es patchet de játszani már időm nem volt.Majd talán pénteken... mondjuk speciel eddig az én gépemet egy effekt sem tudta lehúzni,80-100fps-em van akkor is ha mindent bekapcsolok/ráadok.(1440p)
A témához még,bár már ezt is leírtam.Az nV jelentős előnyt kovácsol abból,hogy a játékok megjelenésére próbálnak meg kiadni egy "ráfaragott" drivert.Részint mert ezt le is kommunikálják,és az egyszeri user nem azt érzi,hogy le van sz@rva miután megvette a terméket,részint egy pár százalékos javulást el is érnek,ami általában pont arra elég,hogy a release napján jobb színben tűnnek fel a kártyáik.Ugyanis utána már nem nagyon szoktak tesztek készülni,vagy ha igen nem kapnak már akkora hangsúlyt.Igen,igen a "gameready" driver ahogy mostanában ők hívják,de a tendencia nem most hirtelen alakult ki.
-
#85552128
törölt tag
válasz
stratova #5855 üzenetére
Még nincs, most épp más "tweakek" vannak... [link]
So, what I noticed after installing patch 1.04:
- Shimmering and extreme aliasing all over the place.
- Terrain textures lowered ( in particular ground textures between grass)
- Shadows are "grainy", like in TW2Overall, the graphics are a lot worse than 1.03 version.
Szóval még folyamatban a(z)
downgrade"optimalizálás" -
stratova
veterán
Ha már témánál járunk, akad esetleg már 1.03 ill. 1.04-es HairWorks ON teszt? A múltkori beszélgetésünkről ugrott be.
Szerk.: eredményt még nem láttam de redditen egészen kellemes vegetációt ábrázoló kép tűnt fel.
1.04 adds a negative mipmap bias of -1 which improves texture clarity, especially on fine leaf foliage, quite noticeably.
-
TTomax
félisten
Nah hát persze,hiszen minden minden játék hibátlanul jön ki az utóbbi 5évben... főleg az evolvedesek... hát hogyne.Hiszen a TressFX is csak úgy hasított a Tomb Raiderben minden,áááá dehogy kellett neki vagy 5-6 patch...
A witcher 3 is már az 1.04nél tart,a vita témája is okafogyott...Ugyanúgy mint a Dying Light is már szépen fut mindenen és szebb is mint a konzolos.Nevetséges,hogy az alap első verziós játékokkal reklamáljátok a szívfájdalmaitok. -
#85552128
törölt tag
válasz
Malibutomi #5851 üzenetére
Nem az nV van "védve" hanem a fejlesztő okolva, mellesleg a fejlesztők mondtak ilyet is olyat is, ennek ellenére a HW AA is állítható mint ahogy a HW "optimalizálások" is jönnek patchként...
Egyértelmű válasz/cáfolat még egyik féltől sem jött, az biztos, hogy van olyan konstrukció ahol a forrást nem kapják meg - és ez valószínűleg olcsóbb is - ha ezt választják az megint kinek a hibája ?Ugyanúgy felelősségre lehetne vonni az AMD-t, hogy miért hanyagolja el a DX11-es driverét és az nem 1-2 játékot érint hanem mindet főleg akinek még AMD CPU-ja is van a VGA mellett.
Amíg az egyik gyártónál magasabb a megelégedés addig hajlamosabbak elnézni 1-2 stiklit mint egy olyannál ami hibát hibára halmoz... -
Malibutomi
nagyúr
válasz
#85552128 #5850 üzenetére
Hat amig van aki ezutan is vedi oket, akkor min is csodalkozunk...
Az AMD megkapja a magat, hogy nem tud optimalizalni (egy NV jatekra)...es hopp kiderul hogy az NV-nek sem sikerult(egy NV jatekra)...de azzal semmi gond..ez igy van randjen...meg majd ugyis javitjak..A Witcher 3 fejlesztoi nem NV partnerek? Nem ok is azt mondtak hogy nem lehet optimalizalni az effektet?
De egyebkent igen a fejleszto a hulye hogy belemegy egy zart effektbe (ha tenyleg igaz). Csak hat a tamogatas nagy ur egy kisebb studionak. -
#85552128
törölt tag
válasz
Malibutomi #5847 üzenetére
Ha tényleg olyan rossz a GW mint ahogy azt pár nem-GW-s fejlesztő (
) állítja akkor igen a fejlesztő a hülye, hogy ebbe belement. Az nV pedig addig nem fog változtatni ha így is van rá kereslet, neki win-win mindenképp...
Viszont ott vesztették el végleg a hitelességüket amikor a W3 fejlesztője fórumon még a megjelenés előtt pár héttel is azt írta, hogy reprodukálható a 2013-as effektek és látvány a végleges játékban - ami ugye elég nagy bs.Más játékkal meg mi volt a baj ? A Unity konzolon is bughalmaz volt, a Dying Lightnál a látótávval volt csak baj mert túl nagy volt az alap ez javítva is lett, de egyik sem GW specifkus dolog...
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5846 üzenetére
Az a baj, hogy a haj annyira vékony geometria, hogy az nem így működik. Elképzelhető, hogy még 16 mintavételi pontnál is úgy átmegy egy haj a pixelen, hogy egyetlen mintavételi pont sem "döfi át". És onnantól kezdve rögtön rossz az adott pixel színe. Ezért nem adnak rá külön opciót, mert tudják, hogy a 8x is kevés.
Az anizo esetében vannak problémák. Nem minden felülettel kompatibilis, így előbb ezeket kell megoldani, hogy használható legyen.
-
Az új patch javított rajta valamit?
Elvileg az írták valamit csináltak a HW-vel... én még nem tudtam megnézni. -
Malibutomi
nagyúr
válasz
#85552128 #5843 üzenetére
Az a vicces, hogy mindig az a duma hogy az amd magyarazkodik mindenert...valamiert a gameworks cimeknel mindig a fejleszto a hulye...meg az amd..meg a felhasznalo...az nv sosem hibas...megis valamiert a gameworks cimek korul megy a kavaras.
Most vagy az NV csak a luzer, bena es hazudos fejlesztokkel all ossze...vagy megis valami hibadzik.
-
#85552128
törölt tag
Amire 4x nem elég ott nem lesz látható javulás 8/16x sem (vagy nem annyi, hogy megérje...), de rakhattak egy külön opciót rá mégsem tették pedig láthatóan elérhető és valószínűleg az is eléggé erőforrásigényes.
Marha keveset foglalkoztak ezzel a PC-s porttal és meg is látszik rajta, még az Anizotróp szűrés is alapból valami alacsonyabbra volt állítva utólag patchelték 16x módra pedig az "ingyen" van. -
Abu85
HÁZIGAZDA
válasz
#85552128 #5843 üzenetére
Az MSAA részletességét a HairWorksre vonatkozóan csökkenteni kérdéses. Így sem elég a 8xMSAA opció. 16x lenne az ideális.
A HairWorks esetében semmilyen minőségvesztést nem eredményezne a tesszellálás 64x-ről 16x-re csökkentése és két-háromszorosára gyorsítaná az effekt sebességét. Ez sem lenne optimalizálás, de gyakorlatilag minőségvesztés nélkül kapnál extra sebességet, ami kezdetnek jó. A következő lépcső egy analitikai élsimítás lenne, ami kiváltaná a HairWorksre futtatott MSAA-t, mert ez valószínűleg olcsóbban jobb minőséget eredményezne pusztán a célirányos jellege miatt.
Ezután esetleg el lehetne gondolkodni az önárnyék és az átlátszóság problémáján, amivel a HairWorks újra -20-30%-os teljesítménybe kerülne, de a minősége a mostani szinthez képest nagyban megugrana. -
stratova
veterán
válasz
Malibutomi #5842 üzenetére
Erre válaszolhatok?
A magasabb ROP teljesítmény miatt. Gbors is említette korábban, hogy kimondottan díjazza ezt a játék.GTX 980 [64 ROP 1126-1266 MHz]
peak: 81.024 GP/sGTX 970 [56 ROP 1050-1250 MHz]
peak: 70.000 GP/sR9 290X [64 ROP max. 1000 MHz]
peak: 64.000 GP/sR9 290 [64 ROP max. 947 MHz]
peak: 60.608 GP/sGTX 780 Ti [48 ROP 875-1020 MHz]
peak: 48.960 GP/s(legmagasabb boost órajellel számolva)
Maxwellben Nv megduplázta a ROP-okat.
-
#85552128
törölt tag
válasz
Malibutomi #5842 üzenetére
A kepler rosszabb teljesítményét elismerte az nVidia és más is megmagyarázta.
Az AMD elismerte, hogy miért lassabbak a saját kártyái ?
Nem, megy a szokásos sopánkodás, hogy az nVidia szabotálja őket...
A 280X 15%-al gyorsabb mint a 960, ellenben a 960 most 20%-al gyorsabb, ezt nem lehet arra fogni, hogy "nV játék".
Főleg, hogy a 290X és a 970 között sincs ennyi különbség...A másik dolog: a HairWorks-hoz használt MSAA is maxra van állítva (8x) ami a konfig fájlból módosítható, tehát nem forráskód kell hozzá hanem egy jegyzettömb amivel az egyszerű user áttudja írni nemhogy a fejlesztő.
Ezek után még kérdés, hogy nem a fejlesztő szarta el az optimalizálást ? Rátették mindenből a maximumot jó lesz az alapon oszt kész, akinek nem bírja vegye lejjebb/kapcsolja ki... -
stratova
veterán
Unom, hogy szétspammeljük a találgatós topikot:
Vélemény: HairWorks problémája: hazavágja Nv korábbi kártyáit is, nem kis bosszúságot okozva ezzel pl a GTX 780Ti/780/770 tulajdonosoknak (Geforce fóruma szerint). Ugye éppen azzal reklámozza Nv Maxwellt hogy a GTX 980-ban bemnutatkozó PolyMoph Engine 3.0 akár 3x nagyobb teljesítményt kínál a GTX 680-ban megjelent 2.0-hoz képest extrém tesszellációs terhelés esetén (amiben egyébként eddig is Nv volt gyorsabb). Most meg is teremtették ennek az igényét..
Előnye, már most több karakteren futtatható beleértve az állatokat.
Erre TressFX 3.0 kínál alternatívát, beleértve a több lépcsős LOD-ot és a szálak többféle árnyalatát. -
#85552128
törölt tag
Szépen látszik az a 12.5%-os veszteség (nem mintha a 35% kitűnő lett volna, de azért na...) a ~10 hónapos totojázásuknak köszönhetően. Miközben az nV lényegében 2 kártyát adott csak ki, azt is a drágább régiókba a 960/TX pedig viszonylag friss/drága.
Kíváncsi vagyok mennyit sikerül visszanyerni a(z) Rebrand 300 sorozattal.... -
Abu85
HÁZIGAZDA
válasz
FLATRONW #5834 üzenetére
Én a GTX 760-en a 25-30%-os kihasználást nem mondanám magasnak. Ezt szerintem fel lehet tornázni a GCN-es hardverek 35-40%-os szintjére, vagy a közelébe. Az, hogy egy program mit ír semmit sem jelent. A belső kihasználás számít, amit mondjuk GPUView-vel tudsz ellenőrizni, vagy GPUPerfStudióval. Ettől a 99%-ot oda fogja írni rá az olyan kamuprogram, mint az afterburner és bármi hasonló.
-
FLATRONW
őstag
A regiszterhiány alacsonyabb GPU kihasználást is jelent vagy ettől függetlenül lehet 100 százalékos GPU kihasználtság is? GPU kihasználtság alatt az Afterburner által mértre gondolok és nem a hardveres kihasználtságra.
Azért kérdem, mert nálam ez 99 százalékot mutat. Tehát ebben az esetben is várható gyorsulás? -
mlinus
őstag
-
Abu85
HÁZIGAZDA
A WDDM 2.0 alatt megmarad a régi WDDM szegmentált fizikai címzése. Ez egy legacy funkció lesz, de maga a low-level API meg fogja engedni, hogy a fejlesztő megírja az implementációt a programban a szegmentált fizikai címzés működéséhez. A kezdetekben valszeg ilyen motorok fognak születni, mert túl kevés lesz a Windows 10 felhasználó WDDM 2.0 only játékokhoz. Ilyen esetben a fejlesztőknek lényegében ugyanolyan lehetőségei vannak a VRAM vezérlésére, mint ma a kernek drivernek, persze a közvetlenebb elérés miatt a WDDM ellenőrzésre vonatkozó funkcióit el lehet felejteni, tehát a sebesség jobb lesz.
-
Abu85
HÁZIGAZDA
A low-level API-nál azt is figyelembe kell venni, hogy mit csinál a program. WDDM 2.0 alatt nem szükséges tudnia, hogy mennyi VRAM van a kártyán, mert ott a virtuális memóriára vonatkozó GPUMMU mód. Ha a program mindenképpen fizikai címzésre akarja kényszeríteni magát, akkor kell tudnia a hardver VRAM kapacitását. Ez lehetséges, főleg akkor, ha nem akarják, hogy az alkalmazás csak Windows 10-en fusson. De többen mondták már, hogy 2016 végére inkább bevállalják a Windows 10 only dolgot, mert a WDDM 2.0 túl sok előnyt kínál a GPUMMU-val és az IOMMU-val.
(#5814) Szaby59: A low-level API igazából mindegy. A WDDM 2.0 kínál olyan előnyöket, amelyekkel a VRAM használata a mainál lényegesen hatékonyabb lehet, és igazából lesz is. Mindegy, hogy DX12, Vulkan vagy Mantle, mindegyik rendszerből kihasználható a WDDM 2.0 extrája. A GPUMMU rendkívül hasznos, mert igazából a VRAM működése sokkal jobban fog hasonlítani a rendszermemória működéséhez. Az IOMMU pedig még egy lépés előre, mert igazából az adatnak nem is kell a VRAM-ban lennie, egyszerűen olvashatja és írhatja azt a hardver a rendszermemóriában is. A különböző linkelési lehetőségek is nagyon jók. Például egy GPU-val minden különösebb probléma nélkül olvashatod egy másik GPU memóriáját, sőt írhatsz is abba. Ezek a mai limitált modellhez képest nagyságrendi előrelépések. Elsődlegesen ott fog ez érződni, hogy jóval több szabad VRAM-od marad, amit persze elhasználhatsz másra. Tehát önmagában a mai pazarló rendszer ki lesz ütve.
(#5826) gbors: Hagyományos fizikai címzéssel a fejlesztő is képes beleírni az alkalmazásába, hogy a GTX 970 esetében 3,5 GB gyors memória van és 0,5 GB lassú. Tehát ez egyedi szinten lekezelhető. GPUMMU mellett nem lehet kezelni, mert ott az OS jelzi a rendszernek a VRAM méretét. A user-mode driver csak arról dönt, hogy az allokációhoz 4 kB-os vagy 64 kB-os lapméret legyen használva.
-
Fussunk neki még egyszer. Először is, az alkalmazás nem dönthet úgy, hogy a címtartomány melyik részét szeretné használni - (blokkonként) kér VRAM-ot az OS-től, ami ad neki egy handle-t, amin keresztül eléri a memóriát gyorsan, hatékonyan. Az alkalmazásnak fogalma sem lesz, hogy az adott blokk fizikailag hol van a VRAM-ban. Amit leírtam, az a maximum, amit egy normális OS megengedhet - a valóság ennél lehet, hogy "bürokratikusabb" lesz.
A driver akkor veszti el a kontrollt az ominózus 512MB felett, ha megkülönböztetés nélkül kiadja az OS-nek, mint felhasználható VRAM-ot. Akkor valóban repül a szar a ventillátorba, de ez aligha fog megtörténni. Ahogy írtam, nem tudom pontosan, a WDDM mire ad lehetőséget, de ha semmi jó megoldás nincs a terület "lepriorizálására", akkor végső megoldásként még mindig le lehet tagadni. A jogi problémák pedig kb. a tündérmese kategória - de ezt Te is írod.
A fentiekből az is következik, hogy nincs olyan, hogy "kiadod a full területet". Az alkalmazás feltesz majd kérdéseket az OS-nek a VGA-ról és a VRAM-ról, és ez alapján dönti el, hogy mennyi memóriát kér. Jobban belegondolva, lehet, hogy mindenképpen érdemes adatbázist tartani a VGA-król, mert ha a szabad VRAM-ot kérdezi le induláskor, akkor azzal öngólt rúghat. De ezt mondja meg valaki, aki programozott ilyesmit
-
Ghoula
senior tag
Írtál köré egy szép történetet, de ettől nem lett életszerűtlenebb, amit írtam
a programozó dönthet úgy, hogy a címtartomány felső 1gigáját szeretné használni = "beosztja magának, hova mit rakjon, és elkezdi pakolni bele a cuccokat"
#5816 @gbors: Persze a driver megmondja az os-nek, hogy ez a címtartomány, de utána nem lesz köze hozzá. Workaround lesz rá, csak itt nem tudja úgy elrejteni az nv, mint a dx11-es driverrel és jogi problémákba ütközhet. Viszont a gyakorlat azt mutatja, még ha le is csapják, jogi lépésektől nem hinném, hogy tartaniuk kell.
DX11 alatt ott a 4g memória, bele tudsz írni, vissza tudod olvasni, de ott van ráhatásuk,mi hova kerüljön.
Dx12, vagy kiadod a full területet és az applikációra bízod a partíciók kezelését, vagy elveszed.#5822 @proci985: Nem azt mondom, hogy a 970-eket máglyára kell dobálni, bár ez a tákolt memória kb olyan mint autónál a színre fújt szélvédő... Így viszont hosszabb távra jobb a 980 a felárral együtt is. Ami számomra fura, hogy miért választják ismét ezt az utat?
-
Dehogy ír bele csak úgy - egyszerűen vagy nem tünteti fel a fizikai memóriatartományt az OS felé elérhetőnek (akkor tényleg kuka az 512MB), vagy rögtön betöltődéskor lefoglalja / megflageli / whatever, hogy ez "speciális" / foglalt memória (nem tudom, pontosan mire van lehetőség a WDDM-ben).
Igen, látszani fog a játékokban, hogy mi a helyzet. Majd ezt is megmagyarázza Jensen, hogy "we only wanted to give you the best experience possible". Ironikus módon, ebben az esetben még igaz is lesz(#5822) proci985: A legnagyobb tanulságot a tesztoldalak vonhatják le - Anandék le is írták, láttak jeleket, hogy valami nem teljesen kerek, és restellik magukat, hogy nem mentek jobban utána. Reméljük, tényleg tanulnak belőle.
Felhasználói szemmel annyi a konklúzió, hogy a harvestelt kártyáknál mindig lehet meglepetés. Meg hogy az nVidia gátlástalanul hazudik. Egyik sem új, de kicsit sikerült most rájuk erősíteni. -
proci985
MODERÁTOR
persze, ismerosi korben legalabb ket 970 lett az ajanlasommal azutan, hogy en mar legariztattam a sajatomat es levizeztem a 290xet.
tanulsag... passz, ne vegyel megjelenesen beluli hat honapban videokartyat? soha ne vegyel olyan videokartyat aminel nem adnak meg gyari TDPt? segit, ha tisztaban vagyok par computer science alappal? megis inkabb
pekvizvezetekszerelo? -
HSM
félisten
Elég csúnya lenne, ha így működne a direkt memóriaelérés, hogy a driver "csak úgy" beleír...
Jelenleg még a "kapcsolható" GPU-s notik esetében is fejvakarás van, hogy kerül majd low-level API mellett az egyik kártya framebuffere a másik kártyába. Pedig ez aztán nem nagy matek....Ha pedig a játék csak 3,5GB tartományt kap, akkor ugyanott tartunk, mint írtam, hogy látszani fog a turpisság elég rendesen.... (Vissza fogja jelezni a játék.)
-
Asbee
veterán
válasz
Malibutomi #5817 üzenetére
Első 970-emmel mikor megjelent, Mordorban teszteltem vram tuningot, ultra textúrával mert szépen használta. Semmi szaggatásom nem volt, vissza lehet nézni topikban.
-
#85552128
törölt tag
válasz
Malibutomi #5817 üzenetére
Nálam nem szaggat 1080p-n nem is ment 3.5 GB fölé...
-
Még mielőtt nagyon belelendülnénk ebbe a memóriás kérdésbe - a VRAM-mal továbbra is az OS fog gazdálkodni, a szoftvernek meg kell kérdeznie, hová írhat, ill. el kell kérnie tartományokat. Elég vicces eredménye lenne, ha nem így lenne.
Innentől kezdve elég, ha a driver "performance optimalizálás céljából" lefoglalja a felső 512MB-ot, és máris meg van oldva a kérdés. -
HSM
félisten
válasz
#85552128 #5814 üzenetére
De gyorsabb lesz a pakolgatás DX12-ben, ugyanis jelenleg a pakolgatás nagyon drága, mert először helyet kell felszabadítani hozzá.
Jelenleg védekezhet az Nv, hogy 4GB működik a kártyán, hiszen 4GB-ot jelent, de csak 3,5GB-ot használ.
DE ezt nem fogja tudni letrükközni a driver a direkt memóriaelérést biztosító DX12/Vulcan alatt. Ott vagy 4GB a 4GB, vagy 3,5GB a 3,5GB. A 3,5GB-al pert kockáztatnak, szval eléggé kevéssé esélyes szvsz. A 4GB-os esetet pedig lásd fenn. -
#85552128
törölt tag
A pakolgatás a DX12-vel sem lesz gyorsabb, ugyanazokat az adatot kell beolvasni ugyanolyan gyorsaságú tárolókról mint eddig, a törlés az ami _elméletileg_ nem lesz erőforrásigényes - DX11-ben is rengeteg dolog működik elméletileg.
A termék továbbra is 4 GB-os függetlenül attól mit jelent a driver (főleg, hogy a Windowsnak mehet 4 GB, a D3D API-nak meg 3.5 GB) tehát ha eddig nem volt per akkor emiatt sem lesz...
Egyébként DX12-től függetlenül szerintem ugyanúgy tudják driverből limitálni, jelenleg sem az API-n keresztül megy mert pl. GTA V 4 GB-t lát, de a 3.5 GB korlát ugyanúgy megvan. -
HSM
félisten
válasz
#85552128 #5812 üzenetére
A DX12-vel éppenhogy a pakolgatás lesz sokkal gyorsabb, mert hatékonyan lehet majd cserélgetni a benntlévő dolgokat. Feleslegesen törölgetni semmiképpen nem lesz szükség akkor se, abból nincs baj, ha valami bennt van, de nem kell, viszont lehet vele nyerni, ha benn van és mégis újra kell. Tehát ugyanúgy csak szükség esetén lesz törölve, mint jelenleg.
Most DX-ben még minden vidám, mert tud ügyeskedni a driver, de DX12/Vulcan alatt nem lesz hatása rá. Annyit tudnának tenni, hogy 3,5GB-ot jelent a driver, de azzal jogi problémákat kockáztatna az Nv, mert a terméket 4GB-osként adták el...
-
#85552128
törölt tag
A driver most is 4 GB-snek jelenti, de van egy 3.5 GB-os barrier amit csak néha léphet át a program. A Dying Lightnak hasonló "pakolós" motorja van és nincs belőle probléma 3.5 GB-ig tölti tele. Ugyanúgy ott lesz a 3.5 GB-os korlát mint most a driverben, de persze el lehet fantáziálgatni arról aminek 1%-os esélye van bekövetkezni...
De nem az volt, hogy DX12-vel nem lesznek ilyen "pakolós" motorok és csak az lesz benn ami tényleg kell ?
Amúgy Shadow of Mordor volt már, hogy (4K DSR-rel) 3.7 GB-t használt total és nem volt látható probléma azonkívül, hogy ilyen felbontáson már játszhatatlan volt... -
HSM
félisten
Erre gondoltam, de ez így eléggé életszerűtlen példa, mondok egy sokkal életszerűbbet. Fogja a programozó, és a nagy textúráira ír egy streamelő motort. Mit csinál az a motor? Megkérdezi, mennyi memória van a VGA-n, beosztja magának, hova mit rakjon, és elkezdi pakolni bele a cuccokat, amíg meg nem telik, és igyekszik benn tartani a lehető legtöbb cuccot, amire szükség lehet, hogy azonnal kéznél legyen. Egy ilyen motor elég érdekesen fog futni egy GTX970-en, ha 4GB-ra jelenti a driver, és a programozók nem készítik külön fel erre a játékukat, egyesével megadva a renitenskedő néhány VGA-típust, amelyiken mégsem annyi az annyi, amennyit visszajelez... Kész röhej...
-
HSM
félisten
Igen, csak a Vulcan/DX12 alatt nagy kérdés, mit fog majd jelenteni a driver. Ha 3,5GB-ot jelent, akkor az Nv-t kb. lehet perelni a 4GB-os kártyákkal, ha 4GB-ot, akkor pedig a programot speckón fel kell készíteni, hogy ez a 4GB-os kártya mégsem egészen 4GB-os, és ez eléggé szöges ellentétebn van minden normális VGA működésétől.
Ez az eshetőség viszont csak a GTX970 és barátaira áll fenn. Ugyanis ha a 980-on lejelenti a játéknak a 4GB-ot, és a játék elkezdi használni, nyugodtan teleírhatja. A GTX970-en lejelenti 4GB-nak, a játék elkezdi használni és hopp, szivacs van 3,5GB felett...
Én nem azt mondom, hogy ez biztos hatalmas probléma lesz, én azt mondom, potenciálisan ebben benne van egy elég kemény szopóroller ezeknek a kártyáknak. Lehet paranoia, de ez a véleményem a kártyáról.
A maga idején a Titanicot is elsüllyeszthetetlennek tartották, megnézheted hol van most.Ami a 970-est illeti, nem a GTX970-et rühellem, szó se róla, az csak egy termék. Azt rühellem, ahogyan eladták (4GB, 256bit, 224GB/s), és hogy ugyanígy adják el a mai napig. Ez viszont nem kicsit nyitogatja a bicskát a zsebemben, ezt aláírom.
(#5805) gbors: Én ugyanezt gondolom rólad.
Respect!
-
Asbee
veterán
Pár napig 780ti-t használtam. Tuningolva magasabb beállításokat próbáltam mint 970-el. Érdekes módon egyszer nem fogytam ki a vramból. FC4, BF4, GTA5, Witcher 3. Witchert még 1440p-ben is próbáltam DSR-el. Nincs még egy jó ideig félni valója ilyen téren a 970-nek. Csak ugye van aki abból indul ki meg von le teljes következtetést mit monitoroz az msi ab-vel.
A haterek meg úgyis ráhúzzák, hogy na de majd a jövőben így meg úgy. Ezzel nem a kommunikációs részét vitatom, azt is el tudom fogadni aki emiatt cserélte de ez a túlmagyarázás ez már beteges...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Samsung S23 Ultra 8/256GB Állapot: 10/10 6 hó jótállás!
- Dymo LabelWriter 400 hőpapíros címkenyomtató
- BESZÁMÍTÁS! HTC VIVE Pro 2 virtuális valóság szemüveg garanciával hibátlan működéssel
- ÁRGARANCIA!Épített KomPhone i5 13400F 16/32/64GB RAM RX 9060 XT 8GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! Apple iPhone SE (2016), Apple iPhone SE2 (2020), Apple iPhone SE3 (2022)
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: FOTC
Város: Budapest