Tehat akkor nem a Vega RX viselkedik "Usain Bolt egy korzeti futoversenyen" modban, hanem a tobbi futot gancsolgatjak ket meterenkent.
Privat velemeny - keretik nem megkovezni...
Tehat akkor nem a Vega RX viselkedik "Usain Bolt egy korzeti futoversenyen" modban, hanem a tobbi futot gancsolgatjak ket meterenkent.
Privat velemeny - keretik nem megkovezni...
Azt lehet tudni, hogy ez az új parancsprocesszor ill. "etetési modell" milyen gyorsan fog terjedni, vagy fog-e egyáltalán?
Elterjedtebb grafikus motorok, pl. Lumberyard, UE4, Frostbite ebbe az irányba mennek, vagy várható hogy ebbe az irányba fognak menni?
(arra célzok, hogy a Volta is ilyen parancsprocesszort fog-e kapni, mert piacvezetőként elsősorban a zöldek határozzák majd meg hogy merre mennek a fejlesztések)
Amúgy itt tök jól látszik hogy az AMD mindig a jövőnek fejleszt, csak az emberek meg ugye a jelen játékaival játszanának...
[ Szerkesztve ]
Turenkarn
Mindegy, mert az aszinkron compute egy megoldás a nem optimális etetés direkt kezelésére. Tehát ahogy válik limitálóvá az aktuális hardvereken ez a modell, úgy lehet egyre inkább behozni az aszinkron compute-ot, hogy megetethetők legyenek a nem kihasznált egységek. Abban van csak probléma, hogy a PIX-nek a PC-re nincs hardveres nyomkövetést biztosító profilozómodulja, ami leegyszerűsítené a limitek megtalálását és kezelését. Xbox One-ra például van ilyen. Alapvetően lehet beszélni ezekről a limitekről, de a PC-s PIX nem mindig mutatja ki pontosan a limitáció helyét, így pedig nagyon nehéz ezeket eltüntetni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
4kban a szaguldas alabbhagy
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
Nem tudom mi az a PIX, de nem pont a Vegával együtt adott ki az AMD valami új profilozó tool-t a grafikus motorok bottleneckjeinek megtalálására? Az nem segít ezen?
Turenkarn
Igen a Radeon GPU Profiler már hardveres nyomkövetést használ, ahogy a konzolos profilozók. Viszont ezt a Microsoft még nem használta. Később lehet, hogy bevetik, erről nincs álláspont.
A PIX amúgy egy komplett teljesítménymonitorozó és debug eszköz Windows és Xbox platformokra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
AMD FineWine technológia működés közben.
[ Szerkesztve ]
Talent is over rated, get back to practice. - Jeremy Piven
Már egy ideje nem követem, de a Vega megjelenését követő napokban voltak ilyen találgatások, hogy a memória ill. az "infinity fabric" (a memória és a gpu közti interfész) sávszélességét alulméretezték és ezért esik vissza a Vegák teljesítménye a vártnál jobban, a felbontás emelkedésével...
Talán ez tapasztalható itt is, majd a nálam okosabbak megmondják, de a közvetlen konkurenseit szépen tartja 4K-ban is. Ha legalább ilyen szépen tartaná őket árban is, akkor egy nagyon jó kis kártya lenne az...
Turenkarn
Köszi
Turenkarn
Azt lehet tudni hogy az aszinkron compute milyen mertekben gyorsitja a vegat es pascalt,melyik hardver etetheto optimalisabban kevesebb limitacio melett?Ha jol ertelmezem ez a vegaban jobb tehat az aszinkronos jatekokban jobban kellene teljesiteniuk majd mint egy pascal?
Kíváncsi vagyok mennyit fejlődik a Volta dx12 téren. Pont most próbálgattam a Battlefront 2-t és dx12 módban elég szánalmasan viselkedett az 1050ti-m, pedig itt már beszélhetünk Aszinkron Compute-ról, de hiába megint kénytelen voltam visszaváltani dx11-re és ez igaz az összes Geforce-ra.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Implementációtól függ. A Pascal nem minden implementációt szeret. A Vegának igazából mindegy.
A Vega csak annyiban más, hogy már úgy tervezték a hardverét, hogy jobban igazodjon a Microsoft újabb rendszereihez. Ha mondjuk a Forza 7 komolyan használna async compute-ot, akkor a legtöbb hardvernek nem lenne baja, mert más parancslistákon keresztül a program megpróbálná etetni a GPU-ban található kihasználatlan részegységeket. Ez azonban nem valósul meg komolyabb formában, így a Vegának van egy olyan aprócska előnye, hogy már eleve sokkal jobban igazodik az új parancsfeldolgozási rendszerhez, így async compute nélkül sem igazán fut front-end limitbe egy ilyen speciális körülmény mellett.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Jah ez Frostbite-ra jellemzőnek látszik, a Battlefield 1-nél is ugyan ez van pl.
Nem tudom hogy a hiba melyik oldalon van, maga a Frostbite DX12 implementációja kezdetleges-e vagy szimplán az nVidia kártyák alkalmatlanok a megfelelő futtatására... de tény hogy nVidiás ismerősöknél pl. a BF1 csak DX11-el futott jól, nálam (R9 390-el) meg DX12-vel futott meglepően jól.
Kíváncsi vagyok én is hogy a Volta mit fog tudni, bár maga a kártya nem érdekel, nem az az árkategória lesz ami nekem még megfizethető lenne, de elég nagy hatása lehet a grafikus motorok fejlődésének irányára...
Turenkarn
Akkor mehet a Forza 7 is a tesztekbe
Meg mondjuk az SW BF2 még béta.
A PlayStation 4 Prónak lesz hatása a fejlődésre. Az a legtöbb multiplatform fejlesztés vezérplatformja. Egy PC-s hardver ezen nem változtat. A legtöbb PC-s hardvert nem is ismerik a fejlesztők.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Érdekes,de azt nem látom hogy a Fury X miért megy gyalázatosan 4Kban...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
Remek cikk, koszonjuk. Ugy latszik megeri modern hardverre valtani
Az az igazi konzekvencia amikor egy MS játék felemás eredményeiböl látjuk a jövöt...de kár hogy a most kijött BF2 sem ezt támasztja alá... ha lenne DX11 mód a Forza7ben lehet lenne meglepetés... Az egész DX12 a jelenlegi formájában másra sem jó,csak hogy konzolról még hamarabb és kevesebb befektetéssel lehessen pc portot gyártani olyan amilyen minöségben.Erre igazán megéri "korszerü" hardvert venni.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
Gonosz vagy.
"Errare humanum est, sed in errare perseverare diabolicum"
Egyáltalán nem gáncsol senkit... Csak szegény nVidiák öregek lettek... Azaz idejétmúltak ... Majd a következő generáció már talán tudni fogja ezt....
Ennél sokkal többre lehetne jó a DX12, csak az a baj, hogy a mai játékok döntő többségét még mindig DX10-11-re írják, annak az API-nak a korlátait figyelembe véve. A DX12 egyik legnagyobb előnye hogy ezeket a korlátokat, ill. leginkább a draw call limitet gyakorlatilag megszűnteti, de ha az egész játék úgy van felépítve hogy sose lépje át a draw call limitet, akkor hiába váltasz DX12-re, érdemben nem fog tudni gyorsabban futni mert a limitáció amit orvosolna amúgy sem jelentkezik a játékban.
Pl. tegyük fel van egy FPS / TPS / RPG játékban egy nagy harcjelenet, mit látsz? ~20 karakter lövi egymást a képen, és hogy van bemutatva ez? Világraszóló háborúként...
Ez nevetséges, hogy tovább ne menjek a Mass Effectben is 3 emberrel mentettük meg az univerzumot, de minden játékban így van ezért hozzászoktunk már... Ez a kevés karakter megjelenítése pedig a régebbi DirectX-ek sara. Mass Effect-es példánál maradva, hiába váltanál benne DX12 rendererre (ha lenne), mert a játék maga alapjaiban nem arra készült, más ligában mozog.
Ha hirtelen megszoroznák 10-el a képernyőn egyidejűleg mozgó karakterek számát, akkor lenne szembetűnő a különbség, ezt viszont nem tehetik meg mert onnantól még Low-on se fog futni a játék a DX12-t nem, vagy nem rendesen támogató videokártyákon, amivel egy csomó potenciális vásárlótól elesnek.
A Battlefront 2 is futhatna 32-64 playeres pályák helyett 128-256 játékost összefogó meccsekben, csak onnantól senki nem tudna vele játszani akinek ~2 évesnél régebbi videokártyája van és ezt a fejlesztők nem engedhetik meg maguknak.
Sokkal több értelme lenne / lehetne a DX12-nek mint amennyi jelenleg van, de amíg az egység sugarú koca gamerek átlag gépei nem érik el azt a szintet, hogy minimum egy Maxwell v2 vagy egy GCN 1.1 (aka GCN 2) architektúrájú videokártya legyen bennük, addig nem fognak olyan játékokat fejleszteni amik teljes egészében kihasználják az új API-k képességeit.
[ Szerkesztve ]
Turenkarn
Sajnos a cikk nem fejti ki, hogy mi történik a Fury X-el, illetve miért veszik át a GTX 1080 kártyák a vezetést 4K-ban, vagyis hogy mitől fogy el a Vega. Szívesen olvasnék itt arról is egy elemzést, hogy a SWF2 alatt miért omlik össze a teljesítmény DX12-ben. Igen tudjuk béta, csakhogy állítólag a világ legfejlettebb grafikus motorja fut alatta, így ez fokozottan érdekes.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
A Forza Horizon 3-ból kiindulva, ami nálam fullHD, nem minden maxra tekerve bekajál (az egyébként nem egzakt pontos mérés szerint) 3-3,5 GB videómemóriát én azt sem zárnám ki, hogy 4K-nál egyszerűen kevés a 8GB memória. De ez csak egy elmélet.
János először lőtt oszt már kérdeznie se kellett
Nálam az első és a negyedik max teker maxon, szinte állandóan.. Arról nem beszélve, hogy elég drasztikus fps droppok vannak.. Még 60 fps lock mellett is néha beesik 25-30-ra, ha olyan kedve van. Lock nélkül pedig, 141-ről egyszercsak beesik 60-ig, utána vissza 141-re.. Mindez 1440p-ben 100-as és 150-es res scale mellett is.
RTSS-sel monitorozom, ott szépen folyamatosan látszik, hogy az 1. és a 4. mag szinte folyamat 100%, a többi pedig 0 és max 30% között ingázik, tök véletlenszerűen.
A Horizon 3 alatt szépen eloszlik minden szálra a terhelés, Nálam pl. átlagosan 30-50% körül szinte folyamatosan minden szál. Szóval.. Így sikerült a továbbfejlesztés? Akkor inkább ne piszkálták volna meg.
Szóval, szerintem ez még minden, csak nem jó..
[ Szerkesztve ]
Véleményem szubjektív...
Az nem indok, hogy még béta, mert a BF1 is szarul fut GeForce-on, meg a Battlefront 1 is, azóta meg kb ugyanaz a helyzet, aszinkron compute ide vagy oda.
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
Egy - két patch -ot meg fogtok még élni Forza7 alatt.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
Tulajdonképpen annak, h a program kiveszi a driver kezéből a gpu nem compute részeinek etetését, ez maga lesz a limit forrása. Jól értem?
De ezt a limitet, ezt a működést a vega jól kezeli, más kártyák meg nem.
És a vega és más kát'rtyák is tudnának jobban is teljesíteni, de csak async compute eszközzel.
Ennek a működésnek milyen előnye van?
Találgatunk, aztán majd úgyis kiderül..
(#28) Petykemano válasza huskydog17 (#22) üzenetére
Valójában kifejti.
Azt tudtuk eddig, h a gcn frontendje és drivere szűk keresztmetszetet jelent a compute power fpsre váltásában. Rosszabb a kihasználtság.
Eddig úgy volt, hogy magasabb felbontáson nincs több frontend meló, de több a compute, amiből meg van tartalék, ezért a felbontás növekedésével záródik az olló.
Most ugyanez van, csak fordítva. A vega jobb kihasználtsággal dolgozik, a felbontás növekedésével a feladatban egyre több lesz a frontendfüggetlen compute feladat, növekszik a számítási kapacitás kihasználtsága.
Találgatunk, aztán majd úgyis kiderül..
Horizon 3 után szabadon.
Szinte biztos, hogy így lesz. Bár ez sokkal jobban viselkedik, mint az FH3, ha a megjelenéskori teljesítményt nézzük.
Véleményem szubjektív...
"...az AMD mindig a jövőnek fejleszt, csak az emberek meg ugye a jelen játékaival játszanának..."
Nagy igazság, de ez sajna globális IT probléma. Nincsen szinkronban a hardver és a szoftver fejlesztés. Mint a kijelzők fejlesztése. Van óriási felbontás, de nincs mit nézni rajta, van új architektúrájú CPU, GPU, APU, de a szoftverfejlesztőknek évekbe telik mire ki tudják használni...persze addigra jön egy új széria, szóval folyamatos lemaradásban vannak. Valahogy a hardver fejlesztőknek jobban kellene segíteni az SW fejlesztőket, vagy a határt máshol kellene meghúzni a kettő között és a hardverhez készült driver önmagában képes képes legyen kihasználni azt. Valami macro nyelvre át kellene térni, ahol a fejlesztő csak kér valamit, a HW meg megoldja a legjobb tudásának megfelelően. Lehet hogy valami MI(AI) kellene középre a HW és SW közé.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
1Forza Motorsport 7 a megjelenített minőséghez képest kiemelkedően jól fut a modern és az átlagosabb képességű PC-ken is.'
Abu, nyugodtan írd ki: támogatói tartalom. Hasonló fps dropok vannak és akadások mint a Horiozon 3 startjánál (annál azért jobb). Persze a bulvár sajtónak ez semmi, lassan kijelentheted 30 fps mindenre elég
Nem ezer éves hardverekről beszélünk.
[ Szerkesztve ]
http://www.shacknews.com/article/101520/forza-motorsport-7-review-what-could-have-been
'A legnegatívabb vélemény eddig a Shack Newstól érkezett, ahol a szerző csak 6 pontot osztott ki a játéknak. Ezt teljesen a játék PC-s verziójának teljesítménybeli problémáinak tulajdonította, ezek hiányában 9 pontot is adott volna a programra.'
Ugyan ezt írják az általatok semmibe vett felhasználók.
Ezt csináltad a bugos AMD driver idején is, leszóltál mindenkit hogy nála van a hiba, és annyi egyenesség nem volt benned hogy annyit mondj sorry, mikor AMD elismerte és javította a drivert.
[ Szerkesztve ]
Nekem is ez jött le a cikk olvasása közben
Minek oda az a k?
"mivel egy három éve megjelent középkategóriás VGA-k is képes futtatni a játékot"
Si vis pacem, para bellum!
Szerintem ez volt a dx12 előtt: magas szintű hardverkezelés, cserébe komoly limitációk.
https://www.coreinfinity.tech
Sziasztok!
12 órás Forza Motorsport live-al és SORSOLÁSSAL várunk mindenkit. https://youtu.be/rhYF2UdZeHQ
hát, azért a Doom a Vulkántol rengeteget gyorsult, tehát van még tartalék az egész rendszerben, akár a régebbi hw-en is (már amin fut a vulkan). Valami gond van még a DX12-vel szerintem.
okoskodom, tehát vagyok
Én mondjuk nem vagyok Vegán, ráadásul csak a demót probáltam, de én egyáltalán nem tapasztaltam semmi akadást. Pedig a demó esős nürburgringi szakasza biztos nem kíméli az erőforrásokat. Jól is nézett ki.
Azért ha jobban megnézed a helyzetet a fejlesztők kvázi mesterségesen lassították a többi kártyát azzal, hogy nem írtak megfelelő implementációt a teljes kihasználásra. Az nvidia nem öreg, csak az aktuális igények kiszolgálására készült, nem pedig egy lehetséges jövőképbe.
Ezzel nem az AMD igyekezetét akarom leírni, csinálják csak szépen így tovább. Csak arra próbálok rávilágítani, hogy ha középen állsz meg, akkor mindkét irány érthető és nem kell egyiket sem leírni.
"A lótrágya jól tüzelt, ám a ló népének még volt mit tanulnia a szellőztetésről, kezdve a szó jelentésével."
Mert tök egyértelműen látszik, emellett 4K-ra és 8xMSAA-ra a fejlesztők 8 GB VRAM-ot ajánlanak.
Nem veszik át a vezetést. Minimumban sosem tudják elérni a Vegát, mert túl sok limitbe futnak bele. Alapvetően ez az, ami jelentősen limitálja a hardvereket, mert a rossz kihasználás gyengébb minimumokat eredményez. Lásd itt: [link] - tökéletesen látszik, hogy hol jelentkeznek a limitek. Ezek nem túl nagyok, de ilyen mértékű visszaesésekkel nem lehet találkozni a Vegánál, tehát ez a hardver sokkal kevesebb nyers limittel találja szembe magát. A limitek többsége egyébként nem tipikusan hardveres, lást a következő bekezdést.
Az SW BF2 még béta. Nincs aktiválva az aszinkron compute, és a szervizkönyvtárak támogatása is le van még lőve. Ezek jókora boostot okozhatnak, de a működéshez új meghajtók kellenek. Végeredményben azt várják, hogy a GCN-en a DX12 GPU-limites környezeteben 5-7%-kal lesz gyorsabb a DX11-nél, tehát nagyjából azt hozza majd, amit a Battlefield 1.
A GeForce-szal rövid időn belül nem valószínű, hogy tudnak mit kezdeni, mert nyáron megváltozott a meghajtóimplementáció. [link] - Ez a Frostbite-ot igen kellemetlenül érinti, mert minden olyan munka, amit az év első felében a GeForce-ra való optimalizálásba öltek, gyakorlatilag semmissé vált, olyan mintha nem is dolgoztak volna rajta. És sajnos nyár óta igen kevés idejük volt ezt megváltoztatni, főleg úgy, hogy maga a meghajtó is furán viselkedik bizonyos szituációkban, tehát az optimalizálás újrakezdése előtt mindenképpen érdemes megvárniuk azt, hogy az NV az új implementáció problémáit lekezelje. Körülbelül fél-egy év, mire egy ennyire új meghajtóimplementáció kiforrja magát. Szóval abban most vastagon benne van az UMD is, hogy a GeForce teljesítménye a DX11->DX12 váltástól a korábban megszokottnál jobban esik. Egyébként biztos jó oka volt arra az NV-nek, hogy a korábbi UMD-t megváltoztatták, tehát emiatt nem érdemes bírálni őket, de az időpont, amit erre választottak, nos rendkívül rossz. Már csak azért is, mert egy jó két éves munkát dobtak ki az ablakon a nyáron, és most kvázi kezdik elölről. És ötlet szintjén lehet akármilyen jó az új UMD implementáció, akkor is megvalósításban jó két év mínuszban van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Nem a program veszi ki ezt a meghajtó kezéből. A Microsoft döntött úgy, hogy innentől kezdve a fő parancsprocesszor etetéséért nem a meghajtó felel, hanem létrehoznak egy univerzális tulajdonképpen drivert, amit ők írnak meg, és ez támogatja az összes DX12-es hardvert. És innentől kezdve ez az univerzális modul eteti a fő parancsprocesszort. Ezt azért lépték meg, mert egységesíteni szeretnék a rendszereket ebből a szempontból, és ha mondjuk az NV és az AMD nem tud trükközni a meghajtóban bizonyos parancsok gyorsabb bevitelével, akkor muszáj az általánosan erősre tervezni a parancsprocesszort. Ennek várható következménye volt, hogy előbb-utóbb lesz egy olyan hardver, amit már a Microsoft új modelljére szabtak, így nem csak működik ezzel a konstrukcióval, hanem nagyon hatékony is vele.
Ez az egész a Vegának pusztán időelőny. Később fogtak hozzá a tervezéséhez, így amikor a Microsoft a koncepcióját véglegesítette, akkor arra Pascalban/Polarisban már nem, viszont például a Vegában pont tudtak rá reagálni. Számos ilyen apró nüansz van egy hardver tervezésénél, amivel az API bizonyos képességeire reagálnak direkten. Ha belefér az időbe, akkor meg kell lépni, mert előnyös lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
[link] - A frame-time-ra jellemző kilengések implementációfüggők. Nem tipikusan program okozza. A nagyobb kilengések nagyon egyszerűen kezelhetők, de kell idő neki, mert az NV most kezdte újra a D3D12-es implementációját, tehát egy jó fél év lesz, mire ezt olyan megbízható szintre fejlesztik, amilyen a nyár előtt volt. Az előző két évi munkát kidobták az ablakon.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
"Mert tök egyértelműen látszik, emellett 4K-ra és 8xMSAA-ra a fejlesztők 8 GB VRAM-ot ajánlanak."
És ez szerinted minden olvasónak tök evidens. Ezt gondold át még egyszer.
"Nem veszik át a vezetést."
Ja hogy itt most csak és kizárólag a minimum FPS a lényeg. Miért is? Én az átlagsebességre gondoltam, ahol a 1080Ti van előrébb 8%-al. 4K alatt elfogy a Vega előnye. A 23%-os előnyből lesz 8%-os hátrány.
"Végeredményben azt várják, hogy a GCN-en a DX12 GPU-limites környezeteben 5-7%-kal lesz gyorsabb a DX11-nél, tehát nagyjából azt hozza majd, amit a Battlefield 1."
Tehát még egy cím, ahol nem lesz érdemes használni a DX12-t.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
Abu
Arról tudsz esetleg valamit, hogy mi lehet annak az oka, hogy pl Ryzen-ek Vega-val van, ahol 10-20 fps-t is gyorsulnak egy-egy játékban, ahhoz képest ha Ryzen + 1080 TI felállás van? Elég érdekes ilyen teszteket nézni ahol 6-7 procit is lemérnek ugyanabban a játékban egyszer 1080 TI-vel aztán meg Vega 64-gyel...
[link]
Másik: Fura itt egy-két ember főleg ennél a cikknél, löki az elfogult és "sponzored by "dobálózást, teljesen érthetetlenül. A hír címe eléggé pártatlan, hasonlítsátok már össze 1-2 külföldi oldaléval, ahol "outperforms" "shines", "beatdowns" és egyéb jelzőkkel dobálóznak már a címben is. A PH is lehozhatta volna ugyanígy, erre tessék ettől függetlenül itt is kapja az elfogultság dumát...
Ryzen 2600, 2x 8GB RAM, 250 GB samsung 850 EVO
Én nem a címre gondoltam, tudod én a cikket is elolvasom
Menü is szaggat ebben a játékban , itt meg lehozzátok azt , h még közepes gépen is jól hasít meg , hogy milyen jó a szálkezelése.
A közepes gép nem egy P4-est jelent...
I5 el es 16 gb rammal is akad a menu a demojanak :p
Attól még ezt az optimalizálást szerintem mindennek lehet nevezni, csak épp jónak nem.
Még van, amikor 60 fps lock mellett is beesik az FPS 20-30-ra, csak úgy.. Ugyan már. Arról nem beszélve, hogy ha nincs fps lock, akkor 140-ről esik be 50-ig, majd hirtelen visszamegy 140-re, és így tovább. Persze ilyenkor a cpu terhelés is össze vissza ugrál.. Szal, jól hangzik ez, hogy ez így normális, de.. de..
Annak idején először az FH3 is hasonlóan indult, aztán kellett hozzá fél év, hogy sikerüljön rendesen megoldani a cpu terhelést. Érdekes módon miután megoldották, hogy sem hasonlóan az legyen, mint itt, hogy 1-2 mag tekerjen maxon, a többi pedig pár %-on vakarózzon, meglepő módon 30-40%-ot gyorsult a játék..
A Gsync-et legalább megoldották, megjelenéskor lényegében még az sem működött, plusz néha 10-20 fps volt menüben lapozgatáskor..
Véleményem szubjektív...