- Magga: PLEX: multimédia az egész lakásban
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- btz: Internet fejlesztés országosan!
- Mr Dini: Mindent a StreamSharkról!
- M0ng00se: Hardvert áruhitelre?
- bambano: Bambanő háza tája
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
Új hozzászólás Aktív témák
-
Asbee
veterán
-
Asbee
veterán
Egy kis érdekesség:
Egy éve le van gyártva már a 980ti... Mielőtt bárki megint temetni kezdi az NV-t az API-ek jövetelével... Ki tudja mi van már készen náluk.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5992 üzenetére
Nem. A DirectX 12 az DirectX 12. A feature level innentől kezdve nem komoly dolog, mert nagyrészt csak opcionális funkciókat tartalmaz, zömében nem véglegesítetteket.
A DX12-ben a legfontosabb újítás szoftveres, vagyis az overhead csökkentése. Ez a kulcstényező és nem más. A másik fontos újítása az asszinkron compute, ami a GPU-limit ellen küzd. Ezzel lehetőség van ezeket a masszívan párhuzamos lapkákat tényleg párhuzamosan dolgoztatni, mert nem csak sorban kerülhetnek rá feladatok.A bekötési modell az azért nagyon fontos és azért van folyamatosan kiemelve a fejlesztők és a Microsoft által, mert ez határozza meg az API-nak azokat a képességeit, ahogy a hardvert elérheti. A GPU-k nem olyanok, mint a CPU-k, hogy írsz rá programokat és azok futnak. Itt amellett, hogy van memóriájuk, még masszív limitációkkal írhatók programok rá. Ezért került bevezetésre a DX12-ben ez az új bekötési modell, hogy a fejlesztők ahogy egyre komplexebb programokat írnak, ne fussanak ki az erőforrásokból. A hosszabb távú cél igazából az, hogy a fejlesztőnek csak arra kelljen figyelni, hogy a GPU-nak van x GB memóriája és azon belül annyi erőforrást hoznak létre amennyit abba belefér. Ma ez óriási limit, mert az API nem enged meg akármit, még akkor sem, ha a hardverek jók lennének. Ez pedig akadályozza azt, hogy végeredményben hány effektet írhatsz bele az adott játékba. Hosszabb távon ezt az állandó kompromisszumkényszert akarja leküzdeni a Microsoft ezzel az átdolgozott DX12-es bekötési modellel. Egyszerűen, ha a fejlesztő megálmodik valamit, akkor csinálja meg, ne azért legyenek kidobva dolgok a programból, mert kifutott az API által megengedett erőforrásokból.
A véglegesített specifikációk tekintetében a GCN egyes verziói egységesek. A nem véglegesített opcionális specifikációk esetében meg kell várni a véglegesítést.
Az overhead biztosan csökken, az független a feature level szinttől. Ezt két dolog határozza meg. Az egyik a parancsok párhuzamos beírása a parancspufferekbe, ami egy szoftveres funkció, vagyis igazából nem igényel semmilyen komolyabb dolgot a GPU-n. Jó persze kér egy modernebb hardvert, de az elmúlt hét évben megjelent GPU-k elméletben tuti jók. Amelyik cucc kap DX12 drivert ott ez a funkció megy. A másik a bekötési modell, ami szintén meghatározza az overheadet. Ebból a szempontból a TIER1 jár a legnagyobbal, mert az emuláció. Nem rossz így sem, de érezhető lesz. A TIER2 már bindless, tehát eléggé alacsony a többletterhelése. A TIER3 pedig explicit bindless, vagyis nincs többletterhelése.
-
CsonkaImo
addikt
válasz
FollowTheORI #5993 üzenetére
Azthiszem az aszinkron compute kezelése van hátrányban, legalábbis a Tahiti-nél (7xxx) biztos.
Szerk.: Itt a cikk. Compute parancslisták száma 2, míg a Hawaii és Tonga GPU-knál 64.
-
válasz
#85552128 #5992 üzenetére
Azt már lenyilatkozták (Microsoft), hogy az összes DX12 lehetőséget egyetlen mai GPU sem támogatja majd. Szóva ahhoz új vas kell majd.
A Maxwell és a GCN között meg nemigazán tudás beli különbség van, hanem más limitációk vonatkoznak rájuk. Elsősorban a Maxwell limitált jobban egy két dologban a GCN-hez képest.
Amugy a GCN 1.0 is van valami limit ami elég erős, de nem jut eszembe mi az.Szóval akinek Maxwell 2 és GCN 1.1+ kártyája van annak nem kell aggódnia ezen szerintem (nagy meglepetések nem érhetik).
-
#85552128
törölt tag
Tehát akkor a Feature Level 12_0 a DirectX 12 támogatást jelenti, a 12_1 meg valami DX12+ (12.1 ha a régebbi elnevezések alapján nézzük ?) ?
Mert akkor lényegében ott vagyunk, hogy az aktuális DX12-es specifikációk alapján jelenleg nincs is olyan GPU a piacon aminek _teljes_ dx12-es támogatása lenne az opcionális dolgokkal mindent együtt véve.
A GCN-nek nagyobb bekötési tierje van, de a Feature level szempontjából ez nem jelent változást. a Maxwell2-nek kisebb bekötési tierje van, de a FL szempontjából több dolgot támogat - még ha ezek opcionális dolgok is.A táblázatból nekem igazából az szúrt szemet, hogy a GCN 1.0 nem támogatja a Feature level 12_0 - akkor ez most tényleg így van vagy az is hülyeség ?
Illetve a Feature Level 11_X most akkor lényegében azt jelenti, hogy "visszaskálázódik" DX11.X-es szintre ? Vagyis el fog indulni a DX12-es app, de más dolgot pl. overhead csökkenés nem érünk el vele ?
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5990 üzenetére
A Vulkanról még felesleges beszélni, mert a base specifikációk sincsenek véglegesítve. Ettől függetlenül egy hasonló bekötési modellt használ, mint a DX12, csak más paraméterezéssel, és több emulációs lehetőséggel. De a véglegesítésig ezek változhatnak. Láthatod, hogy a DX12 modelljét négyszer módosítottak, mire végleges lett.
A DX12 végleges bekötési modelljével (amire még mindig rá kell mondani az áment, de szinte ki van zárva, hogy változik) a TIER1 egy emuláció lett. Azt támogatja az Intel Gen7.5, Gen8 és az NV Fermi. A TIER2-t a Kepler és Maxwell, míg a TIER3-at a GCN.
Az opcionális funkciók nincsenek véglegesítve, mert kevés volt rá az idő. A fejlesztők használhatják, de a Microsoft kiadta nekik, hogy vigyázzanak vele, mert ha év végén jön egy végleges verzió és változik, akkor a kiadott program nem fog működni.
Egyébként igazából a ROVs egy mutex zárolás a rendszerben. Olyan mint az Intel PixelSync, a GCN ezt tudja támogatni, mert a GDS-re írható egy olyan implementáció, amely zárolja a folyamatokat a megfelelő megérkezéséig. Ezt OpenGL-ben már támogatják. A Conservative Rasterization igazából eltérő interpolációt igényel a hardverben. De mivel a GCN szoftveres interpolációt használ már évek óta, így az egész támogatás csupán a fordítón múlik és nem a hardveren. Eleve az interpoláció a GCN-en annyi, hogy a CU-nkénti 64 kB-os LDS-ből 32 kB-ban ott vannak az interpolált háromszögadatok. Annyi interpolációs rendszert írsz rá a shadereken keresztül, amennyit akarsz. Most csak egy van, de például a Mantle új verziójában maga a fejlesztő is megírhatja a saját interpolációs rendszerét.A Wikipédiás táblázat teljesen téves. Nincs olyan, hogy hUMA a DX12-ben, az egy HSA specifikáció
. IOMMU-van a WDDM 2.0-ban. És azt sem tudja támogatni egyetlen dedikált GPU. Emellett azt hiszik, hogy a TIER szinten az egyes eljárásokon a bekötésre vonatkoznak. Hát nem.
A DX12-ben és a WDDM 2.0-ban nincs minden opcionális rendszer véglegesítve.
Ami véglegesítve van arra a támogatás ilyen:
Bekötési modell fentebb, nem írom le újból.
WDDM MMU modell: emulált: Intel Gen7.5, NV Fermi, dedikált: Intel Gen8, NV Kepler és Maxwell, AMD GCN
WDDM GPUMMU: minden dedikált GPU
WDDM IOMMU: csak APU: AMD Kaveri, Carrizo vagy Intel Broadwell, Skylake
Aszinkron Compute: AMD GCN, NV Maxwell (kivéve a GM107). Az Intel Gen8 támogatja, de az Intel mondta, hogy náluk ez lassulást okoz, így nem fogják engedélyezni.
SAD4: mindenen emulált, kivéve a GCN, ott ez dedikált utasítás
Aszinkron DMA: AMD GCN, NV Maxwell (kivéve a GM107). Emellett számos korábbi Quadro VGA-n ez működni fog, mert a Kepler óta van két DMA az NV GPU-ban, de abból a GeForce-okban egy mindig le lett tiltva.
Atomi számláló: mindenen emulált, kivéve a GCN, ott ez dedikált utasításVéglegesítésre vár még a maradék opcionális funkciók és a WDDM hard preempció. Ezeket az elkövetkező egy évben tervezik befrissíteni a Windows 10-be. Lehet, hogy apránként, lehet, hogy egyszerre.
A bekötési modell gyakorlati haszna csupán az, hogy mennyire limitálja az adott modell az erőforrás-használatot. Kvázi ennek a jelentősége az lesz, hogy mennyi effekt kerülhet egy játékba egyszerre. Itt főleg compute effektre kell gondolni, mert leginkább az UAV-k száma lesz a limit. Ma nagyjából 4-7 compute effekt van egy játékban, de a jövőben ez a szám növekedni fog, tehát végeredményben az a cél, hogy a limitáció tulajdonképpen csak a memória legyen, és ne más.
-
#85552128
törölt tag
Olvasgattam a DX12 és a Vulkánról, hogy egyáltalán érdemes e új VGA-ban gondolkodni, de most "kicsit " összezavarodtam:
Eddig itt mindig a bekötési modell (resource binding) szintje volt kihangsúlyozva, tehát Tier 2 - Maxwell2, Tier 3 GCN, Tier 1 a maradék.
Viszont nem inkább a Feature level ami az újdonság és/vagy ami fontosabb ?Mert a 12_0 és a 12_1 feature levelnél egyaránt a Tier 2-es bekötési modell van megadva, de pl. a 2 opcionális funkciót (Conservative Rasterization, Rasterizer Ordered Views) csak a Maxwell 2 támogatja, tehát lényegében full 12_1 supportja is csak ezeknek van.
A másik érdekes dologot a wikipédiás összesítő táblázat alapján vettem észre :
Most lehet, hogy ez már azóta változott, de konkrétan a 12_0-s feature level szintet is csak a GCN 1.1 és 1.2 kártyák támogatják, tehát a Fermi, Kepler, Maxwell 1, GCN 1.0 a 11_0 és a 11_1 szinten van.
Gondolom a feature level itt a DX 11 és 11.1 támogatásra utal, most akkor lényegében ezek "csak" az overhead eltűnésből profitálnak és a 12 feature level újdonságaiból nem ? Mert ez alapján ok, hogy a GCN Tier 3-as ha a bekötési modellt nézzük, de gyakorlati hasznát csupán ennek nem nagyon látom, sőt... -
TTomax
félisten
Ohh mit találtam megér egy misét...
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5982 üzenetére
Én Witchert az első rész után csak így veszek. Az Enhanced patch mellett kiszedik a bugokat, és jó lesz. Az első részt egy nagy bug miatt be se tudtam fejezni az Enhanced patchig, akkor is újra kellett kezdenem. Szóval a W2-nél már tanultam ebből és csak később vettem meg. Most is ugyanígy teszek. Mire lesz Enhanced verzió, addigra az ára is a fele lesz.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5979 üzenetére
A gépigényre gyúrni az EA-nek megint egyszerűbb. A Dragon Age: Inquisition a Frostbite aktuális verziójának utolsó nagyobb címe. Ez azt jelenti, hogy a 3-as főverzió már eléggé optimalizált, hiszen az első játék óta másfél évet lehetett polírozni. A Red Engine új, szinte polírozás nélküli rendszer.
Majd az EA is át fog állni a következő nagyobb Frostbite frissítésre. Talán nem 4 lesz a neve, de az NFS és a SW: Battlefront már ezzel jön. -
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5964 üzenetére
És most hasonlítsd össze az EA és a CDPR készpénzállományát és fejlesztői lehetőségeit.
De amúgy ja egyetértek, a Dragon Age: Inquisition-t grafikailag nem sikerült lenyomni, csak ez pénzkérdés inkább, mintsem technikai.
Egyébként nem vagyok benne biztos, hogy az elkövetkező két évben bárkinek is esélye lehet a PC-n az EA által követett újszerű fejlesztési modell mellett. Egyszerűen a váltásokra marha sok pénzt mozgósítottak, és marha jó a szakemberi gárda a Frostbite mögött. Leghamarabb a Square Enix tudja őket befogni, de ők is lassabban kapcsoltak, és alapvetően több erőforrást kell majd mozgósítaniuk.
-
válasz
daveoff #5976 üzenetére
Szerintem nem, mert a konzolra megírt kód sokkal egyszerűbben áthozható majd. Vagyis nem kell midnenféle trükköt bevetni meg átírni hogy pl a drawcall limitbe beleférj. Néztem mostanában már GDC prezentációt erről és elképesztő trükköket vetnek be hogy az API limitációkat elkerüljék (adat stuktúrák, textúrákba bújtatott plussz adatok, GPU generált kód stb stb). Remélhetőleg ezt az egészet kukázza a DX12.
Onnantól meg annyi a különbség hogy PC-n lehet több a textúra és nagyobb a felbontás.Én optimista vagyok.
-
daveoff
veterán
válasz
FollowTheORI #5974 üzenetére
Pontosan, és szerintem ez így is marad, a konzolok ezután is visszafogják majd a PC-t, és fogunk szívni még miattuk, nem keveset....
-
TTomax
félisten
válasz
FollowTheORI #5974 üzenetére
Nem hiszek én ebben.. a konzolokra sem ment eddig másfél év alatt,a DX12re se fog 9hónap vagy egy év alatt...majd esetleg 2-3év múlva lesznek olyan játékok ahol látszik is valami.Addigra a Fiji is kuka lesz,meg a maxwell is...
(#5976) daveoff
Hát igen,csak most meg azért mert gyenge az a vas ... -
-
daveoff
veterán
válasz
ricshard444 #5963 üzenetére
Akkor lehet velem van a baj, de számomra ez a grafika durván elavultnak hat, pedig nálam maxra van téve minden. Jók a képeid, ezeken valóban nem annyira vészes, de ingame teljesen mást mutat a grafika, mint egy screenshoton. Szerintem ennél már láttunk szebb grafikát évekkel ezelőtt, lehet van benne egy-két olyan effekt ami megfelel a kor követelményeinek, de az összkép nagyon alacsony szintet képvisel....sajnos....
-
Nem, arról beszélünk hogy 2007-es játék és most 2015 (8 év
) van és szarabul néz ki majdnem.
És ma már egy középkártya is viszi maxon.És nem tudom hol látod benne a csőt.
(#5970) TTomax
Jól van oké...
DX12: mármint arra gondoltam ott mégjobb technikák lesznek hogy ne láss töltőképenyőket, de ettől még a grafika lehet jobb is (meg rosszabb is persze).
Amugy igen bízok benne, mert amit eddig mutattak belőle eléggé előremutató. -
TTomax
félisten
válasz
FollowTheORI #5969 üzenetére
Igen ez volt az sziget amit 10perc alatt körül lehetett járni, (céltalanul) ez kb sehol nincs egy Skyrimhez képest.
(#5971) NetTom
Azért érdekes amit írsz,mert ezt kaptuk a dx11-el,de azért bízol a dx12ben.Ott látom benne a csőt hogy a a játék pontról pontra megy,azért ki ne találjuk már hogy a Crysis 1 egy openworld játék
irtam,szélesebb a cső,de nem openworld... a GTA, a Skyrim, meg Witcher azok...
-
Rosszak az emlékeid, vedd elő újra valamikor.
Igen továbbra is semmi köze a mindenkori megjelenített grafikához.
És a sziget(ek) egyáltalán nem kicsi... nem látsz többet a Witcherben sem, max azóta fejlődött a technika, vagy seamless stream stb megoldás ami a háttéreben tölt és távolít el dolgokat a memóriából.
DX12-ben mégjobb lesz ez a rész. -
TTomax
félisten
válasz
FollowTheORI #5967 üzenetére
Ami nem valami nagy ugye....csőjáték az,csak kicsivel szélesebb a cső.
Mellesleg grafika/látótávolság szempontjából ez tök irreleváns
Ezt ugye csak viccnek irod,vagy nem játszottál ilyen játékokkal... bár ha te szereted akkor a "loadig screen" a játék részének tudni,esetleg barangolás közben két percenkét szereted a 3mp-es prefetch lagot akkor nem szóltam.
(#5969) NetTom
Nem rosszak bizony,barangolhattál egy nem túl nagy szigeten,csakhogy céltalanul... mert a küldéshez bizony mindenkinek ugyanoda kellett menni vagy nem ment a játék tovább.És azt nem te választottad meg mi/hogy/merre lesz a következő jelenet... scriptelve volt az...
Ezzel az erővel meg bármelyik játékra elmondhatjuk hogy nem csőjáték...de egyébként ugye arról a Crysis 1- röl beszélünk amit maxra húzni nem lehetett semmin kb 5évig ...igaz egyébként szerintem jól skálázható volt. -
-
#85552128
törölt tag
válasz
ricshard444 #5963 üzenetére
A fényeffektek szépek, de a növényzet és a talaj ronda az állandóan himbálózó növényzet is gagyi.
A Dragon Age: Inquisition fél évvel ezelőtt sokkal jobban nézett ki és optimalizáltabb is, nem lenne baj ha ronda, de azért ~60 FPS-t még a 980 se tud tartani 1080p-n az vicc...Szerk.: Igen még a GTA V fényeffektjei is szebbek, de ebben a játékban ez a maximum amit kitudok emelni...
-
Egyáltalán nem olyan ronda, mint amilyenre elsőre hat. És itt a haj és a fű látótáv sincs maxon.
-
TTomax
félisten
válasz
daveoff #5959 üzenetére
Hát azért kicsit erős szerintem hogy okádék,maga játék egyébként nagyon jó.Az ilyen open world játékokat mindig más szemmel kell nézni,csak hát az a baj,hogy már dx9el is kb megkaptuk ezt a grafikát pl Skyrimben,pár haszontalan effekt nélkül... igy a DX11 végére nem igazén érzem azt,hogy sikeres lett volna,és ezért vagyok pesszimista a következő dx verzióval is. Egyszerűen az MSnek nem érdeke hogy te pct vegyél...
(#5961) NetTom
Ne hasonlíts a Crysis1hez,se a 3hoz... egyik sem open world hanem egy csőjáték. Hasonlítsd a Stalkerhoz,vagy a Skyrimhez az közelebb áll hozzá... -
válasz
daveoff #5959 üzenetére
Naja... nemrég mentem kicsit a Crysis 1-el (2007-es játék), még azis jobban néz ki (kis túlzással), pedig ott is nagy a terep, meg dzsungel stb.
Mondjuk a készítők is bevallották a konzol volt a cél, és a PC-ből tudtak volna többet is kihozni + ugye a gameworks belerondított.
Ez van. -
TTomax
félisten
válasz
proci985 #5957 üzenetére
Hát állítólag jön rá javítás...ez van amikor a professzionális piacról emelnek be egy gput,és nem optimalizálnak rá.Most látszik igazán milyen kemény munka is volt a 780Tivel driver oldalon.
Azért látszik most a driver maxwellre van hegyezve.No és a fekete bárány 295X2 mellett se menjünk el szótlanul,borzalmas amit mutat,holott az a kártya képes lenne megverni a TitanX-et.Aki anno azt megvette 1500dolcsiért,az most biztos nagyon boldog.
-
TTomax
félisten
válasz
#Morcosmedve #5955 üzenetére
Most komolyan a leggyorsabb egy gpus megoldást hasonlítod bármihez?
Amúgy nem lenne 200K,Mert a TX 320K,a te vgad meg nem 120K volt... de mindegy.
De egyébként is,neked nem ér ennyit meg másnak se, a harmadiknak meg igen de nem ez a topic témája. -
#Morcosmedve
veterán
válasz
daveoff #5953 üzenetére
Nem néztem meg annyira a tesztjeit, csak ami ide kikerült, mert nem igazán érdekel.
TTomax: 30k volt a különbség 970G1->980G1-re váltáskor, próbaképp volt, 780Classy-ból 1-1-be váltottam 980-ra...ha nem nézem közben a 970-et, csak azt hittem elég lesz, de nem, aztán jött a 3,5Gb még jo hogy nem mikor nekem is volt.
itt 200k lenne, azer az nem egy kutya.
-
TTomax
félisten
válasz
#Morcosmedve #5952 üzenetére
Ugyanezt mondja a 980adra akinek 970e van... A teljesítmény egy generáción belül sosem volt arányos az árral.
-
daveoff
veterán
válasz
#Morcosmedve #5952 üzenetére
Miért, van ahol hoz annyit?
TX nem a teljesítménye miatt annyi, amennyi...
-
TTomax
félisten
-
válasz
Milka 78 #5946 üzenetére
Pont ez a lényeg - akik 9-18 hónapja breuháztak egy akkor 550 USD-s kártyára, azok időarányosan sokkal kevesebbet fognak bukni, mint akik most teszik. Ezért csak annak érdemes most a topból válogatni, aki azt mondja, hogy jó lesz, amíg jön a next gen, aztán leszarom, mennyi bukó lesz rajta. Ugyanis ennek a körnek a 90%-a úgyis cserélni fog.
(#5947) imi123: Nem csak a végletek léteznek. A barátokkal ivás költségei részben sem visszanyerhetőek, viszont a hardvereké igen. Tipikus példa, hogy most 980-at nem igazán érdemes venni, mert jó esély van rá, hogy 2-3 hét múlva olcsóbb lesz. Szóval igen, nem érdemes túlaggódni a bukót, de néha azért nem árt megállni és átgondolni, mit is vesz az ember és mennyiért.
-
#85552128
törölt tag
Mondjuk azt nem értem miért váltott előbb 970, majd utána 980-ra. Ennyi "átmenettel" persze, hogy bukik rajta mert mindig olcsóbban kell adnia...
Még a 290 -> 970 váltást is meggondoltam volna.
De amúgy ha már itt tartunk az egész "bukok" rajta dolgot nem tartom lényegesnek, használod 1-2 évig hogy bukhatnál már rajta ? -
imi123
őstag
válasz
Milka 78 #5946 üzenetére
Az a baj hogy sokan bukásnak fogják fel.
Ha elmész bulizni vagy iszol egyet a cimbikkel azt is bukásnak fogod fel?
A játékban is ugyan olyan örömöd leled mint a többi szórakozásban.Ezt sem adják ingyen.
Aki az elemezgeti mekkora bukó van az folyamatosan eladás kényszerben van. -
Milka 78
nagyúr
Na ja csak a bukás szinte borítékolt.Persze lehet itt piacot/euro árfolyamot nézni,eladni a generáció váltás előtt és alaplapi ratyi karival ellenni ideiglenesen,de kinek van erre ideje.Én Majd 1.5-éve vagyok Hawai tulaj,bukok rajta egy valag pénzt,de ez van,bele volt kalkulálva.Ha a vadi új kocsit megveszed és kijössz a szalonból az -xxx ezer ft .
Spanom is eladta a 290-et kis bukóval,majd a 970 kis bukóval,majd most a 980-at is eladja kis bukóval (már ott tart lassan mint amit én egyszerre buktam) és most várja a csodát 2 hónapig az alapalapi karival amíg én vígan játszok.
Erre mondják,hogy ilyen szakma a popszakma. -
Továbbra is - szerintem hülyeséget csinál, aki most 9 hónapnál hosszabb időre drága kártyát vesz, akár AMD-t, akár nVidiát. Innentől kezdve nekem nem releváns kérdés, hogy mire mész 1 év múlva vele.
A DX12 miatt lehet, hogy váratlan értékcsökkenés lesz, az új generációk miatt meg biztos - szerintem elég komoly.(#5936) bunygyi: Nem ez a megfelelő topic erre, ill. az elvárásaidat sem ismerjük. Nézz be ide.
-
-Solt-
veterán
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra
Pedig szerintem ez lényeges kérdés, mert nem mindegy, hogy 1 év múlva mire mész azzal a kártyával amiért most vagyonokat adtál... idáig bátran lehetett vásárolni, mert szinte semmi lényeges változás nem történt már jó ideje... én is elvoltam 2 évig a 780-l és korrekt árcsökkenés mellett (2 év alatt kb érték feleződés) el tudtam adni. Ha az új API-k alatt a Hawaii jobban szerepel mint a Maxwell, akkor kinéz a utóbbinak egy az átlagosnál nagyobb értékcsökkenés, aminek nem hiszem, hogy a tulajok örülni fognak... főleg a 980 felett.
Ez szerintem független attól, hogy nagy lépés lesz a gyártástechnológiában... ahogy jön majd a W10 és a DX12 tesztek, átrendeződhet az erősorrend, és ezzel az árak is, de itt is sok múlik majd azon, mennyi és milyen játék érkezik az új APIk-ra. Persze mint írtam ez mind feltételezés, bőven benne van a forgatókönyvben az is amit te írsz.
Meglátjuk... mindenesetre érdekes lesz mondjuk egy év múlva elővenni, hogy ki mit ötletelt!
-
Yllgrim
őstag
Mert meg nem tudja, de szerintem Armored Warfare-zni akar, es oda mar kell egy picit komolyabb vas
-
bunygyi
tag
Szia!
Ennek fényébe kivárom a 16nm vga-kat.
Szeretnék egy átmeneti VGA kártyát!
Kis veszteséggel átlag játék felhasználásra!
Most a 980ti vagy a fiji volt tervbe véve, de így
kivárom az év végét!
Szóval mit tudnál ajánlani? kis veszteséggel!
Nincs most semmilyen kártyám és wot-ra kell csak! -
Folytatás innen.
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra, hanem az, hogy kinek (melyik vásárlónak) érdemes 28nm-en gyártott GPU-s kártyát venni. Aki 8-9 hónapnál hosszabb időre tervez, annak szerintem hülyeség. Emlékszel, hogy anno a 7970 és a 680 megjelenésekor hirtelen mennyire ósdinak tűnt a 6970 és az 580? Most is ez fog történni, csak nagyobban, mert két lépcsőt ugrik a gyártástechnológia, és új memóriatech jön. Egyedül a Fiji lesz valamennyire korszerűnek mondható, a jó ég tudja, mekkora fogyasztásával.
Ha pedig < 9 hónapra tervezel, akkor szerinted mennyi DX12-es játékkal fogsz játszani?Ezért mondom, hogy tök irreleváns ebben a generációban a DX12 az AAA piacon. Ha meg valami csoda folytán kis DX12-es játékok jönnének sokan, azok simán el fognak szaladgálni a jelen kártyáinkon is, attól végképp felesleges függővé tenni, melyik gyártót választjuk, ha egyáltalán veszünk valamit.
Egyébként te most nyugodt szívvel tudnád javasolni mondjuk a 980Ti megvételét?
Itt is az a kérdés, hogy mennyi időre. Fél évre akár igen - de nem most, hanem amikor már kijöttek a Radeonok is, és látszik, hol áll a csípési sorrendben.
-
Loha
veterán
válasz
FollowTheORI #5932 üzenetére
Nagyon jól értem, hogy még "framehez kötve" gondolkodtok, de a mai modern játékokban már nagyon sok minden nincs képkockákhoz kötve (de ezt már írtam), egyik nyilvánvaló példa a hang, mert azt ugye eleve nem is kell megjeleníteni
, aztán autós játékokban pl. a gumi kopás/melegedés/tapadás szimulációját, vagy a veled együtt köröző AI versenyzők "gondolatait" sem kell megjeleníteni, csak azok eredményét. Aztán az egész fizikai motornak sem kell a képkockaszámmal azonos frekvencián ketyegnie, nem is ketyeg (de ezt is már írtam).
-
És AMD oldalon még a mostani limitácókkal is kevesebbet sikerül kihozni, mert nem támogatnak mindent:
-
De mi most itt egy frame alatt akarunk minél több dolgot kihozni, azért vagyunk a "framehez kötve".
És ha ebbe az időbe nem férsz bele akkor nem tudod megjeleníteni, vagy túl lassú lesz.
Nem az az érdekes képkockák között vagy mellett mit csinálunk, hanem 1 képkockához/alatt mennyire komplex dolgot oldunk meg. És itt van CPU limit (meg soros végrehajtás).Teljesen mindegy a GPU meg a CPU önmagában mennyire tudna gyors lenni és hány dolgot egyszerre végezni, ha az API belimitálja szűk keresztmetszetbe az egészet.
Itt mi minél több effektet, egységet, részletességet akarunk megoldani egy frame alatt (a felső határon vagyunk ahol az API/CPU limitál).
(És ez nem a minél nagyobb FPS a cél, hanem adott FPS alatt minnél több munka elvégzése.)Na de mindegy már eleget offoltunk... én részemről nem folytatom.
Ezek szerint nem tudom jól elmondani hogy megértsd amit akarok/unk mondani neked. -
Loha
veterán
válasz
FollowTheORI #5930 üzenetére
Szinkronizálva vannak, csak nem a képkockák számához, hanem az időhöz.
Ha a fejlesztő azt állította be a fizikai motorban, hogy másodpercenként 600x modellezze le a fizikát, akkor 30 és 120 fps esetén is 600 számítást fog végezni a motor, csak egyik esetben két képkocka között 20x számol fizikát a motor, a másik esetben meg 5x. -
Hogyne lenne már összekapcsolva... az totál káosz lenne ha mindegyik azt csinálná amit akar amikor akar.
Ezek össze vannak szinkronizálva/kapcsolva. Gondolj bele mi lenne ha míg egy kép megjelenik addig az AI vagy a hang két vagy három lépéssel továbbmenne... akkor ugrások lennének meg összevisszaság hogy na.Amire te gondolsz az max az lehet hogyha egyszer megvan egy adat amit kiadunk ezeknek akkor azok azt megjelenítik (belső ciklusuk szerint) addig amíg nem adsz nekik új adatot. Na de mi most az új adatok előállításáról beszélünk és azok kirajzolásáról (a játék belső ciklusa, nem a GPU/driveré).
Kicsit olyan mint a játék FPS vs monitor frissítési frekvencia viszonya. egyik fix 60 vagy 120, 144 akármi... a másik meg ettől egy független dolog, de valahol össze szinkronizálódik, vagy így vagy úgy. Ettől a szinkrontól függ mit látsz és mennyire folyamatos.
-
-
#85552128
törölt tag
A DX11-re nem az van mondva, hogy "limitál", hanem gyakorlatilag úton útfélen fikázva van. Ha kijön egy szarul optimalizált játék azért vagy a DX11 vagy a draw callok vagy az nVidia lesz a hibás
Miközben azt sem lehet mondani, hogy ezen játék XO/PS4 portja a low-level elérést használná az adott platformon...
De a Halo 3-hoz visszatérve, ha 9 illetve 6 évvel ezelőtt ezek jó API-k voltak akkor miért nem tudták rá kiadni a 8 éves játékot ? Megválaszolom: mert amúgy sem akarták...A Halo 2 Vista húzócímnek jött aztán kiderült, hogy elég hozzá az XP is...
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5926 üzenetére
Azóta csúnyán eltelt 7 év. 7 éve jó volt, ma semennyire nem az. Valószínűleg 7 év múlva a DX12-re is azt mondjuk, hogy limitál, és jön a következő lépcső. Biztosan megmondom most, hogy a DX12 sem tart örökké. De az elkövetkező fél évtizedre jó lesz. Addig pedig van idő újat fejleszteni.
-
#85552128
törölt tag
"Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni."
Cikk pont tőled:
A reformok kora
Miről is szól a DirectX 10? Melyik gyártó implementálta jobban? Most kiderül..."A D3D10 legfontosabb fejlesztési szempontja, hogy az alapoktól újraépítették a rendszert megfeleltetve azt a kor követelményeinek."
"Teljesítmény növeléséhez az elsődleges szempont az API késleltetések időigényének jelentős csökkentése. Ennek megfelelően több kritikus ponton is átdolgozták a rendszert ezáltal a CPU használat nagymértékben csökkent."
Szóval az utóbbi évtized "reformjai" után én inkább hátradőlök és kivárom mi teljesül belőle...
A DX10 is "előrelépés" volt meg a DX11 is, mire megjelent teljesen más kép alakult ki róla, most meg egyenesen minden része szar. -
Abu85
HÁZIGAZDA
Nem is kell, hogy összekapcsolva legyenek, bár szinkronizáció azért van. De elég, ha egy rosszul kialakított API és a kernel driver nem engedi a programszálakat hozzáférni az amúgy szabad erőforrásokhoz.
Ez tudom, hogy nagyon mellbevágó dolog, hogy a PC ennyire pazarló platform lett, de ez van. Viszont nem véletlenül alakult úgy, hogy két év alatt egy komplett reformot végigvittek az érintettek a teljes rendszeren.Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni.
-
Loha
veterán
válasz
FollowTheORI #5923 üzenetére
A mai modern játékmotorok esetében a fizika, AI, hálózat, hang stb. nincsenek szorosan összekötve a képkockák számával vagy megjelenítésével, tehát ezeknek a számításoknak nem kell várniuk arra, hogy a képkocka megjelenjen, képkockáktól függetlenül a háttérben futnak a processzoron.
-
Nem ireleváns a videó, mert amiről te beszélsz az a kék kocka.
Mondhatnám úgy is hogy egy kép kiszámolására rendelkezésre álló időből (frame time) csak a kéket tudod fizikára és egyéb számításokra használni, majd amit kiszámolsz átadod a drivernek/GPU-nak, ami a piros és utána az végzi a dolgát amíg kikerül a képernyőre a végeredmény. Közben nem tudsz mit számolni (mert adott képkockára nézve már nincs mit) és amíg a driver nem végez nem is tudsz új feladatot adni az egésznek, leköti az időt.Van a Nitrous motor, ebben a fizika az AI stb stb. Kiszámolja amit kell, majd jön a driver, piros, ami leköti addig a procit míg egy képkockát kitesz a képernyőre a GPU.
Majd kezdődik az egész elölről.
Úgy képzel el hogy balról jobbra haladva ez egy képkocka kiszámolásának feladata a megjelenítéséig. Majd jön a következő új adatokkal. Tehát alatta felette mellette nincs semmi. Nincs szabad kapaciás meg semmi, mert az egész sáv maga az összkapacitás (összes CPU mag egyben).Az a különbség a Mantle esetében hogy a driver (piros rész) megszűnik. Van ugyanúgy a kék, ami maga a játék motor egésze, majd a mantle (a sárga) ami kiteszi a képernyőre és utána pamm ott a szabad processzoridő a kövekező kép kiszámolásáig hátralévő időből szabad.
Magyarán lehetne az hogy az egész zöld meg kék mostantól az AI, a fizika a játék többi része, majd a végén egy kis időre a sárga ott a végén kiteszi a képernyőre. És jöhet a következő képkocka feladata.
Vagyis sokkal több időd van (egy képkockára vetítve) komplexebb fizikai és AI számításokat elvégezni (kék rész nagyobb lehet), mert a megjelenítésnek nem kell annyi processzoridő (egy képkocára vetítve megintcsak).Érted?
-
Abu85
HÁZIGAZDA
-
Loha
veterán
Továbbra is teljesen irreleváns a videó, mert a DX11 limitációiról beszélnek, amik teljesen nyilvánvalóan nem érintik a DX11-re nem támaszkodó Middleware-eket mint pl. a Havok.
Attól, hogy nincs kernel driver még a feladatokat el kell végezni.
Akkor jó, hogy végre egyet értünk, ezt mondtam én is, ez van az MS ábráján is, és igen a user mód driver fogja ezeket elvégezni. -
Abu85
HÁZIGAZDA
Szándékosan belinkeltem azt a részt, ahol erről beszél.
Ez egyszerű. Attól, hogy nincs kernel driver még a feladatokat el kell végezni. Az alkalmazásnak explicit elérése van a GPU felé, de ez csak azt jelenti, hogy meghatározhatják, hogy mit csináljon a hardver, de a parancskiadáshoz már szükséges egy driver, ami például lefordítja a szoftver queue-t a hardver nyelvére, stb. Ez a user driverben fog látszódni, még akkor is, ha az alkalmazásban van rá a kód.
-
Loha
veterán
Azért irreleváns, mert az tudjuk hogy a DX11 miért nem tudja kihasználni a mai modern CPU-kat, de arról egy kukkot nem szólnak, hogy egy DX11-től független fizikai motor min pl. a Havok, miért ne tudná a DX11 által parlagon hagyott CPU időt kihasználni.
Azt magyarázd el, hogy miért igényel több processzoridőt az MS ábrája szerint a DX12-es user mód driver, ha nem csinál többet a DX11-es user mód drivernél?
-
Abu85
HÁZIGAZDA
Miért lenne irreleváns? Az iparág két legjobb fejlesztője magyarázza, hogy mi a gond a DX11-gyel. Ők a GAB tagjai, pontosan tudják, hogy mi a helyzet. Azért ne őket hibáztasd, hogy azt mondják amit én, valószínűleg azért teszik, mert 15-25 éves tapasztalatuk birtokában képesek megállapítani, hogy mi a probléma a DX11-es modellekkel.
Mert a driver soros feldolgozásra kényszeríti a rendszert. Ez a nagy problémája a rendszernek. Hiába van ott még 7-9-11 szabad mag a soros feldolgozás miatt nem érhetők el.
Tökéletesen ábrázolták, te értelmezed rosszul. A kernel driver eltűnik, ahogy az MS is lerajzolta. Nem veszi át a feladatát a user mode driver. A program lesz, ami átveszi a munkát. A videóban erről is beszélnek.
-
Loha
veterán
Sajnos teljesen irreleváns a videó amit linkeltél, aztán meg mellébeszélsz...
Azt indokold meg, hogy pl. egy játék fizikai motorja miért ne tudná kihasználni a DX11-által fel nem használt processzoridőt.
Microsoft ábrája nem én találtam ki, nyugodtan magyarázd el, hogy mit ábrázoltak rajta rosszul.
-
Abu85
HÁZIGAZDA
[link] - ez segít megérteni, hogy miért nem hozzáférhető az a temérdek processzoridő.
Sajnos ezt nagyon rosszul érted. A user mode driver valójában csak allokációval foglalkozik. Eldönti, hogy a programnak 4 vagy 64 kB-os lapokat foglaljon le például, illetve végzi a valós idejű shader fordítást. Az ami régen a kernel driver feladata volt, mint a hazárdok kezelése vagy például a memóriamenedzsment teljesen átkerül a programba. A fejlesztő fogja ezt vezérelni. Ezért hívjuk ezeket explicit vagy low-level API-knak, mert a munkát a programozó határozza meg és nem egy driver. A fentebb linkelt videó erre is kitér.
-
bunygyi
tag
Sziasztok!
A kérdésem lényege nem az elévülés.
Most veszek egy Fiji AMD kártyát, 7 év múlva a frissítéseket
véve, be éri a 980ti Nvidiát?
Előre is bocsánat: gbors
Példának : A 780ti és a titan black a 290x ellenében jöttek, annak idején jobbak is voltak annál, ha nem csal az emlékezetem. Mostmeg egy nyíltan nv-s játékban rosszabbak 10%-al (gamegpu-s teszt) mint a sima 290.
Tudom hogy egyik sincs még piacon!
De a múltra vissza tekintve vagy figyelembe véve a ti tapasztalatotokat a játékok terén
és a VGA kártyák terén melyik néz ki hosszú idő intervallumot nézve stabilabbnak? -
Loha
veterán
Az a processzoridő ami nem hozzáférhető a DX11 számára (kihasználatlan), az nagyon jól hozzáférhető minden számára ami nem a DX11-en keresztül éri el a processzort, pl.: fizikai motor, hálózati kód, extra hang, AI stb.
Az ábrán az UM Driver a felhasználói módban futó VGA driver, a KM Driver pedig a kernel módban futó VGA driver, a csíkok hosszúsága a processzoridő.
Nagyon jól látszik, hogy a DX12-es UM Driver kb. ugyan annyi processzoridőt igényel, mint DX11-ben a KM Driver + UM Driver együtt, csak most már szépen több szálon képes elosztani a terhelést, így nem a CPU egyszálas teljesítménye lesz limitáló tényező.
-
Abu85
HÁZIGAZDA
Miben? Mert a hozzáférhető processzoridőben sajnos az. Hiába vannak erős hardvereid, ha nem nyúlhatsz büntetlenül hozzájuk.
Az nem úgy működik. Valójában az a processzoridő hozzáférhetetlen, mert a meghajtó soros munkára kényszeríti a programot. Hiába van ott elméletben, ha nem férhetsz hozzá.
A user mode driver egy shader fordító, illetve egy alapvető vezérlőcsomag. Nem látja el a kernel driver feladatát. A fejlesztőnek kell megírnia azt a programon belül. Nyilván ez is hozzájárul ahhoz, hogy nő a processzor kihasználásának hatékonysága, mert eltűnik minden olyan rendszer, amit nem profilozhatsz. Ma ha valami nem működik, nem tudnak a fejlesztők beleírni a driverbe. Ez okoz sok gondot. A jövőben ez nem lesz gond, mert lényegében nem lesz driver, a saját kódod pedig tudod javítani.
-
Loha
veterán
Csak az a leggyengébb platformelem nem a PC.
DX11-es játékok esetén mivel a DX11 képtelen az összes processzoridőt felhasználni, ezért rengeteg kihasználatlan processzoridő áll rendelkezésre szinte mindennek ami nem grafika, pl.: fizika, AI, hang stb.A kernel driver pedig azért fog jórészt eltűnni, mert nem több szálasítható ellentétben a user mode driverrel, azért a user mode driver átvesz minden feladatot a kernel mode drivertől, ami ezen az ábrán nagyon jól látszik is.
-
Laja333
őstag
AMD elkezdett marketingelni.
Reméljük nem későn..
-
Abu85
HÁZIGAZDA
A multiplatform játékokat eleve úgy tervezik, hogy minden célplatformot figyelembe vesznek, és az egyes szempontok szerint a leggyengébb platformelemekre lőnek. A DX11-ben a PC-n van a legkevesebb befogható processzoridő, így a szimulációt ehhez igazítják.
Nem az NV a probléma, hanem a DirectX 11 és az agresszív kernel driver. Ezért kezeli a Microsoft ezt a problémát úgy a DirectX 12-ben, hogy eltünteti a rendszerből a kernel drivert.
Az NV-nek nyilván az a lényeg, hogy a grafika legyen jó, az nem számít, hogy a játékmenetben az előző generációs konzolcímek is lealázzák a PC-t. Abban viszont igaza van a Microsoftnak, hogy a grafika skálázható, míg az AI nem, tehát ha egy játékot nem tervezel úgy, hogy a PC-t is számításba veszed, akkor az probléma lesz a portolásnál. -
#85552128
törölt tag
Főleg, hogy az eredeti kérdés az volt, hogy az AMD miért nem szedi ráncba a drivereit a jobb
Erre megkaptuk azt, hogy az nV csúnya húzása miatt nem jönnek a superior AI-val (
) szerelt konzol-exkluzív címek mert nem jut mellé processzoridő.
Tehát mindegy mit hozunk fel egy igazság van: Az nVidia tehet róla!De még HA így is lenne: se Halo 3-at nem kaptunk sem jobb AMD drivert úgyhogy valahogy nem áll össze nekem ez az indoklás
-
Loha
veterán
Megint leírtad ugyan azt, hogy a fejlesztők lebutítják a fő bevételi forrásuknak számító Xbox Oneos és PS4-es a játékaikat, hogy az NV-s PC-k is elbírják a konzolokénál többször erősebb procival a szimulációt.
Tehát PC-re az NVIDIA miatt nem jött a Halo 3 és sok más Xbox exkluzív cím mint pl. a Forza, mert az NV-s driver szálak miatt nem maradt processzoridő a szimulációra, és még véletlenül sem azért mert ezek Xbox exkluzív címek és a PC nem Xbox.
-
mlinus
őstag
szóval, ha tényleg csak ezért nem jött ki a halo 3 meg egyéb exkluzívok pc-re - ezekszerint jön az új GoW, Forza, Halo, stb PC-re? Ha nem, akkor az nvidia a hibás?
-
válasz
bunygyi #5896 üzenetére
Én írtam nemrég ilyesmit, de nem ennyire specifikusan. Azt lehet mondani, hogy 1.5-2 év elteltével nagy átlagban a Radeonok javulnak 10-15%-ot a GeForce-okhoz képest. Hogy ennek az az oka, hogy az nVidia rögtön jó drivert ír, vagy az, hogy az AMD tovább foglalkozik az egyes generációk támogatásával, azt mindenki döntse el maga, mindenesetre ez a tendencia megfigyelhető az utóbbi néhány generációban (kivéve 580 / 6970, szegény Cayman igen hamar kiesett a pixisből).
(#5904) Abu85: Ó, az MS szerint, aki teljesen független a kérdésben, ugye?
Túl sokat nem akarom részletezni a dolgot, továbbra is baromságnak tartom azt az elképzelést, hogy az AI fejlődését a VGA-driverek erőforrás-igénye fogja vissza, de 1 év múlva ezt is meglátjuk. Írom a listát 2016. júniusra, hogy mi mindent kell meglátnunk -
Abu85
HÁZIGAZDA
Nem szerintem, hanem a Microsoft szerint.
Szerintem az egész rendszer úgy ahogy van rossz, ha a gyártók nem képesek betartani a szabályait. Gondolom ezért veszi el a kernel drivert a Microsoft a DirectX 12-ben, hogy a gyökerénél tűnjön el az alapprobléma. Ezzel az a gond is eltűnik, hogy a kevés valós processzoridő miatt nem lehet komoly AI-val konzolra tervezett játékokat PC-re portolni.Az is fontos, hogy az első dolog, ami fejlődni fog a DX12-vel az az AI. Megvannak az algoritmusok. Nem állt le a fejlesztés, csak nincs meg a számítási kapacitást hozzá PC-n, de nem a hardver, hanem a grafikus driverek miatt.
Kevin Floyer-Lea low-level leírásában is ott van ez: "Ability to increase the CPU budget for other systems like AI". -
Abu85
HÁZIGAZDA
Minden multiplatform játékot multiplatformnak terveznek. Veszik minden esetben a legszűkebb keresztmetszetet és arra terveznek. Ha a PC ebben benne van, akkor tudják, hogy a szimuláció korlátozott, mert kevesebb valóban felhasználható processzoridő áll rendelkezésre. Tehát ez már be van tervezve.
A Halo 3 a Microsoft címe, ahogy a Halo és a Halo 2 sem jött Sony gépekre, úgy a Halo 3 sem volt tervben. De Windows-ra ki akarták adni, mert az első két rész is jött PC-re, de nem volt meg az erőforrás hozzá PC-n. Az AI-t kellett volna butítani, de nem tették meg. Aztán mivel a processzoridő évről-évre csak csökkent, így lelőtték a projektet.
A Capcomtól tudom, hogy hasonlóan járt a Dragon's Dogma is. Talán egy remasterre van esély.
-
#85552128
törölt tag
válasz
stratova #5901 üzenetére
Nem tudom mit akarnak, valamennyit még biztos lehet javítani rajta, bár még mindig elfogadható teljesítményt ad:
NVIDIA on The Witcher 3 – New Driver Updates Will Address Kepler IssuesVagy az is lehet, hogy a játékhoz jön patch.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- LG 34GS95UE - 34" Ívelt OLED / QHD 2K / 240Hz & 0.03ms / 1300 Nits / NVIDIA G-Sync / AMD FreeSync
- ÁRGARANCIA! Épített KomPhone Ryzen 5 9600X 32/64GB RTX 5070 12GB GAMER PC termékbeszámítással
- AKCIÓ! AMD Ryzen 9 3900X 12 mag 24 szál processzor garanciával hibátlan működéssel
- 137 - Lenovo Legion Pro 7 (16IRX9H) - Intel Core i9-14900HX, RTX 4080
- Azonnali készpénzes GAMER / üzleti notebook felvásárlás személyesen / csomagküldéssel korrekt áron
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged