Nv oldalán most Maxwell a prioritás. GTX 980/970/960(750Ti/750).
Szaby59 Witcher 3-ban hogyan fogja Nv megnövelni Kepler ROP teljesítményét?
[ Szerkesztve ]
Nv oldalán most Maxwell a prioritás. GTX 980/970/960(750Ti/750).
Szaby59 Witcher 3-ban hogyan fogja Nv megnövelni Kepler ROP teljesítményét?
[ Szerkesztve ]
Nem tudom mit akarnak, valamennyit még biztos lehet javítani rajta, bár még mindig elfogadható teljesítményt ad:
NVIDIA on The Witcher 3 – New Driver Updates Will Address Kepler Issues
Vagy az is lehet, hogy a játékhoz jön patch.
[ Szerkesztve ]
Minden multiplatform játékot multiplatformnak terveznek. Veszik minden esetben a legszűkebb keresztmetszetet és arra terveznek. Ha a PC ebben benne van, akkor tudják, hogy a szimuláció korlátozott, mert kevesebb valóban felhasználható processzoridő áll rendelkezésre. Tehát ez már be van tervezve.
A Halo 3 a Microsoft címe, ahogy a Halo és a Halo 2 sem jött Sony gépekre, úgy a Halo 3 sem volt tervben. De Windows-ra ki akarták adni, mert az első két rész is jött PC-re, de nem volt meg az erőforrás hozzá PC-n. Az AI-t kellett volna butítani, de nem tették meg. Aztán mivel a processzoridő évről-évre csak csökkent, így lelőtték a projektet.
A Capcomtól tudom, hogy hasonlóan járt a Dragon's Dogma is. Talán egy remasterre van esély.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Nem szerintem, hanem a Microsoft szerint.
Szerintem az egész rendszer úgy ahogy van rossz, ha a gyártók nem képesek betartani a szabályait. Gondolom ezért veszi el a kernel drivert a Microsoft a DirectX 12-ben, hogy a gyökerénél tűnjön el az alapprobléma. Ezzel az a gond is eltűnik, hogy a kevés valós processzoridő miatt nem lehet komoly AI-val konzolra tervezett játékokat PC-re portolni.
Az is fontos, hogy az első dolog, ami fejlődni fog a DX12-vel az az AI. Megvannak az algoritmusok. Nem állt le a fejlesztés, csak nincs meg a számítási kapacitást hozzá PC-n, de nem a hardver, hanem a grafikus driverek miatt.
Kevin Floyer-Lea low-level leírásában is ott van ez: "Ability to increase the CPU budget for other systems like AI".
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Én írtam nemrég ilyesmit, de nem ennyire specifikusan. Azt lehet mondani, hogy 1.5-2 év elteltével nagy átlagban a Radeonok javulnak 10-15%-ot a GeForce-okhoz képest. Hogy ennek az az oka, hogy az nVidia rögtön jó drivert ír, vagy az, hogy az AMD tovább foglalkozik az egyes generációk támogatásával, azt mindenki döntse el maga, mindenesetre ez a tendencia megfigyelhető az utóbbi néhány generációban (kivéve 580 / 6970, szegény Cayman igen hamar kiesett a pixisből).
(#5904) Abu85: Ó, az MS szerint, aki teljesen független a kérdésben, ugye?
Túl sokat nem akarom részletezni a dolgot, továbbra is baromságnak tartom azt az elképzelést, hogy az AI fejlődését a VGA-driverek erőforrás-igénye fogja vissza, de 1 év múlva ezt is meglátjuk. Írom a listát 2016. júniusra, hogy mi mindent kell meglátnunk
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
szóval, ha tényleg csak ezért nem jött ki a halo 3 meg egyéb exkluzívok pc-re - ezekszerint jön az új GoW, Forza, Halo, stb PC-re? Ha nem, akkor az nvidia a hibás?
Igen.
Megint leírtad ugyan azt, hogy a fejlesztők lebutítják a fő bevételi forrásuknak számító Xbox Oneos és PS4-es a játékaikat, hogy az NV-s PC-k is elbírják a konzolokénál többször erősebb procival a szimulációt.
Tehát PC-re az NVIDIA miatt nem jött a Halo 3 és sok más Xbox exkluzív cím mint pl. a Forza, mert az NV-s driver szálak miatt nem maradt processzoridő a szimulációra, és még véletlenül sem azért mert ezek Xbox exkluzív címek és a PC nem Xbox.
Főleg, hogy az eredeti kérdés az volt, hogy az AMD miért nem szedi ráncba a drivereit a jobb
Erre megkaptuk azt, hogy az nV csúnya húzása miatt nem jönnek a superior AI-val ( ) szerelt konzol-exkluzív címek mert nem jut mellé processzoridő.
Tehát mindegy mit hozunk fel egy igazság van: Az nVidia tehet róla!
De még HA így is lenne: se Halo 3-at nem kaptunk sem jobb AMD drivert úgyhogy valahogy nem áll össze nekem ez az indoklás
[ Szerkesztve ]
A multiplatform játékokat eleve úgy tervezik, hogy minden célplatformot figyelembe vesznek, és az egyes szempontok szerint a leggyengébb platformelemekre lőnek. A DX11-ben a PC-n van a legkevesebb befogható processzoridő, így a szimulációt ehhez igazítják.
Nem az NV a probléma, hanem a DirectX 11 és az agresszív kernel driver. Ezért kezeli a Microsoft ezt a problémát úgy a DirectX 12-ben, hogy eltünteti a rendszerből a kernel drivert.
Az NV-nek nyilván az a lényeg, hogy a grafika legyen jó, az nem számít, hogy a játékmenetben az előző generációs konzolcímek is lealázzák a PC-t. Abban viszont igaza van a Microsoftnak, hogy a grafika skálázható, míg az AI nem, tehát ha egy játékot nem tervezel úgy, hogy a PC-t is számításba veszed, akkor az probléma lesz a portolásnál.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
AMD elkezdett marketingelni. Reméljük nem későn..
Csak az a leggyengébb platformelem nem a PC.
DX11-es játékok esetén mivel a DX11 képtelen az összes processzoridőt felhasználni, ezért rengeteg kihasználatlan processzoridő áll rendelkezésre szinte mindennek ami nem grafika, pl.: fizika, AI, hang stb.
A kernel driver pedig azért fog jórészt eltűnni, mert nem több szálasítható ellentétben a user mode driverrel, azért a user mode driver átvesz minden feladatot a kernel mode drivertől, ami ezen az ábrán nagyon jól látszik is.
Miben? Mert a hozzáférhető processzoridőben sajnos az. Hiába vannak erős hardvereid, ha nem nyúlhatsz büntetlenül hozzájuk.
Az nem úgy működik. Valójában az a processzoridő hozzáférhetetlen, mert a meghajtó soros munkára kényszeríti a programot. Hiába van ott elméletben, ha nem férhetsz hozzá.
A user mode driver egy shader fordító, illetve egy alapvető vezérlőcsomag. Nem látja el a kernel driver feladatát. A fejlesztőnek kell megírnia azt a programon belül. Nyilván ez is hozzájárul ahhoz, hogy nő a processzor kihasználásának hatékonysága, mert eltűnik minden olyan rendszer, amit nem profilozhatsz. Ma ha valami nem működik, nem tudnak a fejlesztők beleírni a driverbe. Ez okoz sok gondot. A jövőben ez nem lesz gond, mert lényegében nem lesz driver, a saját kódod pedig tudod javítani.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Az a processzoridő ami nem hozzáférhető a DX11 számára (kihasználatlan), az nagyon jól hozzáférhető minden számára ami nem a DX11-en keresztül éri el a processzort, pl.: fizikai motor, hálózati kód, extra hang, AI stb.
Az ábrán az UM Driver a felhasználói módban futó VGA driver, a KM Driver pedig a kernel módban futó VGA driver, a csíkok hosszúsága a processzoridő.
Nagyon jól látszik, hogy a DX12-es UM Driver kb. ugyan annyi processzoridőt igényel, mint DX11-ben a KM Driver + UM Driver együtt, csak most már szépen több szálon képes elosztani a terhelést, így nem a CPU egyszálas teljesítménye lesz limitáló tényező.
Sziasztok!
A kérdésem lényege nem az elévülés.
Most veszek egy Fiji AMD kártyát, 7 év múlva a frissítéseket
véve, be éri a 980ti Nvidiát?
Előre is bocsánat: gbors
Példának : A 780ti és a titan black a 290x ellenében jöttek, annak idején jobbak is voltak annál, ha nem csal az emlékezetem. Mostmeg egy nyíltan nv-s játékban rosszabbak 10%-al (gamegpu-s teszt) mint a sima 290.
Tudom hogy egyik sincs még piacon!
De a múltra vissza tekintve vagy figyelembe véve a ti tapasztalatotokat a játékok terén
és a VGA kártyák terén melyik néz ki hosszú idő intervallumot nézve stabilabbnak?
[link] - ez segít megérteni, hogy miért nem hozzáférhető az a temérdek processzoridő.
Sajnos ezt nagyon rosszul érted. A user mode driver valójában csak allokációval foglalkozik. Eldönti, hogy a programnak 4 vagy 64 kB-os lapokat foglaljon le például, illetve végzi a valós idejű shader fordítást. Az ami régen a kernel driver feladata volt, mint a hazárdok kezelése vagy például a memóriamenedzsment teljesen átkerül a programba. A fejlesztő fogja ezt vezérelni. Ezért hívjuk ezeket explicit vagy low-level API-knak, mert a munkát a programozó határozza meg és nem egy driver. A fentebb linkelt videó erre is kitér.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Sajnos teljesen irreleváns a videó amit linkeltél, aztán meg mellébeszélsz...
Azt indokold meg, hogy pl. egy játék fizikai motorja miért ne tudná kihasználni a DX11-által fel nem használt processzoridőt.
Microsoft ábrája nem én találtam ki, nyugodtan magyarázd el, hogy mit ábrázoltak rajta rosszul.
Miért lenne irreleváns? Az iparág két legjobb fejlesztője magyarázza, hogy mi a gond a DX11-gyel. Ők a GAB tagjai, pontosan tudják, hogy mi a helyzet. Azért ne őket hibáztasd, hogy azt mondják amit én, valószínűleg azért teszik, mert 15-25 éves tapasztalatuk birtokában képesek megállapítani, hogy mi a probléma a DX11-es modellekkel.
Mert a driver soros feldolgozásra kényszeríti a rendszert. Ez a nagy problémája a rendszernek. Hiába van ott még 7-9-11 szabad mag a soros feldolgozás miatt nem érhetők el.
Tökéletesen ábrázolták, te értelmezed rosszul. A kernel driver eltűnik, ahogy az MS is lerajzolta. Nem veszi át a feladatát a user mode driver. A program lesz, ami átveszi a munkát. A videóban erről is beszélnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Azért irreleváns, mert az tudjuk hogy a DX11 miért nem tudja kihasználni a mai modern CPU-kat, de arról egy kukkot nem szólnak, hogy egy DX11-től független fizikai motor min pl. a Havok, miért ne tudná a DX11 által parlagon hagyott CPU időt kihasználni.
Azt magyarázd el, hogy miért igényel több processzoridőt az MS ábrája szerint a DX12-es user mód driver, ha nem csinál többet a DX11-es user mód drivernél?
Szándékosan belinkeltem azt a részt, ahol erről beszél.
Ez egyszerű. Attól, hogy nincs kernel driver még a feladatokat el kell végezni. Az alkalmazásnak explicit elérése van a GPU felé, de ez csak azt jelenti, hogy meghatározhatják, hogy mit csináljon a hardver, de a parancskiadáshoz már szükséges egy driver, ami például lefordítja a szoftver queue-t a hardver nyelvére, stb. Ez a user driverben fog látszódni, még akkor is, ha az alkalmazásban van rá a kód.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Továbbra is teljesen irreleváns a videó, mert a DX11 limitációiról beszélnek, amik teljesen nyilvánvalóan nem érintik a DX11-re nem támaszkodó Middleware-eket mint pl. a Havok.
Attól, hogy nincs kernel driver még a feladatokat el kell végezni.
Akkor jó, hogy végre egyet értünk, ezt mondtam én is, ez van az MS ábráján is, és igen a user mód driver fogja ezeket elvégezni.
Ezért lenne jó, ha végignéznéd a videót és megértenéd, hogy miért érinti. Miért baj, ha soros feldolgozásra kényszeríti a meghajtó a teljes rendszert.
Nem az alkalmazás fogja ezeket elvégezni. A user mode driver csak a hardver felé irányuló fordításokat csinálja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Nem ireleváns a videó, mert amiről te beszélsz az a kék kocka.
Mondhatnám úgy is hogy egy kép kiszámolására rendelkezésre álló időből (frame time) csak a kéket tudod fizikára és egyéb számításokra használni, majd amit kiszámolsz átadod a drivernek/GPU-nak, ami a piros és utána az végzi a dolgát amíg kikerül a képernyőre a végeredmény. Közben nem tudsz mit számolni (mert adott képkockára nézve már nincs mit) és amíg a driver nem végez nem is tudsz új feladatot adni az egésznek, leköti az időt.
Van a Nitrous motor, ebben a fizika az AI stb stb. Kiszámolja amit kell, majd jön a driver, piros, ami leköti addig a procit míg egy képkockát kitesz a képernyőre a GPU.
Majd kezdődik az egész elölről.
Úgy képzel el hogy balról jobbra haladva ez egy képkocka kiszámolásának feladata a megjelenítéséig. Majd jön a következő új adatokkal. Tehát alatta felette mellette nincs semmi. Nincs szabad kapaciás meg semmi, mert az egész sáv maga az összkapacitás (összes CPU mag egyben).
Az a különbség a Mantle esetében hogy a driver (piros rész) megszűnik. Van ugyanúgy a kék, ami maga a játék motor egésze, majd a mantle (a sárga) ami kiteszi a képernyőre és utána pamm ott a szabad processzoridő a kövekező kép kiszámolásáig hátralévő időből szabad.
Magyarán lehetne az hogy az egész zöld meg kék mostantól az AI, a fizika a játék többi része, majd a végén egy kis időre a sárga ott a végén kiteszi a képernyőre. És jöhet a következő képkocka feladata.
Vagyis sokkal több időd van (egy képkockára vetítve) komplexebb fizikai és AI számításokat elvégezni (kék rész nagyobb lehet), mert a megjelenítésnek nem kell annyi processzoridő (egy képkocára vetítve megintcsak).
Érted?
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
A mai modern játékmotorok esetében a fizika, AI, hálózat, hang stb. nincsenek szorosan összekötve a képkockák számával vagy megjelenítésével, tehát ezeknek a számításoknak nem kell várniuk arra, hogy a képkocka megjelenjen, képkockáktól függetlenül a háttérben futnak a processzoron.
Nem is kell, hogy összekapcsolva legyenek, bár szinkronizáció azért van. De elég, ha egy rosszul kialakított API és a kernel driver nem engedi a programszálakat hozzáférni az amúgy szabad erőforrásokhoz.
Ez tudom, hogy nagyon mellbevágó dolog, hogy a PC ennyire pazarló platform lett, de ez van. Viszont nem véletlenül alakult úgy, hogy két év alatt egy komplett reformot végigvittek az érintettek a teljes rendszeren.
Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
"Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni."
Cikk pont tőled:
A reformok kora
Miről is szól a DirectX 10? Melyik gyártó implementálta jobban? Most kiderül...
"A D3D10 legfontosabb fejlesztési szempontja, hogy az alapoktól újraépítették a rendszert megfeleltetve azt a kor követelményeinek."
"Teljesítmény növeléséhez az elsődleges szempont az API késleltetések időigényének jelentős csökkentése. Ennek megfelelően több kritikus ponton is átdolgozták a rendszert ezáltal a CPU használat nagymértékben csökkent."
Szóval az utóbbi évtized "reformjai" után én inkább hátradőlök és kivárom mi teljesül belőle...
A DX10 is "előrelépés" volt meg a DX11 is, mire megjelent teljesen más kép alakult ki róla, most meg egyenesen minden része szar.
[ Szerkesztve ]
Azóta csúnyán eltelt 7 év. 7 éve jó volt, ma semennyire nem az. Valószínűleg 7 év múlva a DX12-re is azt mondjuk, hogy limitál, és jön a következő lépcső. Biztosan megmondom most, hogy a DX12 sem tart örökké. De az elkövetkező fél évtizedre jó lesz. Addig pedig van idő újat fejleszteni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
A DX11-re nem az van mondva, hogy "limitál", hanem gyakorlatilag úton útfélen fikázva van. Ha kijön egy szarul optimalizált játék azért vagy a DX11 vagy a draw callok vagy az nVidia lesz a hibás Miközben azt sem lehet mondani, hogy ezen játék XO/PS4 portja a low-level elérést használná az adott platformon...
De a Halo 3-hoz visszatérve, ha 9 illetve 6 évvel ezelőtt ezek jó API-k voltak akkor miért nem tudták rá kiadni a 8 éves játékot ? Megválaszolom: mert amúgy sem akarták...
A Halo 2 Vista húzócímnek jött aztán kiderült, hogy elég hozzá az XP is...
[ Szerkesztve ]
Egész mások voltak a grafikai igények, komplexitás és a problémakör is mindegyik változatnál.
Ez így nem hasonlítható össze a maival, és abban a korban igaz ettől még.
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Hogyne lenne már összekapcsolva... az totál káosz lenne ha mindegyik azt csinálná amit akar amikor akar.
Ezek össze vannak szinkronizálva/kapcsolva. Gondolj bele mi lenne ha míg egy kép megjelenik addig az AI vagy a hang két vagy három lépéssel továbbmenne... akkor ugrások lennének meg összevisszaság hogy na.
Amire te gondolsz az max az lehet hogyha egyszer megvan egy adat amit kiadunk ezeknek akkor azok azt megjelenítik (belső ciklusuk szerint) addig amíg nem adsz nekik új adatot. Na de mi most az új adatok előállításáról beszélünk és azok kirajzolásáról (a játék belső ciklusa, nem a GPU/driveré).
Kicsit olyan mint a játék FPS vs monitor frissítési frekvencia viszonya. egyik fix 60 vagy 120, 144 akármi... a másik meg ettől egy független dolog, de valahol össze szinkronizálódik, vagy így vagy úgy. Ettől a szinkrontól függ mit látsz és mennyire folyamatos.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Szinkronizálva vannak, csak nem a képkockák számához, hanem az időhöz.
Ha a fejlesztő azt állította be a fizikai motorban, hogy másodpercenként 600x modellezze le a fizikát, akkor 30 és 120 fps esetén is 600 számítást fog végezni a motor, csak egyik esetben két képkocka között 20x számol fizikát a motor, a másik esetben meg 5x.
De mi most itt egy frame alatt akarunk minél több dolgot kihozni, azért vagyunk a "framehez kötve".
És ha ebbe az időbe nem férsz bele akkor nem tudod megjeleníteni, vagy túl lassú lesz.
Nem az az érdekes képkockák között vagy mellett mit csinálunk, hanem 1 képkockához/alatt mennyire komplex dolgot oldunk meg. És itt van CPU limit (meg soros végrehajtás).
Teljesen mindegy a GPU meg a CPU önmagában mennyire tudna gyors lenni és hány dolgot egyszerre végezni, ha az API belimitálja szűk keresztmetszetbe az egészet.
Itt mi minél több effektet, egységet, részletességet akarunk megoldani egy frame alatt (a felső határon vagyunk ahol az API/CPU limitál).
(És ez nem a minél nagyobb FPS a cél, hanem adott FPS alatt minnél több munka elvégzése.)
Na de mindegy már eleget offoltunk... én részemről nem folytatom.
Ezek szerint nem tudom jól elmondani hogy megértsd amit akarok/unk mondani neked.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
És AMD oldalon még a mostani limitácókkal is kevesebbet sikerül kihozni, mert nem támogatnak mindent:
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Nagyon jól értem, hogy még "framehez kötve" gondolkodtok, de a mai modern játékokban már nagyon sok minden nincs képkockákhoz kötve (de ezt már írtam), egyik nyilvánvaló példa a hang, mert azt ugye eleve nem is kell megjeleníteni , aztán autós játékokban pl. a gumi kopás/melegedés/tapadás szimulációját, vagy a veled együtt köröző AI versenyzők "gondolatait" sem kell megjeleníteni, csak azok eredményét. Aztán az egész fizikai motornak sem kell a képkockaszámmal azonos frekvencián ketyegnie, nem is ketyeg (de ezt is már írtam).
Folytatás innen.
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra, hanem az, hogy kinek (melyik vásárlónak) érdemes 28nm-en gyártott GPU-s kártyát venni. Aki 8-9 hónapnál hosszabb időre tervez, annak szerintem hülyeség. Emlékszel, hogy anno a 7970 és a 680 megjelenésekor hirtelen mennyire ósdinak tűnt a 6970 és az 580? Most is ez fog történni, csak nagyobban, mert két lépcsőt ugrik a gyártástechnológia, és új memóriatech jön. Egyedül a Fiji lesz valamennyire korszerűnek mondható, a jó ég tudja, mekkora fogyasztásával.
Ha pedig < 9 hónapra tervezel, akkor szerinted mennyi DX12-es játékkal fogsz játszani?
Ezért mondom, hogy tök irreleváns ebben a generációban a DX12 az AAA piacon. Ha meg valami csoda folytán kis DX12-es játékok jönnének sokan, azok simán el fognak szaladgálni a jelen kártyáinkon is, attól végképp felesleges függővé tenni, melyik gyártót választjuk, ha egyáltalán veszünk valamit.
Egyébként te most nyugodt szívvel tudnád javasolni mondjuk a 980Ti megvételét?
Itt is az a kérdés, hogy mennyi időre. Fél évre akár igen - de nem most, hanem amikor már kijöttek a Radeonok is, és látszik, hol áll a csípési sorrendben.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Szia!
Ennek fényébe kivárom a 16nm vga-kat.
Szeretnék egy átmeneti VGA kártyát!
Kis veszteséggel átlag játék felhasználásra!
Most a 980ti vagy a fiji volt tervbe véve, de így
kivárom az év végét!
Szóval mit tudnál ajánlani? kis veszteséggel!
Nincs most semmilyen kártyám és wot-ra kell csak!
Wot-ra minek 980ti?
May the Force be with you!
Az igen.
Mert meg nem tudja, de szerintem Armored Warfare-zni akar, es oda mar kell egy picit komolyabb vas
[ Szerkesztve ]
Peace is a lie, there is only passion. Through passion, I gain strength. Through strength, I gain power. Through power, I gain victory. Through victory, my chains are broken. The Force shall free me.
Iiiigen!
Mivel most vettem gépet és még hiányos,
és nagyon várom a RAM-ot 3 hete, és minden
nap csak csodálom.
Szóval átmeneti kártya ajánlást kérnék.
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra
Pedig szerintem ez lényeges kérdés, mert nem mindegy, hogy 1 év múlva mire mész azzal a kártyával amiért most vagyonokat adtál... idáig bátran lehetett vásárolni, mert szinte semmi lényeges változás nem történt már jó ideje... én is elvoltam 2 évig a 780-l és korrekt árcsökkenés mellett (2 év alatt kb érték feleződés) el tudtam adni. Ha az új API-k alatt a Hawaii jobban szerepel mint a Maxwell, akkor kinéz a utóbbinak egy az átlagosnál nagyobb értékcsökkenés, aminek nem hiszem, hogy a tulajok örülni fognak... főleg a 980 felett.
Ez szerintem független attól, hogy nagy lépés lesz a gyártástechnológiában... ahogy jön majd a W10 és a DX12 tesztek, átrendeződhet az erősorrend, és ezzel az árak is, de itt is sok múlik majd azon, mennyi és milyen játék érkezik az új APIk-ra. Persze mint írtam ez mind feltételezés, bőven benne van a forgatókönyvben az is amit te írsz.
Meglátjuk... mindenesetre érdekes lesz mondjuk egy év múlva elővenni, hogy ki mit ötletelt!
[ Szerkesztve ]
www.smart-bus.hu
Továbbra is - szerintem hülyeséget csinál, aki most 9 hónapnál hosszabb időre drága kártyát vesz, akár AMD-t, akár nVidiát. Innentől kezdve nekem nem releváns kérdés, hogy mire mész 1 év múlva vele.
A DX12 miatt lehet, hogy váratlan értékcsökkenés lesz, az új generációk miatt meg biztos - szerintem elég komoly.
(#5936) bunygyi: Nem ez a megfelelő topic erre, ill. az elvárásaidat sem ismerjük. Nézz be ide.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Msi R9 280x.... 1920x1200,full graf, 70fps a minimum..
Elég bölcs vagyok, hogy tudjam, hogy nem tudok szart se. :)
Akkor ott valami nem full, mert 1 szál támogatású a játék így mindenképp cpu limit van. 40fps-re is leesik a játék, brutál konfigokon is.
[ Szerkesztve ]
Na ja csak a bukás szinte borítékolt.Persze lehet itt piacot/euro árfolyamot nézni,eladni a generáció váltás előtt és alaplapi ratyi karival ellenni ideiglenesen,de kinek van erre ideje.Én Majd 1.5-éve vagyok Hawai tulaj,bukok rajta egy valag pénzt,de ez van,bele volt kalkulálva.Ha a vadi új kocsit megveszed és kijössz a szalonból az -xxx ezer ft .
Spanom is eladta a 290-et kis bukóval,majd a 970 kis bukóval,majd most a 980-at is eladja kis bukóval (már ott tart lassan mint amit én egyszerre buktam) és most várja a csodát 2 hónapig az alapalapi karival amíg én vígan játszok.
Erre mondják,hogy ilyen szakma a popszakma.
Az a baj hogy sokan bukásnak fogják fel.
Ha elmész bulizni vagy iszol egyet a cimbikkel azt is bukásnak fogod fel?
A játékban is ugyan olyan örömöd leled mint a többi szórakozásban.Ezt sem adják ingyen.
Aki az elemezgeti mekkora bukó van az folyamatosan eladás kényszerben van.
Tévedni emberi dolog, de állati kellemetlen.
Mondjuk azt nem értem miért váltott előbb 970, majd utána 980-ra. Ennyi "átmenettel" persze, hogy bukik rajta mert mindig olcsóbban kell adnia...
Még a 290 -> 970 váltást is meggondoltam volna.
De amúgy ha már itt tartunk az egész "bukok" rajta dolgot nem tartom lényegesnek, használod 1-2 évig hogy bukhatnál már rajta ?
[ Szerkesztve ]
Pont ez a lényeg - akik 9-18 hónapja breuháztak egy akkor 550 USD-s kártyára, azok időarányosan sokkal kevesebbet fognak bukni, mint akik most teszik. Ezért csak annak érdemes most a topból válogatni, aki azt mondja, hogy jó lesz, amíg jön a next gen, aztán leszarom, mennyi bukó lesz rajta. Ugyanis ennek a körnek a 90%-a úgyis cserélni fog.
(#5947) imi123: Nem csak a végletek léteznek. A barátokkal ivás költségei részben sem visszanyerhetőek, viszont a hardvereké igen. Tipikus példa, hogy most 980-at nem igazán érdemes venni, mert jó esély van rá, hogy 2-3 hét múlva olcsóbb lesz. Szóval igen, nem érdemes túlaggódni a bukót, de néha azért nem árt megállni és átgondolni, mit is vesz az ember és mennyiért.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.