- Luck Dragon: Asszociációs játék. :)
- gban: Ingyen kellene, de tegnapra
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- sh4d0w: Netflix? Ugyan, VW előfizetés!
- bambano: Bambanő háza tája
- sziku69: Fűzzük össze a szavakat :)
- WhrlpoolMind: Búcsú a HD3870-től
- LordAthis: Ismét egy "Idióta" A.I. Projekt, hogy meglovagolja az aktuális trendeket...
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
Új hozzászólás Aktív témák
-
Loha
veterán
válasz
Petykemano #24211 üzenetére
A Bulldozer egyszálas teljesítményét nem csak a sok mag miatt áldozták be, hanem a magas órajel elérése miatt is, ugyan úgy mint az Intel a P4 esetében, megnyújtották a CPU futószalagok hosszát 12 -ről 20 fölé.
Ez annak tükrében, hogy 2006 körül álltak neki a tervezésnek, és az orruk előtt bukott el a 2004-ben megjelent Hyper-threadinges P4 Prescott és váltotta le a Core 2, elég hülye döntésnek tűnik. -
Loha
veterán
A DX9 a WinXP-vel jött 2001-ben és az első nagyobb játék ami már nem támogatta a BF3 volt 2011-ben, de pl. 2012-ben megejelent Far Cry 3 is DX9-re készült elsősorban, és csak másodlagosan volt benne a DX11-es támogatás.
Tehát kb. 10 évig volt a fő PC-s API a DX9, köszönhetően az Xbox 360-nak és az WinXP-nek is. DX10 említésre sem érdemes a Vista bukása miatt.A DX11 2009-ben jött a Win7 -el, 2012-13 -ban még rengeteg tartalék volt az API-ban, amit csak az új konzolgeneráció megjelenése után (2013) kezdték el kiaknázni, mert addig a konzolok DX9-es tudásszinten voltak, tehát egyáltalán nem volt időszerű 2012-13 környékén kihozni a DX11 utódját.
A DX11 még 2-3 évig simán marad mint fő PC-s API, ami mily meglepetés, pont ugyan úgy kb. 10 éves pályafutást jelent mint a DX9 esetében.
Mire a DX11-et mint fő PC-s API-t leváltja az utódja (ami nem a most ismert DX12 lesz, hanem egy újabb DX verzió, új shader modellel), addigra az AMD teljesen lecseréli a GCN-t. -
HSM
félisten
válasz
schawo #24295 üzenetére
Ezt nem tudod "működésre bírni", mert a technológiából ered, hogy a mag dönt a sorrendről az optimális feldolgozhatóság szempontjából. Praktikusan az átbocsájtóképesség javul, a garantált válaszidő viszont romlik.
Viszont igen, ennyiből volt jobb megoldás, hogy kikapcsolható a mai napig, és nem kell beáldozni az egyszálú teljesítményt érte.Vélhetőleg az AMD is ezért tér át erre a megvalósításra a következő processzorgenerációjuknál.
-
HSM
félisten
válasz
#85552128 #24293 üzenetére
A HT-nek is megvannak a maga nyűgjei. Nekem sokkal szimpatikusabb volt a Bulldozer-féle koncepció. Ugyanis a HT-nál a prioritás megy a levesbe a két közös szál között, ami elég nagy baj tud ám lenni, ilyen nyűg az FX-eken tudtommal nincs.
Nekem 3 évig volt kikapcsolva az i7 920-asomon ezen gond miatt. De néha még ma is lekapcsolom az X5660-on emiatt. -
#85552128
törölt tag
Nem kellett volna, de így lett, mert a két célplatformhoz képest a PC még úgy is elhúzott.
"Igen, sajnos a programok nem mentek el erősen többszálú irányba, így nincs más hátra, mint előre"
Több program van most ami profitál a 4+ magból mint 2011-ben ami a 2+ ből mégis akkor kiadtak egy 8 magos procit ami szálanként nudli volt mert azt hitték, hogy ... ? Inkább csak rájöttek, hogy az egyszálas teljesítmény ugyanolyan fontos, sőt...
"Versenyképes" az intel akkori megoldása is, de azzal még csak most kezdesz kompromisszumokat kötni, ezzel meg mindig kellett. -
HSM
félisten
válasz
#85552128 #24290 üzenetére
A konzolgeneráció egy dolog, de attól még nem keleltt volna PC-n is bebetonozni a dolgokat.
Ami az FX-et illeti, bár vicces a faildozer kifejezés, de egyáltalán nem volt rossz proci, többszálon a mai napig versenyképes, hát még akkor, amikor megjelent...
Igen, sajnos a programok nem mentek el erősen többszálú irányba, így nincs más hátra, mint előre.Marad az Intel féle megoldás.
(#24291) schawo: Gondolom, ez még a gyártás kiszervezésének a hozadéka...
-
válasz
Zeratul #24262 üzenetére
Valami eszetelenül balfasz szerződésekkel sikerült magukat megint mínuszba rángatni. Most azért kellett sokszámillió dolláros (a teljes CPU/GPU árbevétel, 40%-át kitevő) kötbért dellázni a GF-nek, mert nem használták ki a technikailag gyengébb infrastruktúrájukat, és helyette a TSMC-től rendeltek. Egyszerűen sík idióták vezetik az AMD-t, ha ilyen szerződés egyáltalán létrejöhetett.
Naná, hogy nincs pénzük semmire.
-
#85552128
törölt tag
Olyan szépen beállítod az AMD-t a ma született báránynak és lassan mindent az Intel/nV párosra próbálsz hárítani (még a faildozert is), hogy öröm nézni, ehhez tényleg elkötelezettség kell...
Az "API fejlődés" ott csúszott el amikor 2013 végéig kihúzták az előző konzolgenerációt és még egy évre rá 2014-ben is minden nagyobb címnek a majd 10 éves vasakat is támogatnia kellett - ezt pedig a leendő konzolgyártó AMD-nek látnia kellett jóval hamarabb mint nekünk. Minek kellett volna új API amikor a fő platformokban még mindig dx9 tudásszintű HW volt ? Kijött az új konzol, 1,5 év után meg is történt a fejlődés API téren.
Tudhatták, hogy nemhogy 2011-re de még 2 évre rá sem lesz semmilyen API reform - még a saját apijukat is csak 2014-re tudták összerakni egy szabványos API-t meg ugye jóval lassabb ideig tart véglegesíteni ahogy az már párszor el is hangzott. A GCN védését még meg is tudom érteni, az nem szenvedett annyira DX11 alatt sem, de a Bulldozer az évtized vicce. Nem véletlenül térnek vissza az Inteléhez hasonló konstrukcióra most amikor már API is van ami jobban skálázódik. -
-
#16729600
törölt tag
válasz
Ren Hoek #24284 üzenetére
Nekem ez nagyon tetszett, néhány helyen " ...sokszor beszoptam már, sokáig védtem, hittem benne, olvastam párthű kiskatonaként szorgosan a fórumot, tech cikkeket stb... a sokszoros csalódás beleég az emberbe. Újra egységsugarú "hülye" leszek, aki beteszi a gépbe a motyót és játszik." már már Arthur Miller : Az ügynök halála mélységű, jót nevettem rajta, ( jó értelemben ) .
Teljesen igazad van, csak jót tesz, hogy felébredtél végre a szugerációs transzállapotból.
-
Ren Hoek
veterán
Igen, amikor kis halként két fronton próbált háborúzni... Rég ki kellett volna szervezni, (eladni MS-nek) a CPU részleget. Intel így is kb bármilyen árat szabhat. Talán az FX nélkül is meglettünk volna. Ezután teljes erőből csak az orosz frontra koncentrálni a Radeon részleggel...
Kíváncsi volnék a számokra, hogy a CPU részleg vajon mennyi profitot vitt el a GPU-tól... ami még jól ment.
-
HSM
félisten
válasz
Solymi81 #24283 üzenetére
Igen... Itt azért a különböző méretű pénztárcákat sem hagynám figyelmen kívül... Csak a vak nem látja, hogy sajnos az AMD útiterve itt egyszerre ütközött a kék és a zöld óriáséval is, ugye CPU+GPU is....
Úgyhogy maradt a B-terv, valahogy mégis kikényszeríteni a változást, de sajnos ez nagyon elhúzta az időt. -
Ren Hoek
veterán
válasz
Zeratul #24246 üzenetére
Akkor ez magyarázd meg Ren Hoek kollégának is aki azon siránkozik hogy az R9 390/Xről nincs mire váltani.
Egy szóval nem mondtam ilyet... csak azt, hogy nincs verseny. Nincs konkurencia, sem árverseny. Ha lenne Vega nyilván megfontolnám, hogy a fejlettebbnek vélt technológiát vegyem ugyan azon az áron (Egyébként egyre erősebben kétlem, hogy 120-130K körül kapunk valamit mostanában GCN formájában) de probléma letudva, pár héten belül rendelek egy 1070-et. Konkrétan az évek óta zajló PH!-s mesekampány dobott át a zöldekhez...vártam a DX12-re 390X-re, Fury-ra, Polarisra (jó, ez jó iparos munka lett, ez tény!) stb...sokszor beszoptam már, sokáig védtem, hittem benne, olvastam párthű kiskatonaként szorgosan a fórumot, tech cikkeket stb... a sokszoros csalódás beleég az emberbe. Újra egységsugarú "hülye" leszek, aki beteszi a gépbe a motyót és játszik.
++: Amit én már több éve várok a DX12-től, Mantle-től Vulkantól az egy ilyen DEMO: Pl
1. Egy grandiózus rombolható város (sok rajzolási parancs), ahol egy realisztikus mechával végigrombolhatok mindent ágyúkkal, rakétákkal stb...
2. Kitörő üvegek, összeomló falak, lángoló faszerkezetek (GPU-n számolt fizika, lángok, füst - async)
3. Robbanások/torkolattüzek (külön lightsource-ú fények).
4. Mindez egy (jó, legyen kettő) GCN-t úgy kihajtva async, hogy Furmark szinten izzad, de játszható FPS. Geforce-ok meg sírnak a context switch alatt...Ekkor tartanám hitelesnek a több éve zajló explicit nyálverést. Sem játék, sem demo, de még benchmark se tudja ezt... csak hogy lássuk már haladunk valamerre, mert az AoTS kb egy 6-7 éves visszafejlődés.
+ A cégnél még mindig Matlab-ot használunk. Matlab soha a büdös életbe nem fogja támogatni szerintem az AMD GPU-kat. Csak NV-t... az összes gépi tanulás/ Deep Learning framework CUDA-s... AMD-t szinte semmi nem támogat ilyen téren - és le is szarják nagyívben, most kezdenek ebben is észbekapni. Nagyon sok tudományos szimulációra és signal/image processingre is lehet használni egy CUDA-s kártyát, míg AMD-hez külön kell nulláról fejleszteni ezeket.
-
Solymi81
aktív tag
Igazad van és egyetértek veled, de azt te is tudod, hogy ezeket így összehozni nem olyan egyszerű.
Én úgy látom, hogy az AMD annak idején nem tudta a saját akaratát érvényesíteni, ezért már akkor vagy az után rálépett egy olyan útra aminek a gyümölcse csak később fog beérni, de itt számolni kell a konkurenciával is. Próbáltak egy nagyot húzni akkor, ez nem jött be.Hogy min csúsztak el, az jó kérdés, lehet nem lobbiztak elég jól illetve kevés volt a lóvé, ki tudja, egyszerűen a lényeg sztem annyi, hogy a rossz döntés következménye lett az egyszereplős piac.
Sajnos a VGA piac nem olyan mint pl. az autóipar, ruhaipar vagy elektronikai ipar, hogy több szereplős, hanem van 2 nagy gyártó és csókolom.
-
PuMbA
titán
Mit tudsz Abu85 az AMD rosszabb memóriakezeléséről? Egy RX460 2GB vs RX460 4GB vs GTX 950 2GB tesztben a 2GB-os RX460 4-5 játékban (pl. F1 2015, COD BO3) 30-40%-kal lassabb a 4GB-osnál, míg a 2GB-os GTX950 esetében nincs ilyen probléma és simán hozza a 4GB-os RX460 sebességét
-
Abu85
HÁZIGAZDA
válasz
#85552128 #24279 üzenetére
Amit már elmagyaráztam, hogy a BF1-nek a Frostbite verziója megköveteli az executeindirectet, amihez hasonló nincs a Vulkan API-ban. A Civ6-nál pedig a multiGPU miatt választották a DX12-t, mert ilyen sincs a Vulkanban.
Nem minden funkciót kapott meg a Vulkan a Mantle-ből, mondjuk executeindirecthez hasonló megoldás a Mantle-ben sem volt.
Ettől függetlenül össze lehet hasonlítani, hogy a függvények 85%-a ugyanaz a két API-ban, és ezeknél a gr-t kell átírni vk-ra. -
Abu85
HÁZIGAZDA
válasz
namaste #24208 üzenetére
Bocs, de ez megint nem ilyen egyszerű. A TFLOPS és a blending teljesítmény igazából csak architektúrán belül lényeges. Elsődlegesen azért, mert az AMD és az NV ma már eléggé hibrid architektúrákat tervez. Nem igazán IMR-ek, de nem is igazán TBR-ek. Valahol a kettő között vannak, de az gyártótól függ, hogy mennyire húznak az egyik irány felé. Az NV a Maxwell óta inkább a TBR felé húz, ami miatt jóval aktívabban használnak mozaikos optimalizálást, mint az inkább IMR felé húzó AMD GCN. Ennek a hátránya, hogy jóval nagyobb blending teljesítményt igényel, viszont kisebb terhelés a memória-sávszélesség felé. Az AMD ennek pont az ellentéte. Nem igényel nagy blending teljesítményt, de nagyon igényli a memória-sávszélességet. Tehát már az eltérő architektúrák miatt is lényegtelen a direkt ROP és sávszél összehasonlítása, mert az NV-nek sok ROP kell, de kevés sávszél, míg az AMD-nek kevés ROP, de sok sávszél. Persze ezt relatív összehasonlításban kell érteni. A TFLOPS pedig azért erősen elméleti, mert a DX12 alatt is D3BC-n keresztül működnek a rendszerek, amely IR-t a 2000-es évek elején befutott architektúrákra húztak fel. Ma már egyáltalán nem úgy működnek a hardverek, hogy a D3BC jól mappelhető legyen rájuk. Ezért hoz a Microsoft a shader model 6.0-ban egy új IR-t, ami a DXIL. Microsofttól elszakadva ugyanezért hozott a Khronos is egy SPIR-V-t. Szóval az elméleti TFLOPS az tök jó, de nincs olyan PC-s hardver, ami nem SIMT modellt használna és ezáltal ne függene a teljesítmény a regiszterhasználattól, hiszen minél erősebb terhelés éri a regisztereket, annál kevesebb wavefront-warp/akármiwave futhat párhuzamosan, és annál rosszabb lesz a rendszer kihasználása. Ugye erre reakció részben a GCN4 utasítás-előbetöltése. A DXIL-en és a shader model 6.0-n már lehet látni, hogy a SIMT modell felé lépdel, hiszen mindegyik hardver ilyen már. Ettől nőni fog a hardver kihasználhatósága is, mindegyik hardveré.
A DirectX 12 több szintre bontja a bekötési rendszer. Van a TIER_3, aminél az erőforrás direkten a multiprocesszorba kerül bekötésre. Ez az alapvető modell, és ennek vannak butított szintjei. A TIER_2 szint a mintavételezőbe engedi bekötni az erőforrást, és driverrutinra van szükség ahhoz, hogy az onnan átkerüljön a multiprocesszorra. Na most ez a driverrutin processzoridőt igényel. A TIER_1 szint esetében maga a bekötés úgy zajlik, hogy a host processzor végzi a teljes munkafolyamatot, és köti be az erőforrást a multiprocesszorba.
Abból egyébként nincs semmi gond, hogy minden cég hardvere ideálisan működik a maga módján, és ha nem lenne az API, akkor ezek abszolút tökéletesek lennének, de az API létezik, és ebben vannak bizonyos szabályok, amelyeket követni kell az adott implementációnak. Szóval az NV-nek azért van szüksége arra a processzoridőt használó driverrutinra, mert abban a fránya DX12 API-ban megkövetelte a Microsoft, ugyanis a pure bindless modellre építették fel a bekötést, és a rosszabb modelleket ehhez igazították hozzá, ami áldozatokkal járt, hogy ez a három szint egyáltalán kompatibilis legyen egymással. Ez teljes mértékben egy szoftveres döntés volt, gondolva arra, hogy a DX12 itt lesz 2020-ban is, amikor már minden hardver pure bindless lesz. De egyébként dönthettek volna úgy is, hogy a DX12 bekötési modelljét arra húzzák fel, hogy elég a mintavételezőbe bekötni az erőforrást, és akkor az az NV-nek lett volna jó, de a jövő szempontjából nem ez tűnt a legjobb döntésnek.Persze, hogy nincsenek kötelező szabályok. Az MS csak azért ajánlja, amit ajánl, mert így működik az API gyorsan. Lásd Rise of the Tomb Raider, ahol nem követték az MS ajánlásait. Azóta mindenki ezeket követi, mert látványosan nem működik akkor a DX12, ha kifejezetten nem ajánlott RS modellt követnek a fejlesztők. Függetlenül attól, hogy az NV ajánlja ezt vagy nem.
-
HSM
félisten
válasz
#85552128 #24269 üzenetére
Most komolyan ez a 20K fáj?
De amúgy manapság az alap órajelük is éppen elég magas, sztem nem egy szignifikáns különbség, hogy én a gyári 3,8Ghz-es turbo-ról felhúztam 4,4-re... 15%.
(#24271) #Morcosmedve: Valahol volt API Overhead teszt, ott szépen látszott, hogy DX11-ben le van maradva az AMD, DX12 alatt meg nem.
Nem is az overhead a kérdés szvsz, hanem hogy a DX12 alatt normálisan tud működni a többszálú feldolgozás. Ami olcsóbb DX12-ben azok leginkább a rajzolási parancsok, de a DX11-el is kompatibilis motorok azokkal amúgy is finoman bánnak, szval nem fog földhöz vágni a difi, amit látsz. -
#85552128
törölt tag
-
HSM
félisten
válasz
#85552128 #24267 üzenetére
A DX12 nem egészen a Mantle-ből jött. De mindegy, nem lényeg, a GCN szempontjából minkdettő jó alternatíva.
Az i5 4690K-m 4,4Ghz-en hajtottam, ami nem egy nagy OC, nem túl drága 2133Mhz CL11 ramokkal. Szvsz akinek volt/van 100 000 forintja VGA-ra, annál bele kell férnie a keretbe egy normális épkézláb procinak is alá.... És ez még mindig nem HEDT meg i7, amik tényleg drágák, miközben akkoriban a 290/290X eléggé a felsőház volt VGA terén a 780-akkal hadakozva.
-
#85552128
törölt tag
"És a Vulcan az mi? A Mantle egyenesági utódja kb. "
Állítólag a DX12 is az, hivatalosan egyik sincs "elismerve" tehát maradjunk annyiban, hogy van amit átvettek a Mantle-től van amit máshonnan. Nyilván ahhoz hogy multivendor legyen eléggé át kellett dolgozni mindkettőt. Függetlenül attól, hogy miből született ugyanolyan jó példa, nem etalon többé a DX mint az OpenGL-es időkben. Ha a Sony beállna mellé komoly konkurencia is lehetne, mert két platformra már érdemes Vulkant is támogatni.
Az overheadtől nem lesz játszhatatlan, tehát teljesíthet az egyik "szépen" a másik pedig "még szebben". Mondjuk a 4690k is képes elég magas órajelre boostolni alapból hát még ha OC-t is kap.
-
HSM
félisten
válasz
#85552128 #24260 üzenetére
Hát nekem sem éppen az aktuális HEDT i7 van a gépemben, és szépen teljesít mégis a 290X.
Pár éve sem volt semmi bajom amikor i5 4690K-m volt a 290 mellett.De tény, a magasabb driver overhead létező jelenség DX11 alatt.
Bár emlékeim szerint már egy ideje dolgoznak a teljes átírásán, és már eléggé aktuális, hogy lassacskán elkészüljenek vele. Bár erről olyasvalakit kéne megkérdezni, aki "közelebb van a tűzhöz", mint én.
(#24265) Szaby59: És a Vulcan az mi? A Mantle egyenesági utódja kb.
-
#85552128
törölt tag
válasz
lezso6 #24264 üzenetére
Az a cikk leírja, hogy kicsi is de volt profitjuk rajta. Jelentős persze ha 1$-ért adták volna az is "jelentős" pénz ekkora mennyiségnél, de ettől még gyakorlatilag ingyen átadták és pénzügyileg max adalék volt mintsem fő bevételforrás (ami 50 millió chipnél után nagy butaság) ha tényleg egyetlen alternatívák voltak.
A Sony cucca is erősebb kérhette volna az MS minimum ezt, de nem nekik még gyengébb kellett meg is lett az eredménye.
Ez olyan hozzáállás, hogy majd "hiszem ha látom" addig meg hagyatkozzunk a tényekre, a dx12 felemás indulása minden csak nem bizalomgerjesztő - ezért sem kell jó előre elvárásokkal indulni..."Ha a DX12-t nem hozhatnák át, még nagyon baj lenne."
Ööö... miért is ? A fejlődés nem áll meg, ha nincs DX12 lesz más, akár jobb is... Sőt van is, még a Vulkan is többet felmutatott egy játékban mint a DX12 egy tucatnyival.
-
válasz
#85552128 #24258 üzenetére
1. De most ez miért lényeges? 10 dollárral többe kerül a gyengébb XO chip, mert az MS az ESRAM-mal próbál a PS4 elé kerülni, persze ez nem sikerült. Most lapátolják ki a semmire a pénzt.
2. Elég jelentős pénz jött be az AMDn-nek a konzolokból, ez tény.
3. A legolcsóbb verzió kb 1 jaguár mag + 1 cu lett volna, ennél azért picit többet tud az XO. Amúgy lásd 1-es pont.
4. Ez olyan tipikus semmisosemelég hozzáállás. Ha a DX12-t nem hozhatnák át, még nagyon baj lenne. -
#85552128
törölt tag
-
Zeratul
addikt
válasz
#85552128 #24258 üzenetére
Nem jöhetett be annyi sok pénz, ha folyamatosan veszteségük van.
Nagyon úgy néz ki hogy ebben üzleti trükközések is vannak. 3. negyedévben kpból kifizették a TSMC-t előre. Persze meg lehet indokolni de akkor is gyanús hogy inkább veszteségbe fordítják mérleget csak adót és osztalékot ne kelljen fizetni.
-
#85552128
törölt tag
Ugyanilyen magyarázatot fellehet hozni a Kepler - Maxwell kapcsolat esetében is, architéktűralis eltérések miatt jobb lehet az újabb architektúra, de nem mindig és ez történt/történik most is.
A GCN DX11 jól működik a benchmarkokban, de annak aki nem a csúcskategóriában vásárol nem is az aktuális HEDT i7 proci van a gépégben, 4+ GHz-re húzva hanem egy non-k i5/i3 vagy Isten ments valamelyik Bulldozer ott pedig egy GCN minden gépigényesebb játéknál többet veszít mint a konkurens termék.
Éppen ezért lenne már ideje legalább a <1070 szintű VGA-k esetében valami hétköznapibb konfiggal is tesztelni az újabb játékokat. -
HSM
félisten
Epic fail.
(#24242) Szaby59: Teljesen jól működik a GCN DX11 alatt, csak globális hisztériaroham lett valamiért a teljesítmény/fogyasztás mutatóból...
"A 470 is egyre többször van a 290X nyakán miközben többször is volt, hogy a 480 tudta csak beérni korábban, egyik gyártónál sem annyira fontos többé a régi ha van új cucc is..."
Itt egyáltalán nem erről van szó.Hanem hogy a 290-eket erősen limitálja a setupjuk (a majdnem 3000 shaderhez és 64ROP-hoz viszonyítva), ami a 470/480-aknál az órajelük révén már önmagában durván 20-30%-al erősebb, nem beszélve a GC3-ban bevezetett optimalizálásokról. Emiatt pl. irreálisan szétteszelált benchekben szépen otthagyja a friss vas a régit. Ezen a driverben pár kattintással lehet segíteni a tesszeláció szintjének értelmes korlátozásával.
(#24250) Solymi81: Egészen pontosan ami jobb lenne a játékostársadalomnak, ha hamarabb elindult volna az explicit API-k vonata:
-konkurencia a játékos procik terén (jó alternatíva lehetett volna az FX játszani, mivel az API nem igényelt volna magas egyszálú sebességet, mint a DX11, ami miatt kivéreztek játékban hamar az FX-ek)
-konkurencia a GPU-k terén (versenyképesebb lett volna a GCN, és nem lenne most ilyen monopol helyzetben a zöld oldal, lásd pl. árazás)
-jobb játékok, tudniillik az utóbbi években rengeteg játékfejlesztői erőforrás lett arra elpazarolva, hogy egy korszerűtlen, elavult, a hardverekhez képest katasztrófális képességű API-t kellett szénné hekkelni, hogy elérjék azt a vizuális megjelenítési minőséget, amit ma láthatunk.
-jobb játékok ismét, ugyanis a jobban skálázódó API miatt több erőforrás maradt volna a processzor oldaláról, amit pl. jobb AI-ra illetve hangi világra lehetett volna fordítani
-szebb játékok, ugyanis rengeteg DX11 miatti korlát nem lett volna szükséges (+lásd az elpazarolt erőforrások részt)És éppen ez az, ha 2012-ben jön ki a DX12 és nem 2015-ben, akkor nem 3-4-5 évet kellett volna várni, mire valami látszani kezd a GCN tudásából.
Amit a mai GTX1060 vs RX480 kérdéskörról írsz, ott csak az a probléma, hogy a DX11 játékokat az RX480 is teljesen szépen elviszi a hátán.
-
#85552128
törölt tag
válasz
lezso6 #24256 üzenetére
1, De az [link]
2, Nem jöhetett be annyi sok pénz, ha folyamatosan veszteségük van.
3, Akkor a legolcsóbb megvalósítást választották.
4, Na látod és az is úgy beváltotta az ígért egyszerű portolást, hogy most a SM6-ot kell várni, hogy lehetővé tegye - semmi gond, majd ha eljutunk oda és jönnek a minőségi portok fellehet hozni hogy igen ez sikerült.
MS érdekeibe inkább ne menjünk bele, a GOW-on kívül egy normálisan összerakott PC-s címük nem volt.(#24257) Zeratul: hozzájön még a bluray meghajtó és a featurekhez kapcsolódó licenszek a csatlakozóktól a használt dekoóerekig/szoftverekig stb. Az említett dolgok pedig a VGA-n is "filléresek".
-
Zeratul
addikt
-
válasz
#85552128 #24255 üzenetére
1. Így sem releváns.
2. Miért kéne ettől pozitívnak lennie? Sok pénz jött be, el is költötték. Baj?
3. Legolcsóbbat? Custom chipből nincs olyan, hogy legolcsóbb, mivel nem konkrét termékek körül választasz.
4. A DX12 kvázi az XO-ról jött. A SM 6.0 miért ne jöhetne szintén így? Az MS érdeke, hogy a PC piac menjen, így a legjobb, ha a shaderek egy az egyben átjöhetnek. -
#85552128
törölt tag
válasz
lezso6 #24253 üzenetére
1, Az, hogy az MS nem tudta profittal adni a gyengébb vasat miközben a Sony igen nem azért van mert eleve így tervezték, hogy feleannyi XO-t adnak el...
2: 50+ millió soc és mikor is volt utoljára pozitív negyedévük ?
3: de azért abból is a legolcsóbbat
4: Szerintem is hülyeség, hogy nem létező dolgokat ennyire tényként kezelünk, ebben egyetértünk.(#24254) Zeratul:
Tehát mit is láttál te a SM6-ból ? Hány játék épült rá, hogy kijelentsd olcsóbban jó minőségű portokat kapsz ? Ezt már a DX12-nél is előtte "valaki" aztán kiderült, hogy megint kell valami, miből gondolod most nem ez lesz ? Vagy, hogy az olcsó és jó minőségűből nemcsak az első teljesül ?"2. Ugyan a helyzet a VGA árának csak töredéke a GPU."
Ahogy pl. a PS4 Pro árának is csak töredéke a soc, de mivel jóval több dolog van benne/rajta mint egy VGA-n így egy még kisebb töredéke... -
Zeratul
addikt
válasz
#85552128 #24252 üzenetére
1. Sonynak nem volt benne kötelező tartozékként a kuntankinte kitekinte. A két APU árkülönbsége nem befolyásolta érdemlegesen bekerülési költségeket.
2. Ugyan a helyzet a VGA árának csak töredéke a GPU.
3. Mindenki a költséghatékonyságra törekszik, probléma hogy az nV a tudás rovására teszi, ezért se lehetett rá konzolt építeni.
4. A Shader modell 6.0 fejlesztői szinten létezik, már csak azért is mert következő nagy Win 10 update-tel érkezik az meg pár hónap. -
válasz
#85552128 #24252 üzenetére
1. Hogy jön ide a Sony? Vagy ez most valami überelés-verseny?
2. Jóval többet, mint amennyit a többiek a korábbi konzolok után.
3. APU-t akartak, az AMD tudott csak ilyet adni. Nem pénz kérdése volt.
4. Ööö, erre mit lehet írni? Tartom a színvonalat: Ne beszélj hülyeségeket. -
#85552128
törölt tag
válasz
Zeratul #24251 üzenetére
1: a Sony az erősebb vasat profittal árulta
2: az "elég szép" relatív, mennyi van egy VGA hoz képest ? Egy fullos PS4 Pro gép 400€ egy hasonló szintű Polaris VGA (RX 480 8 GB) meg 300€ ?
4: ne beszélj jelen időben tényként arról ami nem létezik, főleg, hogy a költséghatékonyság és a minőség általában nem jár kéz a kézben... -
Zeratul
addikt
válasz
#85552128 #24247 üzenetére
1. Az XBoxOne is veszteséges volt a vas szinten mindig is.
2. Elég szép profit van a XBO chipeken.
3. Kérhetett volna Phenom II + 7970 szintet is, csak akkor 300W a fogyasztás és 1000 dolláros konzolról beszélünk, amit ha el akar adni akkor kénytelen min 300-400 dollár veszteséget benyelni.
4. Shader modell 6.0 val át tudja emelni közvetlenül a konzolon megírt programokat. Olcsóbban, jobb minőségű konzolportokat kap a PC közösség, micsoda skandallum. -
Solymi81
aktív tag
Mik azok a dolgok amik azt jelzik, hogy a játékostársadalomnak jobb lenne a GCN illetve milyen játékok lehettek volna emiatt? Értem én, hogy jó a GCN és mindenki örülne ha már használhatóak lennének ezek az újdonságok, de erre jó lenne pár példa, mert senki se tudja, ahogy Ren Hoek írta, egy demo sincsen rá, hogy miért lenne jó, csak technoblabla.
Ráadásul a sok majd 2-3-4-5 év múlva beérik az nem elfogadható válasz, ugyanis a játékosok nem 2-3 évvel későbbre vesznek kártyát, hanem mostanra.
Lehet valami teljesen új, előremutató, de ha nem tud elterjedni akkor olyanná válik mint azok a dolgok amik meghaladták a korukat. Lásd pl. A Citroen kormányzással együtt forduló fényszóróját, amit már 1967-ben piacra dobtak.
Egyszerűen az AMD nem volt képes arra, hogy nagymértékben befolyásolja a piac fejlődését, ezért nem látunk eddig semmit belőle. Lehetséges, hogy 1-2-3 éven belül beérik, de ott van még az Nvidia is, ők se ülnek tétlenül.
A jelenlegi helyzetre talán jó példa a GTX1060 vs RX480 kérdéskör.
Legyen egy 1060-an ami most jól teljesít és várhatóan 1-2 évig még jól fog, viszont DX12 alatt nincs gyorsul, habár a driverek változtathatnak rajta vagy esetleg legyen egy RX480 ami DX11 alatt nem igazán jó, de DX12 alatt látható a gyorsulás és valószínű még fog is, ami lehetséges, hogy időtállóbbá teszi. -
#85552128
törölt tag
válasz
füles_ #24248 üzenetére
Nem is az elindulásról volt szó, meglehet nézni hogyan teljesítenek a régi és új nV kártyák van ahol még a 980 jobb is mint a 1060, a Keplernél a felépítésbeli különbségek is közrejátszottak ott sem volt általánosan elhanyagolva.
A 470 is egyre többször van a 290X nyakán miközben többször is volt, hogy a 480 tudta csak beérni korábban, egyik gyártónál sem annyira fontos többé a régi ha van új cucc is...
pl. ASW support sincs még VR-ben a Polarisnál régebbi kártyákon, ellenben a Maxwell2 megkapta a Pascallal együtt...Nem optimális: CPU/driver overhead, magasabb fogyasztás durván ezek azok amiben előnye volt/van is még az nV-nek.
-
füles_
őstag
-
#85552128
törölt tag
válasz
Zeratul #24245 üzenetére
A "picipuhának" (LOL) elsődlegesen az volt az érdeke, hogy a lehető legolcsóbban szerezzen egy designt ami elég ahhoz, hogy legyen egy elégséges teljesítmény és a vele szerelt gépeket első naptól profittal tudja eladni - tehát a hangsúly az olcsóságon volt. Találtak egy ilyen "bolondot" aki gyakorlatilag 0 profittal még tervez is nekik külön egyet. A többi már jött magától, bármilyen HW-t szénné lehet optimalizálni ha csak azzal kell foglalkozni, a PS3/X360 szépen megmutatta mit ki lehet hozni 1-1 fix konfigurációból.
(#24246) Zeratul: Amiért ő "siránkozik" és amire azok a kártyák elegek két különböző dolog.
-
Zeratul
addikt
válasz
#85552128 #24238 üzenetére
Az hogy mi az általános eljárás a API tulaja szabja meg. Amíg a picipuhának nem volt saját igényeinek megfelelően tervezett vasa addig kénytelen volt kiadni az elképzelései,t igényeit, aztán vagy teljesítették vagy nem (inkább az utóbbi). A picipuhának az az érdeke hogy egy állandó keretrendszere legyen amire évekig építkezhet, az nVnek meg hogy minden éven eladja vasat.
-
#85552128
törölt tag
válasz
füles_ #24230 üzenetére
"És úgyanígy gondolkozik az NVIDIA és a vásárlóbázisának többsége is.Leszarják hogy mi lesz 2 év múlva,majd jó nagy bukóval eladják a kártyájukat és megint megveszik az akkori legdrágábbat"
Mutasd már be ezt pls. a gyakorlatban. A 2 éves 970-en ugyanúgy tudok játszani most is mint amikor megvettem: igen van ahol jobb az AMD, van ahol jobb az nV ez megvolt akkor megvan most is.
Az szvsz sokkal rosszabb megoldás, hogy tervezel valamit ami az elkövetkező ~2 évben (tehát a fő életciklusban) egyáltalán nem optimálisan működik mintsem egy olyat ami teljes mértékben kiszolgálja az ebben a ciklusban elvárt igényeket... -
Zeratul
addikt
válasz
Rico33 #24236 üzenetére
GCN4 talán nem kompatibilis a GCN1-el, vagy miről beszélsz?
X86 Processzor szinten is a fejlettebb generáció erősebb és többet tud mint az elődei és persze vannak egyedi feautre-jei mégse anyázik senki hogy szemét intel cserben hagyta a Nehalem tulajokat mert a Skylake-ben van AVX512.
-
#85552128
törölt tag
válasz
Zeratul #24234 üzenetére
És szerinted én mit írtam előbb ? Egyetlen api ahol előbb a HW volt, eddig _mindig_ az új HW-t kellet az API-hoz tervezni és nem fordítva, tehát nem ez az általános eljárás. Itt pedig főleg azért sem, mert a DX12 elsődlegesen egy konzolhoz tervezett API amit PC-re is áthoztak (kisebb nagyobb módosításokkal).
-
füles_
őstag
Reménykedtem benne hogy így talán megértitek hogy mire probálok/probálunk egy páran utalni.De úgy látszik hogy még igy sem megy
(#24236) Rico33
Már nem azért de mit vártál már a megjelenéskor egy alsókategóriás kártyától?Hogy majd 4 év múlva is fullon fog vinni mindent
aztán kidobták a kukába a GCN1-t
Érdekes,nem olyan rég játszottam ki a Rise of the Tomb Raidert egy 280X-el és csak a textúrákat nem tudtam maximumra állítani a 3GB VRAM miattÉs azt hiszem nyugodtan megjegyezhetem hogy az új Tomb Raider NV párti
-
HSM
félisten
"Már a 970-nél is ezt trollkodtad mindenhol, mégis mai napig ott van a piacon normálisan. Csak egy példa. A játékok nagyon nem fejlődtek akkorát mint ahogy jósoltátok."
Ez a két mondat között sem látsz semmi összefüggést, mi?
Meg az elmúlt napi hozzászólásaim között se. Oké. Elfogadom, hogy nem tudod, vagy nem akarod megérteni.
A személyeskedés a legjobb bizonyítéka, hogy kifogytál rég az értelmes érvekből.
Ami egyébként nem is igaz ebben a formában, de ne zavarjon egy percig sem.
(#24226) imi123: Kedves Asbee fórumtárs hülyézett le minenkit, anélkül hogy észrevette volna.
Én az alulinformált jelzőt használtam.
-
Asbee
veterán
válasz
füles_ #24230 üzenetére
Könyörgöm, egy használati tárgyról beszélünk. Aztán már a tumoros megbetegedésig jutottunk, meg hogy az NV vásárlók, hogyan vélekednek a jövőről általánosan.
(#24231) Zeratul:
2 év múlva? Az nV fanok zsebét úgy égeti a pénz ha 1 év múlva nem tudnak cserélni már rosszul vannak.
Ha így is van esetleg, akkor mi közöd hozzá és miért zavar? Netán te valamit nem jól csinálsz? Egyébként vicces, ahogy fanoztok, meg dobálóztok a jelzőkkel, amikor már nincs érv.
-
Zeratul
addikt
-
füles_
őstag
Az a baj a mai világgal hogy az emberek azon véleményen vannak hogy legyen jó ma,holnap meg lesz ami lesz.Példaképpen: ózonréteg elvékonyodása,nem igazán teszünk ellene semmit....Majd ha minden harmadik ember rákos lesz,akkor meg fog menni a pánik...
És úgyanígy gondolkozik az NVIDIA és a vásárlóbázisának többsége is.Leszarják hogy mi lesz 2 év múlva,majd jó nagy bukóval eladják a kártyájukat és megint megveszik az akkori legdrágábbat.Persze ez az NV-nak jó,meg az usernek is jó,addig amíg nem jön rá hogy birkának nézik őt.És ez itt a gond,hogy ezt általában nem veszik észre,mert az NV újra és újra elhiteti velük hogy jól döntöttek
-
Zeratul
addikt
válasz
Locutus #24225 üzenetére
Mióta nem megvan az RX 470 a fogyasztáskeret és Vcore kísérletezéseken kívül nem láttam VGA driver összeomlást. After burnert is letakarítottam mert többet árt mint használ. Watmanban kapott + 10% keretet, biztos ami ziher elven. Ventiprofil auto, vcore autó. Csendesen teszi a dolgát. Legyen az Doom, Diablo, WoT, Armored Warfare, Warthunder, Stalker, Tomb Raider, Mortal Kombat X, Company of Heroes II. Persze tudom egy nV fan szerint ez puszta kitaláció.
-
#85552128
törölt tag
-
Asbee
veterán
válasz
Zeratul #24223 üzenetére
Jó lenne igen. Csak több típussal nem így van sajnos. Az átlag user, amikor melegszik, hibázik, mikrolaggol, szarul fut a játék, nem a sokat emlegetett megoldásokat fogja választani, hanem lecseréli NV-re és magaszról szarni fog rá, hogy egy technikailag gyengébb kártyája lesz, de jelenleg jobb.
-
Asbee
veterán
Én a te hozzászólásaidon szakadok, ahogy erőlködsz állandóan. Magyarul, akkor szerinted mindenki hülye, mindenki csak a marketinget nyalta be. Nem, az nvidia a jelenre dolgozik, a mr alulórajelezőkre mint te meg ott az amd megoldása.
Te milyen jövőállóságról beszélsz? Már a 970-nél is ezt trollkodtad mindenhol, mégis mai napig ott van a piacon normálisan. Csak egy példa. A játékok nagyon nem fejlődtek akkorát mint ahogy jósoltátok. Magyarul az NV jobban pozicionált a jelen helyzetre. Úgy beszélsz mintha 5-10 évre vásárolnának az emberek átlagosan vga-t.
Élmény? Jó végeredmény?Hát persze, az csak AMD-vel van.
Ideje lenne végre elfogadni, hogy a többség megveszi a vga-t beteszi a gépébe és használja. Ebben jelenleg még mindig az NV a jobb. Elhiszem, téged az tölt el örömmel, ha alulfeszelhetsz, órajelezhetsz, ventivel hűtheted pluszban a kártyát. Nincs is ezzel baj. Biztos eljön majd az az idő, amikor az AMD a technikai főlényéből nagyot kamatoztat, de ezt még mindig nem látjuk. Ezért nem a másik oldalra kéne fújni és eszeveszetten magyarázni az ellenkezőjét.(#24220) lezso6:
csak az NV-nek a marketingja sokkal jobb, ennyi.
Ez azért elég erős és fals kijelentés. De valóban igaz, hogy marketing téren, a semminél jobbat nem nehéz. -
válasz
Peat;) #24218 üzenetére
Általásságban értem, olvass vissza. Arról volt szó előttem, hogy ha egy cégnek nagyobb a piaci részesedése, biztos jobb terméket is gyárt. Hát nem. Az NV és az AMD is ugyanolyan jó termékeket csinál, csak az NV-nek a marketingja sokkal jobb, ennyi.
Az AMD gyűlöleteddel nem tudok mit kezdeni, az egyéni szoc probléma. Én meg az NV üzletpolitikáját utálom, de nem írom le ötezerszer.
-
HSM
félisten
válasz
lezso6 #24206 üzenetére
Azért megnyugtató, hogy van még, aki érti miről írok.
(#24207) Asbee: Ezen a hozzászólásodon szakadtam!
"Szerinted miért nagyobb a piaci részesedése? Biztos a fél világ hülye igaz?"
"A piacot miért is kell, hogy annyira érdekelje a nagy jövő és a technoblabla"Nem zavar, hogy a második mondatod következménye az első? Nem értenek hozzá, nem látják át, a te szavaiddal élve "hülyék".
Az Nv pont ezt a "hülye", alulinformált vásárlói hozzáállást használta ki a piaci stratégiájával, beáldozta a cuccainak a rugalmasságát, jövőállóságát az aktuális megoldások melletti sebességért, és tökre tettek rá, hogy ez hosszabbtávon jó-e a vásárlóknak, a játékok fejlődésének avagy sem. Ugyanúgy, ahogy a játékok alatti magasabb FPS-ért is beáldoztak mindent, amit csak lehetséges, nem számít az élmény, a jó végeredmény, csak az FPS.(#24209) Ren Hoek: Nem a GCN volt a tévút. Hanem hogy valami érdekes okból nem jött új API, amivel kihasználhatóvá vált volna. Ez a tévút, hogy befagyasztották a fejlődést évekre. Nyilván voltak, akik ezzel nagyon-nagyon jól jártak, de nem mi, játékos felhasználók....
(#24211) Petykemano: Két dolgot tudhatunk egészen biztosan... Az egyik, hogy anyagi erőforrásokból az AMD nem áll túl jól. A másik pedig, hogy ezekre a modern gyártástechnológiákra egy lapot metervezni horrorisztikus költség. Csak a gyártás beindítása egy lapkára, meg a prototípusok. Tehát egyáltalán nem meglepő, hogy csak a legfontosabb két piaci területre hoztak most Polaris lapkát, egyet a belépő+játékos noti szegmensbe, és egyet, ami a mai teljesítményorientált, de nem túl drága szegmensben lett egy igencsak erős ajánlat. FHD-ra untig elég, nomrális áron, fogyasztással, sebességgel és technikailag is a ma kapható messze legfejlettebb GPU-val.
Amúgy amit Ren Hoek-nek írtál... Miért az AMD szúrta el, hogy nem jött modernebb API? Éppen, hogy velük lett kiszúrva, hiszen nem ők a szabványosító szervezet...
Ami az FX-eket illeti, mint írtam, ha normálisabb API lett volna a játékokra, ami jobban skálázódik, akkor játékra is egy lényegesen jobb alternatíva lehetett volna, és talán nem váltak volna a mainstream négymagos kékek az egyeduralkodó játékos procivá....
(#24213) Ren Hoek: Mint láthatjuk a benchekben, éppen ennyit hoz.
Durván 30% körül. Közben meg még lehetővé is tesz egy csomó hasznos szolgáltatást. Pl. TrueAudio Next, vagy a VR-re a megfelelő preempció.
"A userek döntöttek, és nem az akkori GCN mellett, hanem amellett, hogy hűvös, csendes kártyát akarnak."
Persze, mert a DX11 alá befagyott piacon mit láttak? Hogy a Maxwell ugyanazt a sebességet hozza, csak kisebb fogyasztással, hűvösebben, és mellette semmi nem szólt a GCN-ek meleltt. Mert mint Asbee is utalt rá feljebb, különben is a usert ilyesmi nem érdekli....(#24216) lezso6: +1.
(#24218) Peat
:"Én amiket láttam azok közül azt mondom még az AMD az amelyik jobban ferdít, félrevezet, becsap."
Aham... A 4GB-os, 256bit széles buszú 970 a kedvencem. Mondj csak egy hasonlót a piros oldalról. -
Peat;)
veterán
válasz
lezso6 #24210 üzenetére
"A piaci részesedés nem csak a terméktől, hanem a marketingtől is nagyban függ. Sikeres termék != jó termék."
Azért ph!-n ilyet benyögni...bakker. Vagy ha arra gondolsz hogy AMD nagyon balfék akkor megértem. De itt azért eléggé tolva van az AMD szekere mégis egyre többen térnek át a zöldekre évről évre. Másrészt melyik gyártónak különb a marketingje? Én amiket láttam azok közül azt mondom még az AMD az amelyik jobban ferdít, félrevezet, becsap. Engem már itt elvesztettek konkrétan, azt választom amelyik kisebb mértékben néz hülyének. Amikor külön cég volt az ATI akkor egyébként pont fordítva volt. Akkor az nvidia volt a nagyobb sumákoló, ATI meg tette a dolgát. Fene se érti miért voltak ATI kártyáim és amióta AMD belekontárkodott miért vannak nvidia kártyáim...
Azért mert AMD teljesen piacképtelen kommunikációt folytat és csak a szűk technikai fanoknak felel meg azzal, a többiek meg már kiröhögik azért hosszú évek alatt megdolgoztak. Ezt a renomét nagyon nehéz visszaállítani, miközben nagyon fontos lenne, mert a vga is olyan dolog amit 1-2 évente cserélhet az ember, így stabil vásárlóbázist kellene kialakítani. Új vásárlót szerezni mindig drágább mint meglévőt megtartani, ezt minden hülye tudja, csak AMD nem. Akinek van egy 390-ese de kulturáltabb gyorsabb kártyát szeretne az mire váltson? És már mióta? Nvidia meg minden évben szépen adagolja a drogot ahogy kell, 660-760-960-1060 pl, de feljebb is ugyanez, ezt hívják termékstratégiának. Ami a másik oldalon van azt meg trehányságnak. -
proci985
MODERÁTOR
válasz
lezso6 #24216 üzenetére
Blur is ilyen volt par eve. Ld Deus Ex Invisible War, "lassito effekt amitol rondabb lesz a jatek?". Ahhoz kepest meglepoen jol oregedett kinezetre.
Egyebkent reszletesseg novelese meg a megoldas, de azt sokan nem veszik eszre a felhasznalok kozul. Dishonored2nel meg vagyok dobbenve, hogy mennyien tartjak rondanak, pedig gyonyoru.
-
válasz
Ren Hoek #24213 üzenetére
A júzerek nem a fogyasztás miatt vették a Maxwell-t, hanem azért, mert az NV volt jobb. Az egységsugarú vásárlónak nem sok fogalma van arról, hogy mit vesz, max a dobozon lévő dolgokat látja meg a marketinget, jobb esetben benchmarkokban lévő fps-eket. PH!-n is a tesztek utolsó oldalának van messze a legtöbb oldalletöltése.
Az a baj, hogy a legtöbben túl naivan vagy türelmetlenül állnak ehhez hozzá. Nem azonnal varázsütésre lesz ebből egy halom teljesítmény. Ezért hülyeség csak ezt figyelembe véve AMD-t választani. Másrészt amíg NV-re is optimalizálnak, addig nem is lesz nagy különbség. Harmadrészt pedig még a nagy oldalak se tudnak normálisan mérni, ugye az új apik alatt nem használhatók a régi benchmark toolok, így az eredmény pontatlan lesz. De a tendencia látható, általában NV-n lassul az új API, míg AMD-n gyorsul. Jelenleg még lehet választani a régi API-t, viszont amint a Windows 10 elterjed, nem fognak többé DX11-re fejleszteni.
Nekem a Frostbite 3 2013-ban áll leejtős volt (a BF4 pár órás "játékélménye" más kevésbé
), pedig az csak DX11. Azóta meg nem igazán van hova fejlődni. Vagyis lenne, csak ott az uncanny valley, s emiatt sokkal nehezebb a feladat, mint régen, amikor még közelébe sem voltunk ennek a rejtélyes völgynek. Pl ott a DoF, ami egy tökjó effekt, de csomóan kikapcsolják, mert zavaró, túl reális. Így próbáljanak reális grafikát csinálni. Semmisejó, a játékosnak fogalma nincs, hogy pontosan mit akar, csak legyen jobb. Legyen tánc. Meg zárcsökkentés.
-
Ren Hoek
veterán
válasz
Petykemano #24211 üzenetére
Bizonyára azzal szembementek volna a saját stratégiájuknak, ha kiadnak egy herélt lovat Radeon márkanév alatt. Meg persze arra számítottak, hogy már rég teljes DX12 kínálat lesz, így számukra értelmetlen lett volna kiadni egy Maxwell szerű vágott, DX11-re optimalizált, magas frekvencián működő keveset fogyasztó chipet.
Csak azt mondom, visszatekintve semmi káruk nem lett volna belőle... igaz, szerintem simán annyira sokat adtak volna el belőle, hogy Maxwellel gyönyörűen felveszi a versenyt eladási számban... és biztosan hátráltatta volna az explicit API/GCN továbbfejlesztést. Viszont 50-50% market share-l, most nem lenne ez a mindenkinek rossz háború.
AMD-nek nincs pénze fejleszteni, óriási csúszásokat szed össze, NV pedig direkt hátráltatja az explicit apikat és hátradőlve refreshelget+kaszálja az durva pénzeket. AMD válaszul GPUOpen, konzolháború.. stb...Win-win lett volna mindenkinek, ha Vegával+Voltával egyszerre lép AMD és NV a DX12 területre, addig közös megegyezéssel a DX11-re gyúrt szétoptimalizált archokat hajtják. így vagy úgy, még 1-2 évig biztosan ez a purgatórium állapot lesz.
-
proci985
MODERÁTOR
válasz
Petykemano #24211 üzenetére
multiprogramozas nehez. eleve threadkezeles pl C++ban nehezkes volt egy idoben (C++11 szabvanyositotta, elotte meg lehetett oldani de sokkal bonyolultabban). masik, hogy ha kozos cache kell akkor eleve felso korlat lesz arra, hogy mennyi teljesitmenyt lehet nyerni, egyebkent meg felso korlatnak ott Amdahl tovenye.
es akkor meg ott vagyunk, hogy hiaba ott mar a language support, ha a fejleszto nem erti mit csinal, akkor vagy korrupt lesz az adat, vagy (jobb esetben) csak tetulassu / nem fog skalazodni. nehez a terulet es nehez az atallas.
ahol en csinaltam a BSCt kepeznek jatekfejlesztoket is, gyakorlatilag harom masodeves egymasraepulo kurzus utan amibol ketto csak erre fokuszal jutnak el oda, hogy a halozati kodot mukodokepesre meg tudjak irni.
masik oldalrol viszont 2010ben nem hittem volna, hogy hat evvel kesobb meg mindig negy magon allunk mainstreamen.
-
Ren Hoek
veterán
válasz
lezso6 #24212 üzenetére
A +30% fogyasztás... akkor lett volna szép, ha beigazolódik, hogy most +30-40%-os teljesítménynövekményt is hoz DX12-ben. Ebből szinte semmi nem valósult meg. Egyébként ha +30% fogyasztással tudja ugyan azt, akkor hogyan nevezhetnénk ekvivalensnek? Nem, nem tudta ugyan azt egy 290/290X és egy 970/980 annak idején. Hadd ne nekem kelljen elemeznem a piaci helyzetet. A grafikon a Maxwellnél csúszott ki, de durván - és pont ezért.A userek döntöttek, és nem az akkori GCN mellett, hanem amellett, hogy hűvös, csendes kártyát akarnak. Itt mérte fel rosszul az AMD a helyzetet. (Azelőtt 35-40% körül fluktuált... ez még egy normális share volt, tehát a GCN önmagában valóban nem felelős ezért a helyzetért... )
Én arra számítottam 2015-ben, hogy hamarosan vége a Maxwelleknek, és felszabadul a GCN erőtartalék majd, annyi DX12 játék lesz hamarosan - kiegyenlítve a GPU erőtartalékokat. (Nyilván AMD is erre számított)
Egyébként megjegyzem, a mai napig nem jött (lehet csak én nem láttam) olyan áll leejtős technológiai bravúr... tényleg akármilyen techdemó (mint anno egy Crysis 1 volt), vagy játék, vagy jelenet vagy fénykép ami nyíltan megfekteti a Maxwellt/ Pascalt, GCN-en szárnyal (egyGPU-s rendszereken)... mellette instant álleejtős annyi egység, robbanás, fotorealisztikus növényzet, fizika stb van benne .
Miért nincsenek ilyenek? Hogy várható el, hogy rendesen terjedjenek a játékok, hogyha csak a végeláthatatlan cikkek sorozatát olvashattuk, hogy miért lesz ilyen brutálisan jó nekünk a DX12 - mutatványt meg semmit? A semmiről beszélünk már lassan 3 éve...
-
válasz
Ren Hoek #24209 üzenetére
Miért lenne volna tévút? Az kimaradt, hogy az első két GCN generáció elég nagy pofon volt a Ferminek meg a Keplernek, a két új konzol erre épít, új apikat hozott?
Ekkora probléma lenne, hogy a Maxwell óta +30% fogyasztás? Bezzeg a Fermi idején ez senkit sem érdekelt. A GCN ugyanazt tudja, ugyanazon az áron, más különbség nincs a tudást leszámítva, ami az új apik alatt ad egy kis boostot. Annyi probléma van, hogy jelenleg épp nincs kártyájuk a felsőkategóriában, mert megcsúszott a Vega. De ebből arra következtetni, hogy a GCN hülye ötlet volt, az egy baromság.
És mire írod az API-t, ha nincs hardver? Mantle-t is úgy kellett letuszkolni az MS torkán, hogy kiadja a DX12-t. Aztán most meg a GPUOpen / AGS megy ugyanígy a SM 6.0-ért. Hogy lehetne másképp, konkrétan?
-
Petykemano
veterán
(#24173) HSM
Szerintem egyetértünk
(#24172) VTom
Nem azért nem indítanak a csúcskategóriában semmit, mert arra várnak, hogy majd a közepes is elég lesz, ha beérnek a konzol-örökségek.
Hanem mert nincs pénzük. Nincs pénzük jót fejleszteni.
A) Nincs pénzük fejleszteni, ezért a fejlesztéseiket hozzáigazítják a konzolok fejlesztéséhez, és így az egészet mással fizettetik meg, vagy ugyanazon kétszer próbálnak keresni (egyszer konzol IGP-ként eladva, egyszer pedig saját diszkrét vagy integrált VGA-ként)
B) Nincs pénzük jót fejleszteni. Van egy irány, ami felé elindultak és talán elvből, de vélhetően forráshiány miatt sem szándékoznak letérni erről azért, hogy egy épp megfelelően jót fejlesszenek. Viszont az idő nekik dolgozik. Jelenleg. Vagy legalábbis jelenleg úgy tűnik. A verseny nincs megnyerve, egyáltalán nincs kőbe vésve, hogy a versenytársak nem lékelhetik meg az elképzelést, vagy nem csinálhatnak ellentámadást.Szerintem nem cél, hogy kizárólag mainstream vga-kat forgalmazzanak.
Ha adott esetben elkészültek volna egy Fiji porttal Polaris alapokon, akkor az dobott volna a fury X teljesítényén kb 40%-ot. Ami szép. De nem érte volna el - akkor - se összteljesítményben, se hatékonyságban talán még az 1080-at se. Ugyanúgy "mindenki" Pascal-t vett volna, aki ebben a szegmensben nézelődik. Elszenvedve a presztízsveszteséget valószínűleg dollárszázmilliókat takaríatottak meg azáltal, hogy nem versengtek egy számukra nem jó terepen, és a későbbi fejlesztést kifizettethetik a MS-tal.Ugyanakkor szerintem cél, hogy kisebb egybetokozott lapkákkal oldják meg a magasabb teljesítményt. A multiadapter ezt a célt szolgálja. Azt, hogy a játék két v több gpu-t ne frame-enként váltakozva, hanem a képernyőt akárhány részletre felosztva együtt tudjon használni.
Ez egyelőre még nem látszik. Még nincsenek ilyen játékok, vagy kevés van. De szerintem a terv az, hogy a VR farvizén elárasztani a piacot 2-4 lapkás gpu-kkal, amire aztán majd szépen megszületnek a multiadapteres adaptációk.(#24183) Ren Hoek
Azt értsd meg és építsd be a gondolkodásodba, hogy az apik nem valami külső környezeti adottságok, hanem az ökoszisztéma része, amire a sikeres üzlethez hatással kell tudni lenni.
Az nem úgy történt, hogy az AMD álmodott egy nagyot, de hát mivel a környezet, a piac rajta és mindenki máson kívül csak úgy véletlenül mégse úgy alakult, ahogy az AMD álmodta, ezért elszúrták és kukában a helyük. Elszúrták. De nem azt, hogy álmodtak egy nagyot és csináltak egy valamilyen architektúrát. Hanem, hogy az ökoszisztéma bizonyos részeit nem sikerült kellő mértékben, vagy időben vagy irányban befolyásolni.Az NV tökéletesen jól csinálta. De nem csak azt, hogy épp annyi fícsőrefjlesztést hajtott végre az architektúrán, ami pont kellett. Hanem azt, hogy az architektúráját és a drivereit és az api környezetet is sikeresen tartotta kézben, sikeresen terelte a számára kedvező irányba.
A fasat-path-ok beépítését, amiket Abu említett akkor engedheted meg magadnak, ha a másik oldalról biztos vagy, de legalábbis minden megteszel annak érdekében, hogy az api környezet, amire építed az architektúrád gyors és hatékony működését nem fog megváltozni.Tehát mégegyszer: azt értsd meg, hogy nem pusztán az történt, hogy az AMD és az nvidia is fejlesztgette szépen a kis architektúráját és az AMD túl nagyot álmodott, mellélőtt, stb, az nvidia meg betalált. Az nvidia is és az AMD is nyilván mindent megtett annak érdekében, hogy a környezetet (api, middleware, stb) az architektúrájának optimális irányba terelje. Ezt korábban az nvidia sikerrel hajtotta végre. Az átmenetnek, ahogy az AMD épp formálja a maga képére ezt a környezetet most vagyunk szemtanúi. Persze a meccs nincs lejátszva. Az, hogy az AMD kikényszerítette, vagy kikényszeríteni látszik egy API fejlődést még nem jelent egyértelműen piaci sikert is. Holnap az nvidia előállhat egy olyan architektúrával, amelyiknek sokkal jobban fekszik a DX12, mint a GCN-nek. Ha politikusokról beszélnénk, azt mondanám: pont ezt fogja csinálni és úgy fogja előadni a DX12-t, mintha ők akarták volna eredetileg is.
(#24187) HSM
Szerintem 2005-2006-ban, amikor lerakták a bulldozer első építőköveit még nem látszott az, hogy a többszálúsítás hol és mikor fog kifulladni. Épp akkortájt jelentek meg az első Core2-k. Szerintem racionális volt azt gondolni, hogy 1-2 év leforgása alatt a szoftveres környezet adaptálódik a növekvő magok számához és 2010-2011 környékén már igény lesz a 4-nél több szálat kezelni képes processzorokra. A bulldozer egy olyan olcsósított architektúra volt, ami ugyan nem sikerült jobbra mint a korábbi K10 magok, de alkalmas volt a további skálázódásra. Terv szerint jött volna a Vishera után a 10 magos Komodo.
Szerintem itt se pusztán az történt, hogy elkalkulálták magukat. Persze a versenytás keresztülhúzta a számításait. Az intel minden tőle telhetőt megtett annak érdekében, hogy a saját architektúrája előnyösebbnek tűnjön. Az bizonyos hogy az intel compilere bizonyos műveleteknél egy nem intel processzor esetén a biztonság és kompatibilitás érdekében inkább nem a hatékonyabb, gyorsabb utasításra fordította a programot. Tette ezt egészen addig, míg le nem bukott és míg behozhatatlan előnyre szert nem tett IPC tekintetében, amikor már az IPC magáért beszélt.(#24192) Loha
A Core2-ig csak frekvencia és IPC volt. Onnantól számított a magszám is és utána már e három tényező optimális arányáról kellett gondolkodni. Ahogy fentebb is említettem, szerintem 2005-2006 környékén jogosan gondolhatta, hogy 4-5 év múlva jobban fog számítani az 1-2 évente duplázható magszám, mint az 1-2 évente 5-15%-ot emelkedő IPC vagy frekvencia.(#24209) Ren Hoek
A GCN egy stratégiai terv. Ami egyelőre nem hozta meg a piaci siker gyümölcsét. Ezzel együtt egyáltalán nem biztos, hogy lenne még AMD, ha akkor nem ezt az utat járják.
A GCN nagyjából egyidős az első x86 konzolokkal. Abu mintha mondott volna ilyesmit, hogy a GCN tudása soktekintetben azt tükrözi, amit akkor a konzolgyártók kértek.
Ahogy HSM kolléga is mondta, hogy a GCN-nel együtt házalt az AMD a Mantle ötletével.
Ahhoz képest, hogy az AMD az egyik legkisebb cég ezen a piacon, elég szépen haladgatnak a stratégiai terv végrehajtásával:
Fejlesztettek egy nagytudású, rugalmas architektúrát. Megszerezték a konzol piacot hardver tekintetben, amivel jókora piaci részesedést szereztek az architektúrájuknak a gamer piacon. Készítettek hozzá egy apit, ami ma már gyakorlatilag standarddé vált. A konzol piac megszerzésével rákényszerítették a fejlesztőket a GCN ismeretére és a GCN-hez való kódolásra.Nem látom gyümölcsözően sikeresnek én se. De vajon hol lenne az AMD a GCN, mint stratégiai terv nélkül? Milyen perspektívák állnának előtte?
Azzal egyébként egyetértek, hogy az újrakiadott nem csúcskártyákat, amiket csak átcímkéztek, igazán kiherélhették volna. Egy nem csúcskártya semmiképp sem lesz időtálló, akkor meg már inkább fogyasszon kevesebbet, legyen kisebb és olcsóbb.
-
A piaci részesedés nem csak a terméktől, hanem a marketingtől is nagyban függ. Sikeres termék != jó termék.
Ez egy szakmai topik. Ha nem érdekel a technika, akkor nem kell hozzászólni, mivel nincsenek érveid.
Egyébként meg nem mondtam, hogy AMD-t kell venni, nekem se az van. Ezt is valahogy mindig sikerült idekeverni, ahogy a fanboyságot is. Ez az egész már olyan, mint a politika, csak itt zsidózás meg nácizás helyett a fanboyozás, abuzás meg zöldszemüvegezés megy.
-
Ren Hoek
veterán
válasz
lezso6 #24206 üzenetére
Pusztán kapitalista indokokról van szó. Üzletileg a GCN tévút volt. Ennyi.
Talán a helyes megoldás az lett volna, hogyha párhuzamosan fejlesztik. Kiadtak volna pár éve egy kiherélt, minden felesleges feature-től megszabadított GPU-t, és mellé a kísérleti GCN-t full modern tudással.
Előbb átnyomni az API-t, utána kiadni a HW-t...
-
namaste
tag
Akkor gyorsabb a GCN, ha van async compute, az AGS csak hab a torán.
Hasonlítsd össze az RX 480 - GTX 1060 vagy az RX 460 - GTX 1050Ti eredményeit, van összefüggés a számítási teljesítmény és az FPS között.
Az RX 480 +30% számítási és -30% ROP teljesítménnyel 20-30%-kal több FPS-t ad.
Az RX 460 ugyanannyi számítási és fele ROP teljesítménnyel 10%-kal kevesebb FPS-t ad.Bekötési modell: nem értem miért járna több processzorterheléssel. GCN-ben az az SGPR-ben vannak a leírók, NV-nél a konstans memóriában, mindkét cég hardvere úgy van felépítve, hogy optimálisan kezelje.
Tehát nincs kötelező RS szabály, akkor abba belefér az NV ajánlása is, ha valaki NV-re akar optimalizálni, akkor megteheti.
-
Asbee
veterán
válasz
lezso6 #24206 üzenetére
így csak az az út lehet jó, amit az NV jár.
Elég viccesen hangzik ez itt. Lassan évek óta, pont az ellenkezőjét halljuk és akarjátok lenyomni a torkunkon.
hogy az NV-nek nagyobb a piaci részesedése
Szerinted miért nagyobb a piaci részesedése? Biztos a fél világ hülye igaz?
nem érdekel a jövő meg a technoblabla, most jó minden NV-n, kit érdekel az AMD?
A piacot miért is kell, hogy annyira érdekelje a nagy jövő és a technoblabla, főleg ha gyakorlatban nincs előnye? A nagy többség nem azért vesz kártyát, hogy évek múlva mikor már megy a süllyesztőbe elmondhassa, jajj de jó végre lett belőle valami amit ígérgettek. Ha most jó minden NV-n akkor azt veszem meg. Majd ha minden AMD-n lesz a jobb akkor azt veszem meg. És hidd el sokan itt ezzel így vannak!
Inkább az a primitív hozzáállás,hogy így vélekedsz azokról, akik évek óta végigzongorázták mindkét oldal kártyáit esélyt adva és fórumokon írták a tapasztalatokat, majd levontak egy következtetést. Te is ide tartozol vagy netán Abu tanított? -
Sose fogják (akarni?) megérteni miről beszélsz. Alapvetően a mai helyzetet veszik alapnak, hogy az NV-nek nagyobb a piaci részesedése, így csak az az út lehet jó, amit az NV jár. Az is baj, hogy az AMD nem elég pszichopátiás működésű cég, inkább jövőtálló, rugalmas architektúrát csinál, ami a fejlesztőknek kedvez, stb. Ha pedig minden érv elfogyott, akkor jön a primitív hozzáállás: nem érdekel a jövő meg a technoblabla, most jó minden NV-n, kit érdekel az AMD?
-
HSM
félisten
válasz
Ren Hoek #24200 üzenetére
Legjobb tudomásom szerint már a GCN-el egy időben kopogtattak egy explicit API prototípussal a m$-nál....
Persze, hogy lassan indult el a vonat, de ugyanez lett volna a tempó, ha 2012-ben hozzák ki, csak akkor mára már nyakig ülnénk az azt kihasználó játékokban.
(#24201) TTomax: Pontosan ez történt, így utólag látjuk. De miért nem lett a korábbi gyakorlatnak megfelelően, időben bevezetve a villany? Erről meséltem az elmúlt posztokban....
(#24202) cyberkind: Villany nélkül a polírozott gyertya persze, hogy jobb.
(#24203) TTomax: A korábbi menetrendek mellett nem sokkal a GCN bemutatkozása után jönnie kellett volna hozzá megfelelő API-nak... Itt azért akadnak furcsaságok. Nyilván nem azért öltek bele időt, energiát a korábbi egyszerű architektúrájukból hogy egy bonyolultabbat csináljanak, hogy utána elvesszék a versenyt a megnövő fogyasztás miatt, kihasználatlanul hagyva, amit beépítettek....
(#24204) Loha: A DX9 kb. 4 évig futott, és 3 verziót élt meg ezalatt.
A DX10 pedig 3 évet, és közben 1 frissítést kapott. Ehhez képest a DX11 2009 óta van, 6 év telt el, komolyabb belső változások nélkül....
Teljesen időszerű lett volna 2012-13 körnéykén kihozni az utódját.... -
Loha
veterán
Nem járt jó úton az AMD, nem volt logikus amit csináltak, tudhatták előre, hogy a DX11 sokáig marad, ahogy előtte a DX9 is, meg a nem is a DX11 probléma, hanem a GCN. Az NV nem vár az MS-ra vagy játékfejlesztőkre, olyan újításokat hoznak, amihez nem kell harmadik fél, mint pl. a DCC, GPU Boost, vagy a Tile Based Rasterization a Maxwellnél.
-
cyberkind
félisten
Ez mind szép és jó, de ha annyira szar lenne a végletekig polírozott gyertya, akkor gyanítom nem a mostani piaci helyzet állna fent vga téren. Szóval ahogy nézem sokkal többen vannak azok akiket kicsit se érdekel mi mennyire előremutató a konkurenciánál (feltéve ha tényleg az), és csak játszani szeretnének (köztük én is), esetleg ezt kompromisszum nélkül 1440p-4K-ban, de az utolsó állítás inkább a szoftveren múlik mostanság.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Vezeték nélküli fülhallgatók
- QNAP hálózati adattárolók (NAS)
- Nvidia GPU-k jövője - amit tudni vélünk
- Futás, futópályák
- Az AI megeszi a szoftverpiacot?
- Kés topik
- A nagy Szóda, Szódakészítés topic - legyen egy kis fröccs is! :-)
- Xbox Series X|S
- Kormányok / autós szimulátorok topikja
- Metal topik
- További aktív témák...
- BESZÁMÍTÁS! Sapphire PULSE RX 7900XTX 24GB videokártya garanciával hibátlan működéssel
- GARIS - MSI GeForce RTX 3080 VENTUS 10 GB
- Eladó eVGA RTX3080 XC3 Ultra 10GB szuper videókártya dobozában!
- ASUS STRIX GTX 960 2GB
- Eladva,értékelésre vár !Hibátlan,garanciás Gainward GeForce RTX 4070 Ghost OC 12GB/ beszámolok
- iKing.Hu - Vivo X200 FE Blue Használt, újszerű állapotban 12 GB RAM / 256 GB tárhely Garancia!
- GYÖNYÖRŰ iPhone 13 256GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS2947
- BESZÁMÍTÁS! Gigabyte Aorus B450 R7 5700X 16GB DDR4 512GB SSD RTX 3060Ti 8GB ZALMAN I3 NEO 650W
- APC UPS 950VA (BX950MI-GR)
- Keresünk dokkolókat
Állásajánlatok
Cég: FOTC
Város: Budapest