Pascal VS Maxwell

Bevezető

Ritkán fordul elő, hogy két GPU-mikroarchitektúra egy az egyben összehasonlítható, még akkor is, ha relatíve közel állnak egymáshoz - az újabb chipekben jellemzően szokott lenni egy olyan hangsúlyos terület vagy trükk, ami miatt egy az egyben nem feleltethetők meg egyetlen korábbi variánsnak sem. AMD oldalon idén szerencsénk volt, az RX 470 pont az R9 380X megfelelője lett, amit a computerbase rögtön meg is vizsgált - az derült ki, hogy az új architektúra játéktól függően 1-15%-kal jobb az előzőnél, és a CB játékmixében az átlag kb. 7%-ra jött ki. nVidia oldalon azonban nem volt ilyen jó lehetőség az összevetésre - a legnagyobb kihagyott "ziccer" a GTX 1070 volt, amit 2048 ALU-val pont jól meg lehetett volna futtatni a GTX 980 ellen, de az 1920-szal pont semmire nem megyünk.

Érdekes módon azonban az 1000-es széria kiteljesedésével az alsóházban felbukkant egy megoldás a fenti problémára - a GTX 1050Ti pont azzal a konfigurációval rendelkezik, mint a GTX 950. Adta magát a lehetőség, hogy a nyári GTX 950-es méréseim órajelein megfuttassam ezt a kártyát is - az eredményeket pedig egy rövid szösszenetben közzétegyem.

Mythbusting #2: az IGP-kről és a belépő szintű VGA-król

Bevezető

Jó estét a kedves nézőknek, mai adásunkban egy újabb népszerű hülyeséget igyekszünk megcáfolni. Szerte a VGA-topikokban rendszeresen felbukkan az a hiedelem, miszerint a CPU-kba épített IGP-k már-már elérik a 100 USD árszintű videokártyák sebességét. Ebben van is egyfajta igazság - amikor az IGP HD-felbontásban üzemel alacsony beállításokkal, a VGA pedig fullHD-ben magas beállításokkal, akkor gyanúsan közel állnak az FPS-ek. Mindamellett nem volna rossz lemérni, hogy azonos beállítások mellett mire képes a két megoldás - ennek érdekében előrántottam a HD 530 teszt eredményeit, és ugyanazokkal a beállításokkal megmértem az RX 460-at. Alább az eredmények.

Tesztek

Íme az összevetés átlagos FPS-ek terén:

Hát... adódott egy kis eltérés, történetesen a 460 javára. A legrosszabb esetben is 2.7x gyorsabb a diszkrét VGA, ráadásul a GRID 2-ben némi CPU-limit is bejátszik. A Witcher 3 hétszeres különbsége pedig már a mulatságosba hajlik.

GTX 960 vs GTX 950 azonos órajeleken

Bevezető

Miután szeretek áskálni a hardverek lelkivilágában, számtalan olyan cikket írtam már, ahol azonos órajelek mellett vizsgálgatok GPU-k közötti különbségeket. Ezúttal a GTX 950 és a GTX 960 viszonyát veszem górcső alá, ahol az órajelek kiegyenlítése után csak annyi a különbség, hogy a 960-ban nem elhanyagolható mértékben, 33%-kal több ALU / cuda core / számoló / stb. és textárázó aktív. Ha a kártyákon belül kiegyensúlyozott a számolók és a backend viszonya (valamint van elegendő frontend kapacitás), akkor ez a 33%-nyi számoló és textúrázó 15-20% extra teljesítményt jelent. A frontend terén a GM206-os chip alapvetően rendben van, és ROP-ból is van benne elég, viszont a memória-sávszélesség meglehetősen szűkös - gyanús tehát, hogy a 960 számára a több ALU nem fog annyira jelentős előnyt hozni, mint ahogy azt a fenti feltételezés mutatja. Lássuk, mit mutatnak a mérések!

Megjegyzés: a két kártya mérései nem ugyanazzal a konfigurációval készültek. A driverek közötti eltérés (355.82 vs 368.81) nem bír jelentőséggel (ezt a 950-nel megnéztem), viszont a a 960-at 1-2 esetben kicsit limitálja a gyengébb CPU, erre külön kitérek, ahol szükséges.

Hatékonyság az elmúlt 2 VGA-generációban

A 2014-es évben megjelenő Maxwell architektúrával az nVidia jelentős előnyre tett szert hatékonyság terén - mind az egy wattra, mind az egy tranzisztorra eső sebesség jelentősen jobb volt a zöldek VGA-in. Az új generáció megjelenésével érdemesnek tartom megvizsgálni, hogy változott-e az egyensúly, és ha igen mennyire.
Ezen felül, mivel a status quo nagy részben DX11-es játékokra épül, megnéztem ezeket a mutatókat a low level API-k első igazán ígéretes képviselőjére, a Doom Vulkan leképzőjére.

Kis magyarázat a grafikonokhoz:
- Az alapadatok nagyrészt a hardware.fr-ről származnak, a Doom FPS-értékeket a pcgamer.com-ról vettem (két kártya, a 390X és a Titan X esetén extrapoláltam a 390-ből és a 980Ti-ből)
- Az egyes mutatók szimpla osztással keletkeztek, azaz az FPS-számokat elosztottam a tranzisztorok milliárdban kifejezett számával (pl. GTX 960 - 2.94), ill. a fogyasztás 100W-os egységeivel (pl. GTX 960 - 1.17)
- Egyes csöveken %-os értékek is látszanak - ezek azt mutatják, hogy az adott nVidia kártya mennyivel jobb az adott mutatóban, mint a vele azonos kategóriába sorolható AMD

Műszaki elemzés - mekkora előrelépés a Polaris 10?

Bevezető, műszaki adatok

2016. június 29-én az AMD jött, látott és győzött - volna, ha szokás szerint nem barmolják el a fogyasztás / hűtés kérdéskört az RX 480-ban. A kártya 200, ill. 240 USD áron még így is nagyon vonzó - remélhetőleg az egyedi hűtésekkel a fenti problémák a sírba kerülnek, és akkor egy minden tekintetben kifogástalan új ár / teljesítménybajnok lesz a piacon. A kártya ezen aspektusa is megérne egy alapos elemzést, mert az összes olyan szempont szerint nagyot domborít, ami csak eszembe jutott - sajnos erre most idő hiányában nem kerül sor.

Mindenképpen érdemes viszont alaposabban belenézni a műszaki adatok és a teljesítmény viszonylatába - egyrészt azért, mert ezzel egyik tesztoldal sem foglalkozik, másrészt azért, mert ennek a későbbi 14nm-es Radeonokra is komoly kihatása lehet.

Nem lehet 100%-osan biztosra venni, de munkahipotézisként tekintsük úgy, hogy az RX 480 a teljes értékű Polaris 10 chipet tartalmazza, tehát egy Tier3a GPU-ról van szó. Ennek az előző generációs megfelelője a Tonga alapú R9 380X - nézzük, hogy fest egymáshoz képest a két chip:

Mythbusting #1: A GPU-k növekedése - mennyit ér a több shader-egység?

Bevezetés

A CPU-k piacán már hosszú évek óta nyitott kérdés, hogy a több maggal vagy a magasabb órajellel jutunk-e előrébb. Egyelőre a magasabb órajel (és a magasabb IPC) tűnik nyerni, de pl. játékok terén akár komoly változások elé is nézhetünk a DirectX 12-vel. Ugyanez a kérdés sokkal komplikáltabb a GPU-k esetében, hiszen ezekben a chipekben eleve tucatjával vannak a különféle részegységek (sőt, az ALU-k ezresével) - akár gondolhatnánk azt is, hogy ez a kérdés itt eldöntött tény. Mégis, a 2016. közepe táján esedékes új generációs VGA-król azt rebesgetik, hogy nem fog jelentősen nőni bennük a számításért felelős erőforrások száma - akár az AMD, akár az nVidia műhelyéből származó GPU-król legyen szó. Mi lehet ennek az oka? Azt ugye már régóta tudjuk, hogy az nVidia GPU-k jól skálázódnak az egységek számának növelésével, az AMD-sek meg kevésbé, tehát az AMD oldaláról logikusnak tűnik ez a lépés - ennek ellenére az nVidia is ebbe az irányba halad. Miért? Egyáltalán, helyes a fenti állítás az nVidiák skálázódásáról? A Kepler generációban bevezetett GPU Boost behozott némi bizonytalanságot a mérések kiértékelésébe, ezért míg a nominális órajelek alapján pl. a GTX 980 és a Titan X közötti különbség reálisnak tűnik, a gyakorlatban lehet, hogy mégsem olyan egyértelmű a helyzet. Érdemes ennek utánajárni.