2024. április 16., kedd

Gyorskeresés

Nvidia nevezéktan és árazás gyorstalpaló

Írta: | Kulcsszavak: nvidia . rtx

[ ÚJ BEJEGYZÉS ]

Frissítve 2023.05.23: időközben kijött az RTX 4070 és megtudtuk a 4060 illetve 4060 Ti specifikációit is, ezekkel frissítettem a táblázatot.

Olvasva a komment szekciókat elég nagy az egyetértés abban, hogy a 4000-es RTX-ek túlárazottak. Az, hogy a 4070 Ti mennyire túlárazott vagy sem attól függ, hogy kit kérdezünk meg. Az embereket három csoportra lehet osztani.
Az első csoport azt állítja, hogy ez a 3070 Ti "utódja".
A másik csoport azt állítja, hogy a 3080-hoz kell hasonlítani.
A harmadik pedig azt, hogy a 3090/Ti-hez és nekem úgy tűnik, hogy ők a legelfogadóbbak a $799-os MSRP-vel szemben, mert ha 3090-es teljesítményt akar az ember venni, akkor a 4070 Ti egész jó üzletnek tűnik.
Ez az utolsó csoport az, akikre láthatóan az Nvidia marketingje komoly hatással volt/van, ugyanis az Nvidiának éppen ez a célja, hogy az előző generáció csúcskategóriájához mérjük az új kártyát. Hogy ez miért probléma?
Az csúcskategóriás kártyáknak híresen rossz szokott lenni az ár/teljesítmény aránya, ezeket a kártyákat aránytalanul felárazzák a gyártók arra számítva hogy az emberek úgy is megveszik ha a max teljesítmény kell nekik.
Ergó ha ehhez hasonlítunk egy olyan kártyát, aminek úgymond elfogadható ár/teljesítményt kéne nyújtania, akkor önként eltorzítjuk az ítélőképességünket, az Nvidia malmára hajtjuk a vizet, a saját pénztárcánk ellensége leszünk.

Több videót láttam és kommentet is olvastam, amiben az illető valamilyen önkényesen, neki tetsző módon kiválasztott szempont szerint határozza el, hogy ez a GPU túlárazott-e vagy sem.
Vannak, akik a GPU-k mérete alapján gondolják ezt, mert ha x chip kisebb mint y chip, akkor olcsóbb kell legyen. Vannak, akik a memória méretét hasonlítják össze régebbi kártyákkal. Van aki a 192-bites busz alapján. Van aki a GPU kódneve alapján és van aki meg a kártya elnevezése (4070 Ti, ergo ez egy xx70-es) alapján.

Elmondom én mit gondolok.
1. a GPU mérettel az a gond, hogy nem veszi számításba a gyártástechnológiát. Ettől függ ugyanis mennyi tranzisztorból épül fel a chip és mennyibe kerül a chip. Ráadásul egy videokártya több komponensből épül fel mint egy GPU chip.
2. memória mérete, memóriabusz szélessége: komolyan?
3. az elnevezés jogos lenne ha álomvilágban élnénk. Az Nvidia neki tetsző és profitot maximalizáló módon úgy nevez el mindent ahogy csak akar. A márkanév az csak egy márkanév. Az évek során már elég sok átnevezősdit láttunk, szóval nem értem ezt miért hozzák fel még mindig egyesek.
4. a GPU kódnév ugyanúgy mint a kártya elnevezése arbitráris, az Nvidia úgy nevezi el a chipeket ahogy akarja.

Amit én gondolok az a következő: a DIY piac elég picurka a teljes PC-piacot figyelembe véve, és a teljes PC piacot az OEM-ek (értsd Lenovo, HP, Dell, Apple, Acer, Asus) és SI-ek (system integrator, lényegében PC-t építő cégek) irányítják. Ezek az OEM-ek nem a kártya GPU-mérete vagy neve vagy memória sávszélessége alapján, de mégcsak nem is a sebességük alapján rendelik nagytételben a kártyákat, hanem az ára és a TDP alapján. Ha pl. össze akarnak rakni 1000 db gépet amivel meg akarnak szabadulni 1000 db 500 wattos táptól akkor olyan VGA kell a gépbe ami max 200 wattot eszik (csak példa).
Ez szerintem elég egyértelmű, hiszen a TDP az egy állandó és objektíven meghatározható érték generációról generációra (egészen addig, amíg a gyártók el nem kezdenek vele trükközni) és úgymond előrevetíti a kártya teljesítményét, hogy mit lehet várni tőle.
100 wattos cucc? Belépőszint. 250 wattos? Az már elég komoly úgyhogy felső kategória.
Ergó szerintem a generációk között a leglogikusabb a TDP alapján meghatározni, hogy melyik GPU melyik előző generációs GPU-nak a leszármazottja, leváltója.
Összeírkáltam és TDP szerint csoportokra osztottam a GeForce-okat a Fermi megjelenésétől kezdődően így ebből elvileg ki kéne derülnie, hogy melyik kategóriában mely videokártyákat találjuk, és hogy pl. a 4080-at és a 4070 Ti-t azt mihez kell hasonlítanunk.
Itt hangsúlyozom, hogy ez csak azt mutatja meg, hogy az Nvidiának mi volt a szándéka (milyen kategóriába szánta) az adott GPU-val a piacra lépés előtt (még a tervezőasztalnál), ezt viszont sok esetben a piaci folyamatok befolyásolják/-ták. Amikor a GPU túl jól sikerült, akkor magasabb tier-be rakható kártyákat építettek köré (vagyis drágábban adják, mint tervezték). Amikor viszont az AMD-nek versenyképes volt a válasza, akkor egy kategóriával lejjebb árulta az Nvidia (vagyis olcsóbban adják, mint tervezték).

Ezt a sok adatot összerendezve feltűnt egy kirívó esett, úgymond anomália. Nevezetesen a Kepler (GK104, GTX 680) anno túl jól sikerült, túl gyors lett az AMD ellenében és emiatt az Nvidia eme középkategóriás chip (GK104) köré építette a csúcskategóriás kártyáját (is). Ez látszik a fogyasztásán is.
A következő generációban megjelent GTX 770 ugyanerre a chipre épült, de feloldották benne a letiltott részegységeket és durván megemelték az órajelét, emiatt pedig a 700-as sorozaton belül bár középkategóriás kártya lett belőle, de a fogyasztása viszont megnőtt a kategóriájához képest.
Annyit még elöljáróban, hogy a Titánokat nem vettem számításba.

A kis kitérőt követően pedig íme a csoportosítások:

250 Wattos kategória (eredeti csúcs, mára felső-közép): x00->x02

GTX 480 (250W, GF100, 529 mm², $499)
GTX 580 (244W, GF110, 520 mm², $499)
GTX 780/780 Ti (250W, GK110(B), 561 mm², $649-$699)
GTX 980 Ti (250W, GM200, 601 mm², $649)
GTX 1080 Ti (250W, GP102, 471 mm², $699)
RTX 2080 Super (250W, TU104, 545 mm², $699)
RTX 2080 Ti (250W, TU102, 754 mm², $999) - halo

A 250 Wattos kategóriába a 2080 Super/Ti után nem érkezett több kártya. Az RTX 3070 egy ennél alacsonyabb, a 3070 Ti pedig ennél magasabb fogyasztású kategóriába esik. Az RTX 4070 (nem Ti) elképzelhető, hogy ide fog betagozódni. Itt már generációk óta elég stabilan tartja magát a $600-700 közötti ár és az Nvidia a 2080 Superrel használt itt először 04-es chipet. Ha a 3070/Ti-t ide vennénk, akkor az lenne a következő, tehát úgy tűnik ezt az ársáv már 04-eschipeknek lesz fenntartva $600 fölötti árcédulával.
Több die-méret összehasonlítós grafikont is láttam amelyeken az (x)x80-as GPU-kból vezették le, hogy pl. az RTX 4080-nak miért kéne olcsóbbnak lennie. Eleve a felsorolásból látszik, hogy itt nem mindegy melyik (x)x80-as variánst melyikkel hasonlítjuk össze, mert a 680, sima 980, 1080 és a 2080 már egy másik kategóriába tartozik csakúgy, mint a 4080.

200 Wattos kategória (eredeti felső közép, mára közép): x00->x04

GTX 470 (215W, GF100, 529 mm², $349)
GTX 570 (219W, GF110, 520 mm², $349)
GTX 680 (195W, GK104, 294 mm², $499) - anomália: túl gyors, emiatt x80-as
GTX 770 (230W, GK104, 294 mm², $399)
RTX 2070 Super (215W, TU104, 545 mm², $499) - az RX 5700 XT miatt kellett
RTX 2080 (215W, TU104, 545 mm², $699)
RTX 3060 Ti (200W, GA104, 392 mm², $399)
RTX 3070 (220W, GA104, 392 mm², $499)
RTX 4070 (200W, AD104, 295 mm², $599)

Ebben a kategóriában már jóideje 04-es végződésű chipek vannak, vagyis a jövendőbeli RTX 4070-nek ez a második lehetséges betagozódási pontja. A GTX 680 itt található mint anomália, ez volt az első eset, amikor az Nvidia középkategóriát célzó chippel (GK104) felsőkategóriás kártyát (GTX 680) gyártott (mivel az AMD nem volt elég versenyképes a HD 7970-nel). A 700-as sorozatban már ugyanerre a chipre épült a ténylegesen középkategóriás GTX 770 és bemutatkozott a valódi csúcs chip, a GK112 (GTX 780/Ti). Az is jól látszik, hogy az Nvidia az RTX 2070 Super és 2080-nal bepróbálkozott az ASP még feljebb tornászásával, ám a piac reakciója akkor még nem volt kedvező. De ami késik nem múlik.

150-180 Wattos kategória (eredeti közép, mára alsó közép): x04->x06

GTX 460 (160W, GF104, 332 mm², $229)
GTX 560 Ti (170W, GF114, 332 mm², $249)
GTX 660 Ti (150W, GK104, 294 mm², $299)
GTX 670 (170W, GK104, 294 mm², $399) - anomália: túl gyors, emiatt drága
GTX 760 (150W, GK104, 294 mm², $249)
GTX 970/980 (148-165W, GM204, 398 mm², $329-$549)
GTX 1070/1070 Ti/1080 (150-180W, GP104, 314 mm², $379-$399-$599)
RTX 2060 (160W, TU106, 445 mm², $349) - Nvidia eredeti szándéka
RTX 2060 Super (175W, TU106, 445 mm², $399) - RX 5700 miatt kellett
RTX 2070 (175W, TU106, 445 mm², $499) - Nvidia eredeti szándéka
RTX 3060 (170W, GA106, 276 mm², $329)
RTX 4060 Ti (160W, AD106, 120 mm², $400)

Érdekes felsorolás, találunk itt 60-es, 70-es és 80-as kártyákat is. Az Nv első vásárlók elleni merénylete itt az volt, amikor 06-os chipre építette az RTX 2070-et (és a 2060-at is), vagyis pofátlanul egy alsókategóriás chipre épített egy középkategóriás kártyát amit ráadásul drágán, $499-ért adott, de az RX 5700 XT piacra dobása miatt végül a 2070 Supert volt kénytelen válaszolni, ami már 04-es chipen alapul. A Turing generációban nagyon nagyok a magméretek, ezért sem lehet a magméretre alapozni.
A 970/980-as időszakában az AMD még valamennyire versenyképes volt, viszont az 1070/1080 ellen már nem volt semmije (csak a későn jövő Vegák), és erre vezethető vissza az Nvidia későbbi igen bátor lépése (2070) illetve az is, hogy a Maxwell majd a Pascal 04-et már 2 aztán 3 féle SKU-ban árulta az Nvidia: a GTX 980/1070-Ti/1080 04-es chippel (tehát eredetileg középkategóriát célozva) de a szegmensre jellemzőnél magasabb áron került a piacra ami végül normalizálódott. A legegyértelműbb átváltozáson ez a szegmens ment keresztül, 04-es chipekkel indult, de mára már 06-osakat használ az Nvidia.

szerk: utólag vettem csak észre, hogy a Pascal->Turing generációváltást az Nvidia eléggé elsunnyogta ebben a szegmensben. Az RTX 2060 vs GTX 1070, 2060 Super vs 1070 Ti és a 2070 vs 1080 mind alig 20%-os gyorsulást hoztak, a 2070 vs 3060 pedig gyakorlatilag semennyit, a sebességkülönbség 0%! (a Techpowerup átlagolt eredményei alapján)

100-150 W között (alsóház): x06

GTX 560 (150W, GF114, 332 mm², $199)
GTX 660 (140W, GK106, 221 mm², $229)
GTX 960 (120W, GM206, 228 mm², $199)
GTX 1060 3/6 GB (120W, GP106, 200 mm², $199-299)
GTX 1660/Ti/Super (120-125W, TU116, 284 mm², $219-$279)
RTX 3050 (130W, GA106, 276 mm², $249)
RTX 4060 (115W, AD107, 146 mm², $299)

Itt nem nagyon változnak a dolgok, érdekes módon az ár is változatlan lassan egy évtizede (bár az RTX 3050 inkább $300 körül kapható $249 helyett).

100 W (belépőszint): xx6-xx7

GTS 450 (106W, GF106, 238 mm², $129)
GTX 550 Ti (116W, GF116, 238 mm², $149)
GTX 650 (65W, GK107, 118 mm², $109)
GTX 650 Ti (110W, GK106, 221 mm², $149)
GTX 750 Ti (60W, GM107, 148 mm², $149)
GTX 950 (90W, GM206, 228 mm², $159)
GTX 1050 Ti (75W, GP107, 132 mm², $139)
GTX 1650 (75W, TU117, 200 mm², $149)
GTX 1650 Super (100W, TU116, 284 mm², $159)

Ez itt lényegében a $200 alatti árkategória, itt sem nagyon történik semmi jó pár éve, kérdéses, hogy az Nvidia ebbe a szegmensbe egyáltalán akar-e még kiadni valamilyen videokártyát, vagy véglegesen lemond róla és meghagyja az APU-k számára.

300 Wattos kategória (új belépő a felsőházba)
GTX 690 (300W, 2xGK104, 2x294 mm2, $999)

RTX 3070 Ti (290W, GA104, 392 mm², $599)
RTX 4070 Ti (285W, AD104, 295 mm², $799)
---
RTX 3080 (320W, GA102, 628 mm², $699)
RTX 4080 (320W, AD103, 379 mm², $1199)

Az Ampere kártyák nem csak gyorsak voltak bemutatkozásukkor, de fogyasztásban is feljebb léptek pár lépcsőfokot. Itt a már 300 Watt környéki GPU-k sorában találjuk a 3070 Ti-t és a 4070 Ti-t is, ráadásul TDP-jük is szinte megegyezik, ezért én azt mondom, hogy a 4070 Ti-t a 3070 Ti-hez kell hasonlítani teljesítményben és árban is. Ugyanez igaz a 3080 és a 4080 összehasonlításában.
Ezek a GPU-k szerintem már nem kategorizálhatóak be a 200-250 Wattos korábbi csúcskártyák sorába (bár ott találjuk a régebbi xx80-asokat), mert már számottevően többet esznek, de ha nagyon muszáj lenne akkor azt mondanám, hogy a 3070 Ti-t a 2080 Superhez kéne mérni (ami persze nem teljesen fer, mert a 3070 Ti 16%-kal többet fogyaszt). A 3080 fogyasztása már 28%-kal magasabb, ez szerintem már egyértelműen egy új kategória.

350 Wattos kategória (új felsőház)
GTX 590 (365W, 2xGF110, 2x520 mm², $699)
RTX 3080 12 GB (350W, GA102, 628 mm², $799)
RTX 3080 Ti (350W, GA102, 628 mm², $1199)
RTX 3090 (350W, GA102, 628 mm², $1499)

400+ Wattos kategória (új abszolút csúcs/halo szegmens)
RTX 3090 Ti (450W, GA102, 628 mm², $1999)
RTX 4090 (450W, AD102, 608 mm², $1599)

És végül itt az új top-top-top maximum, ami korábban szintén nem létezett...pontosabban a dual GPU-s kártyák végülis ide besorolhatók. Érdekes kérdés lehet, hogy az Nvidia folytatni kívánja-e a hagyományt majd ezekkel a 450 Wattos szörnyekkel, vagy csak amiatt volt rájuk szükség, mert először a 3090 Ti-vel be akarták magukat biztosítani a grafikonokon a 6950 XT ellen, másodszor pedig mert a 4090-nel túltolták a chipet attól félve, hogy az RDNA3 brutálgyors lesz.
Ha kijönnének egy 4090 Ti-vel akkor az lehet, hogy egy újabb, még magasabb fogyasztású kategóriába esne (500W?), nem látom sok értelmét. Inkább arra számítanék, hogy további részeket tiltanak le az AD102-ben vagy a teljesen működőképes AD103 köré építenek egy 4080 Ti-t és az lesz a 350 Wattos 3080 Ti utódja (csak hogy a 7900 XTX magabiztosan verve legyen).

Jól látható (de nem meglepő), hogy az Nvidia egyre inkább elmozdult az egyre erősebb GPU-k felé, a termékpalettájukon immár egy rakás drága VGA található míg a belépő és alsó kategóriákat eléggé hanyagolják. Nyilván a drágább kártyákon van több profit és az olcsó cuccokat az NV meghagyja az AMD-nek és az integált GPU-knak. Bár az csak most fog igazából kiderülni, hogy ez egy hosszútávú elköteleződés vagy pedig csak a kriptobányászat miatt alakult így.

Köszöntem a figyelmet.

Hozzászólások

(#1) petakpa1


petakpa1
őstag

Érdekes megközelítés. Kíváncsi lennék még arra is, hogy ha a régebbi (A Fermi pl 12 éve debutált) kártyák USD-ben kifejezett nyitó MSRP árait felindexálnánk US CPI-al a mai szintre akkor hogyan viszonyulna 4070 Ti e megközelítés szerinti társaihoz...

(A mások gondolatom pedig az, hogy a mai PC-s Gamer nemzedék jellemzően 30, 40, akár az 50-es éveiben is jár már, önálló keresete van és megengedheti magának az ilyen drága kártyákat. A mai 10-20 éves fiatalok már konzolon nőttek fel szerintem és nem releváns számukra PC mint gaming platform. Persze lehet, hogy totál rosszul gondolom ezt, nem szeretnék hitvitát nyitni belőle, csak zárójelben legírtam véleményem.)

"... Feltalálom a hidegfúziót oszt reszeltek az amcsiknak...":)))

(#2) fLeSs válasza petakpa1 (#1) üzenetére


fLeSs
nagyúr

GTX 480, 2010-es megjelenés, $499 nyitóár ami most $630-680-at ér (többféle kalkulátort kipróbáltam, mind más értéket ad vissza).
De ahogy írtam a bejegyzésben a 4070 Ti az már egy magasabb kategóriában van (az én gondolkodásom szerint :) )mint pl. a GTX 480 volt, 2010-ben a 4070 Ti inkább GTX 490 lett volna (egyébként elvileg létezett egy ilyen elnevezésű dual GPU-s kártya ami sosem jelent meg).
Ha ez a hipotetikus (egy GPU-s) GTX 490 létezett volna akkor az nem $499 lett volna, hanem $599 vagy több ami egyébként inflációval felszorozva most $750-800.

[ Szerkesztve ]

"I press keys on a keyboard all day and click a mouse in front of a glowing rectangle. Somehow that turns into food and shelter."

(#3) Angie™


Angie™
addikt

Nagyon érdekes és értékes összegés, köszönjük

⏺︎ Bankot váltanál? Segítek! Küldök meghívót! ⏺︎ Gránit Bank meghívó az ajándék 10.000Ft-ért, belépési bónusz: 10+40e ⏺︎ K&H Bank meghívó az ajándék 10.000Ft-ért, belépési bónusz 10+40e ⏺︎ Részletekért keress priviben! ⏺︎

(#4) ergoGnomik


ergoGnomik
tag

Szerintem túlgondolod. Ameddig igaz egy generáción belül az x50 < x50Ti < x60 < x60Ti < x70 < x70Ti < x80 < x80Ti < x90 < x90Ti egyenlőtlenség* grafikus teljesítmény szempontjából, addig az NVIDIA helyesen határozta meg az alsó-, közép-, felső- és csúcskategóriákat.

Az energiafelvétel az integrált nyers számítási és grafikai teljesítmény, az újabbnál újabb grafikus technológiák** és az elérhető gyártástechnológia*** egyenes folyománya. Azon menedzsment technikákkal lehet optimalizálni, de csodákat elvárni felesleges. Így nem látom értelmét ezzel összevissza módosítani a gyártó osztályozását. Főleg, hogy általában az optimalizálás sem egyenletesen fejlődik.

Az árat az előbbi tényezőkön túl a versenyhelyzet és a befektetői elvárások mozgatják az "elkerülhetetlen" infláció**** mellett. Ameddig az Intel vagy az AMD nem gyárt versenyképes termékeket piaci nyomást képező mennyiségben, addig az NVIDIA kényelmesen árazhat piacvezető lévén. A befektetőkre meg szót sem érdemes vesztegetni, mindenki tudja milyen logika hajtja őket.

* A Super és egyéb különc kiviteleket mindenki gondolja a helyére szépen saját maga vagy gondolatban húzza ki, ha valamelyik generációban kimaradt. :)
** Gondold végig az egymást követő generációk időről időre mekkora funkcionális ugrásokat hajtottak végre és ezek mekkora áramkörterület növekedést váltottak ki!
*** Egy Samsung 8nm -> TSMC 4nm váltás például szerintem a "megváltás" kategóriát súrolja. :)
**** Amibe bele lehet érteni az egyre dráguló integrált áramkör és nyomtatott áramkör gyártást is. És sajnos ezen az oldalon is ott ólálkodnak a befektetők.

(#6) vrob válasza fLeSs (#2) üzenetére


vrob
tag

Rendkívül hasznos összefoglalás és levezetés!

Talán van remény, hogy a 3xxx esetén történt TDP ugrást nem tolja még jobban ki az NV.
Így lehetne majd 4060 160ezer Ft körül vagy éppen 4050 120ezer Ft-ért.

(#7) b.


b.
félisten

Érdekes megközelítés.
Nem mindennel értek egyet illetve nem támogatom egészen ezt az osztályozást, de van benne logika.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

További hozzászólások megtekintése...
Copyright © 2000-2024 PROHARDVER Informatikai Kft.