Hirdetés

2024. április 27., szombat

Gyorskeresés

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2017-08-30 10:47:05

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#4351) TESCO-Zsömle válasza Angel1981 (#4349) üzenetére


TESCO-Zsömle
félisten

Csak hogy az nVidia a nyers teljesítményt helyezte elsődleges szempontnak és nagy, monolitikus chipekkel operál még mindig.

Az AMD energiagazdálkodásban is sokkal jobban áll. Biztos vagyok benne, hogy az új cGPU-khoz is nagyon hatékony PowerPlay társul majd, ami (akár csak a Bull esetében) képes lesz kikapcsolni az éppen nem üzemelő egységeket.

Nem ellenzem a fejlődést. Miért? Szerinted a fejlődés kimerül abban, hogy adott feladatot gyorsabban tud megcsinálni? Mert a cGPU lényege pont az lesz, hogy olyan dolgokra is képes, amire eddig nem. Mi ez, ha nem fejlődés? Még akkor is, ha a teljesítménynövekedés kisebb lenne.

Igen, és pont azért csak 15%, mert törölték a csíkszélesség-csökkentést. A Full-node-ra átállásnak meg lett volna az az előnye, hogy gyártástechnológia szempontjából szinkronba kerül a GPU és a CPU, ami megkönnyíti a Fúziót.

Nem, tényleg nem. De eddig az se volt megszokott, hogy te állítod be a proci TDP-jét, szervereknél mégis ez a helyzet...
A dolgok változnak...
Egyrészt az nV a HPC piac miatt már nem képes igazán versenyképes GeForce-okat állítani a teljes Radeon palettával szembe. Teljesítményben persze ott vannak, de milyen áron? +50-100W...
AMD-nél a Fusion a prioritás. Minden oda dolgozik. A Bull, és a cGPU is.

A Llano most Bobcat+Evergreen. A következő generációban megkapja a Bull magot, az azutániban a Bull bizonyos egységeit felváltják a cGPU CU-jai. A magok részeivé válnak a GPU számolóegységei. Nem csak mellette lesznek. Többek között ezért is olyan moduláris a Bulldozer felépítése, amilyen.

[ Szerkesztve ]

Sub-Dungeoneer lvl -57

(#4352) Angel1981 válasza TESCO-Zsömle (#4351) üzenetére


Angel1981
veterán

Lehet, most már tisztázni kéne, hogy ki milyen szemszögből nézi.
Én kizárólag játékos szemszögből nézem, Te meg ahogy elnézem nem (ami persze nem baj), és lehet, ebből adódik a nézeteltérésünk.

Válaszaim:

Igen, de ezek a cGPU-k a puszta grafikus megjelenítésben nem olyan hatékonyak, mint a "sima" GPU-k. (Legalább is jelenleg, és még egy ideig biztos így lesz.)

Lehet, de mi most a max. TDP-ről beszélünk, nem a nyugalmiról, és nem az átlagosról.
Márpedig ha a max. ennyi az sok mindent elárul a várható teljesítményről, ugyanis a puszta architektúraváltással nem lehet csodát tenni ( a korábban említett Pentium-Core egy ritka kivétel).

Játékok szempontjából mi értelme "hogy olyan dolgokra is képes, amire eddig nem" ha egyszer nem használja ki, legalább is jelenleg nem?

Lehet, hogy most megkönnyítette volna, de ha ez lenne a cél, eleve nem lett volna tervbe véve a 28 nm. A TSMC amúgy is mindig half node-okban volt jobb, jövőbeli terveik közt szerepel a 20nm és a 14nm, másról nem nagyon van szó.
Arról nem is beszélve, hogy a jövőre nézve pont hogy úgy néz ki, hogy a full node fog eltűnni. Az Intel és az AMD is a 22 nm után 14-et tervez, utána meg 10-et.

Az utolsó 2 bekezdésedben tárgyaltakat meg tudom, nagyjából és egyetértek velük.

[ Szerkesztve ]

(#4353) TESCO-Zsömle válasza Angel1981 (#4352) üzenetére


TESCO-Zsömle
félisten

Akkor talán leszögezhetted volna az elején a szempontjaidat.

Azt, hogy ezek a cGPU-k mennyire jó hatásfokkal végzik a grafikus megjelenítést, csak a tesztekből tudjuk meg. Egyenlőre annyit tudunk, hogy az nVidia cGPU-inak rossz a hatásfoka, de az nVidia a HPC szegmensre koncentrál, míg az AMD-nek az otthoni szórakoztatás az elsődleges célja.

Azt hiszem a HD69xx-ek bebizonyították, hogy a max TDP képlékeny dolog, ha működésbe lép a PowerPlay. Lásd, miként tartja kordában a 400W-os 6990-est. Ha megfelelően tagoltak a cGPU egységei, akkor egy részük lekapcsolva maradhat, míg pusztán grafiks igénybevétel van, ahogy a grafikához szükséges fix funkciós egységeket is le lehet kapcsolni általános számítások alkalmával.

Arra próbálok rámutatni, hogy az AMD az egész rendszert el akarja vinni a Bull-féle működés felé.

Csodák természetesen nincsenek, de egy csíkszélességváltás után 190W-os TDP-vel bíró GPU hozhatja a korábban 250W-os elődjének teljesítményét.
És ha a PowerPlay játszik, ez a 190W lehet úgy 190W, hogy a GPU negyede/harmada le van kapcsolva. Ez pedig megfelelhet egy 250W-os GPU-nak, ami nem képes lekapcsolni részegységeit külön-külön.

Másrészt -szintén PowerPlay- a 190W lehet kirakatszám az OEM-eknek. Egy SW-es kapcsolóval feloldható, és akkor ehet a kártya 250W-ot is... (id 6990)

Sub-Dungeoneer lvl -57

(#4354) gbors válasza Abu85 (#4336) üzenetére


gbors
nagyúr

hát sorry, de ez nem volt valami meggyőző ;) ha a +32 ROP-ot csak így lazán bele lehetne hajítani a chipbe, akkor miért nem tették bele a Caymanbe? szegény GTX580 csak pislogott volna, hol van előtte a konkurencia, és még úgy is kisebb lett volna az AMD megoldása.
szóval persze, spórolunk a 256-bites busszal, de ha tényleg 64 ROP lesz az új architektúrában, akkor annak a negyede tuti felesleges lesz, és az is költség.

a példa a megatextúrázásról pedig jó is, meg nem is. azt kitűnően bebizonyítottad vele, hogy a nem fix pipeline-os motorokhoz (népszerűbb nevükön szoftver rendererekhez) problémás ez a diszkrét GPU-s megoldás, mert egy rakás mesterséges korlátot támaszt - de jelen pillanatban nem sok olyan effekt van, ami annyira meghágja a raszterizációs pipeline-t, mint a megatexture. ehhez pedig kissé luxus HW-t fejleszteni, különösen, ha tekintetbe vesszük, hogy az id-nek mekkora sikere volt az utóbbi években a kommerciális motorok piacán.

persze ne érts félre, már jó ideje kívánom a raszterizációs cső halálát, csak éppen abban nem hiszek, hogy ezt így lépésről lépésre lehet csinálni. valakinek kellene lépni egy nagyot, aztán már mehetne is a lavina...

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#4355) Abu85 válasza gbors (#4354) üzenetére


Abu85
HÁZIGAZDA

Mert a ROP nincs ingyen a tranzisztorszámban, és a fogyasztásban sem. Egy dolgot kell nagyon észrevenni. A 300 dollár fölötti termékek eladása a teljes VGA-piacon 2% alatt van. Ide nem kell két terméknél több. Ha több van az nem jó, mert a 2% az nem sok. Kell egy 400 dollár alá, és egy 600 dolláros. Ez az ideális felállás. A költséghatékonyság sokkal fontosabb a piac jelenlegi viszonyát tekintve. Nem mellesleg a Cayman esetében kettőt kellett benyomni 300 watt alá. Ehhez használni kellett a PowerTune-t, de -20%-on ez sikerült. 64 blendinggel ez nem ment volna.

A texture streaminget ne felejtsd el. Az nem olyan terhelő, mint a megatexture, de rengeteg motorban ott van. Szintén kell a proci hozzá, és eléggé problémás dGPU-val. Persze nélküle még problémásabb lenne, de ezen is lehetne csavarni. A PRT ide is jó, persze itt megint a Fusion nyeri a legtöbbet a rendszermemória közvetlen elérése miatt. Ugyanakkor a dGPU-kon is segít, ha teljesen hardveres lenne a texture streaming.
Ezeknek egyébként a legnagyobb hátráltató tényezője, hogy az AMD támogathatja az x86 virtuális memóriát, míg az NVIDIA a licenc hiányában nem. Megoldják persze a támogatást I/O virtualizációval, csak ez már annyit jelent, hogy a nem egy, hanem két algoritmus kell. Aztán az NV-hez olyan platform is kell, ami IOMMU, vagy VT-d kompatibilis.
Én úgy gondolom, hogy ha valamit is akarunk még a PC-vel, akkor ki kell gyilkolni az API korlátjait. Össze kellene fogni a gyártóknak, és létrehozni egy közös architektúrát, ami a kritikus helyeken megegyezően működik, azaz natívan programozható. Ha ez nem történik meg, akkor szegmentált lesz a PC-s játékpiac. Esetleg ez akkor kerülhető el, ha az összes konzolba egy gyártótól kerülne GPU, de akkor sem lennénk kisegítve, mert akkor meg verseny nem lenne.
Én az összefogásra és a közös alapokra szavazok, legalább a kritikus részeket tekintve.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#4356) gbors válasza Abu85 (#4355) üzenetére


gbors
nagyúr

oh yes. és vajon mennyiért lehetett volna eladni egy 25%-kal gyorsabb kajmánt? mondjuk 600 USD-ért? :)
a powertune-nal meg az a szerencséjük, hogy ezeket a kártyákat főleg rekorddöntögetésre használják a tulajdonosaik, mert ez az órajelrángatós megoldás egyes játékokban valami borzalom.

a texture streaminghez egy jó prediktív algoritmus kell, és akkor mindjárt throughput terhelés lesz belőle. legalábbis az esetek 90%-ában, de ezt jelen pillanatban elfogadja a piac. ha ez hirtelen változna, az mondjuk ciki :)
a többivel egyetértek, csak az a gond, hogy nem látom a nagy képnek azt a részét, ahol diszkrét eszközt illesztes a rendszerbe - hogyan adsz neki megfelelő natív access-t a rendszermemóriához?

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#4357) Z10N válasza radi8tor (#4333) üzenetére


Z10N
veterán

:DDD

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#4358) Z10N válasza Abu85 (#4336) üzenetére


Z10N
veterán

Carmack-nek mindig is nagy otletei voltak. De a legfobb amit mindig is tiszteltem benne az a hardver teljes kiakanazasa (jelenleg: xbox360, dx9, rage gepigenye). Tekintve azt, hogy az AMD is hozzajarul ennek optimalizalasahoz ezekkel a textura/memoria eleresi rutinokkal egyre jobban bizok a Fusion APU-ba a dGPU-kkal szemben. Masik tema: ezekszerint nem is lesz HD7400, illetve nekem nagyon gyanus a HD7600 es HD7500 kozeli teljesitmenye. Avagy ebbol is latszik, hogy tomoriteni akarjak az also szegmenst.

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#4359) stranger28 válasza Mandarinn (#4316) üzenetére


stranger28
addikt

A 2 gigás témához egy kis adalék még. Megjöttek a kártyáim, ma kipróbáltam végre 1 óra játék erejéig és a crysis lazán megkajálta az 1100MB-ot fullhdban. És még nem is volt valami "pörgős" rész, csak az eleje. Szóval kell az. :)

[ Szerkesztve ]

(#4360) Angel1981 válasza Abu85 (#4355) üzenetére


Angel1981
veterán

"A 300 dollár fölötti termékek eladása a teljes VGA-piacon 2% alatt van."

Hallani, hogy a 100 USD-s kártyák meg 80%-ot képviselnek.

És a többi árkategória hogy képviselteti magát?

[ Szerkesztve ]

(#4361) Abu85 válasza gbors (#4356) üzenetére


Abu85
HÁZIGAZDA

Nem feltétlenül lett volna 25%-kal gyorsabb. Az AMD-től már hallottam, hogy a Cayman a dispatch részen gyenge, ezt a motort egy az egyben a Bartstól kapta meg, csak az már nem elég jó. A 64 ROP-ból jó ha 10%-ot nyernek. Többre nincs lehetőség. Ráadásul a rendszer is asszimetrikus lenne, mert a setup motor nem képes 32 pixelnél többre. Az extrákkal pedig szimplán kivitelezhetetlen lett volna a HD 6990. Vissza kellett volna venni az órajelet, és akkor a GTX 590 elverte volna, bár ez nem biztos, de sanszos lenne. Most viszont a HD 6990 a leggyorsabb rendszer. Tudják azok a mérnökök, hogy mit csinálnak, hiszen mind az asztali, mind pedig a mobil piacon egy Radeon a leggyorsabb.

Ez a fúzió következő nagy állomása. Az AMD három lépcsőre osztja az egészet. Az elsőt már ismerjük a Llanoval. Egy CPU és egy GPU egy lapkában, egy nagyon alacsony késleltetésű, és gyors busszal összekötve (Onion busz). Ez valószínűleg azért alakult így, mert az aktuális programokat CPU+VGA feldolgozásra írják, és nem lenne célszerű ennél többet csinálni. A Sandy Bridge erre jó példa, mert az Intel ennél továbbment azzal, hogy az IGP ír az L3-ba, de az inkább cache-szemetelés, mint jól kezelt fícsőr, amire az AMD gyártja is az összehasonlító videókat. [link] - Ez az egyik, de mindegyikben ugyanazt a koncepciós hibát használják fel, vagyis azt, hogy a Sandy Bridge IGP-je következmény nélkül piszkíthat 1,5 (HD Graphics 2000) vagy 3 (HD Graphics 3000) MB-ot az L3-ba, ezzel a procikat cache-missbe taszítja, és mehetnek a rendszermemóriához az adatért. Az egész azért súlyos, mert az adatok L3-ba való újratöltése után semmi sem garantálja, hogy a következő órajelben már nem barmol oda az IGP. Az egész egy konkrétan futtatott programnál kezelhető, mert az Intel a grafikus driverben szépen profilozza be a játékokat, és kapcsolgatja ki az IGP L3 írási funkcióját, ahol ez gond, de több program mellett ez nem kezelhető ilyen simán. Elég egy olyan program, ahol az IGP írhat az L3-ba, és már érezhetően megbomlik az egész rendszer hatékony működése. Az AMD a videóban a "biztonság kedvéért" (;]) két 3D-s programot is bevetett, hogy az IGP 6 MB-os területet barmoljon szét az L3-ban, ez konkrétan ugye az aktuális proci teljes kapacitása, így nem csoda, hogy a rendszer ennyire meghalt. Ha most csinálnák meg ugyanezt, akkor már kisebb lenne a hatás, mert az Intel már tiltja az L3 írás arra a Final Fantasy benchmarkra, így a videó elején mutatott másodperces akadások is megszűntek. Persze a sebesség kisebb, de a futás úgymond egyenletes. Ilyet még az NV rendezvényén láttam a Dead Rising alatt, amikor Igor játszott rajta, és az klotyóajtó 3 másodperc múlva nyílt ki, addig teljesen lemerevedett a kép. Azóta (áprilisi driver) ebben a játékban is tiltva van az L3 írás, így nincsenek akadások, csak folyamatosan 20 alatt az fps. Jó amúgy ez az írós koncepció, mert kétségtelen, hogy erre szükség van a hatékony CPU+GPU feldolgozáshoz, de jelenleg nulla program van erre felkészítve, és ez így lutri, mert vagy jól működik, vagy nem. Na de elkalandoztunk a tárgytól.
A következő fúziós lépcső a Trinity. Ez a lapka már majdnem kész, volt is belőle demó, így sokat lehet róla tudni. A működésben nagyon hasonlít a Llanora, vagyis az AMD továbbra is az Onion buszos összeköttetést tartja jónak, a programokra és a fentiekre való tekintettel. Annyi lesz a különbség, hogy a GPU része a rendszernek képes lesz több, teljesen független utasításfolyam párhuzamos futtatására. Ezzel például több OpenCL-es program is futhat egy időben. Szintén megjelenik a GPU C++ támogatása. Bár nem programozástechnikai dolog, de megváltozik az energiamenedzsment. A Llano esetén eléggé kimért a dolog, vagyis kvázi fix fogyasztása van a procimagoknak és a GPU résznek. A Trinitynél ez átlapolható, vagyis a proci durván turbózhat, ha arra van szükség, és akkor a GPU-rész alacsony órajelű módba kapcsol. Fordítva is előfordulhat persze, ha nagy GPU-erőre van szükség, ilyenkor a proci rész gazdálkodik. Úgy tudom a GTC-s rendezvényről, hogy alapértelmezetten 30%-os fogyasztásátlapolás lehetséges, de az egész módosítható lesz a Catalystból +/-10%-os irányban, vagy akár manuálisan vezérelhető, ezt mondjuk csak az expert felhasználóknak javasolja az AMD. A manuális rész persze picit gázos, mert nyilván ez a százalékos játék nem következményektől mentes. A lapka teljes fogyasztása fix, ha mondjuk +40%-ot power budgetet adsz a GPU-nak, akkor azt elveszi a procirésztől. Nyilván a manuális kontroll állandó hatás, vagyis jól kell ismerni az alkalmazást. Persze a legtöbb felhasználó úgyis az automatikus kontrollon hagyja, akkor pedig a hardver dönt a menedzsmentről. Szvsz az a legjobb.
A Trinity utáni lépcső a durva fúzió. Eddig csak nyalogattuk a heterogén feldolgozást, amire valóban van lehetőség a Fusion lapkákban, de az egész korlátozott. A harmadik lépcsőben közös címteret és teljesen koherens memóriát kap a CPU és a GPU, továbbá a GPU kezelheti az x86 virtuális memóriát CPU pointereken keresztül. Ezt hívja az AMD architekturális integrálásnak. A chip kódneve nem ismert, de nyilván ez a következő állomás a Trinity után. Valószínűleg ez a lépcső két lapkát is eredményez, mivel a 16 nm messze van, így addig belefér egy upgrade, jelentsen az bármit is. A heterogén éra utolsó lépcsője, vagy mondjuk úgy kiteljesedése pedig az AMD szemében rendszerszintű integráció. Erről még nagyon kevés adat van, és ez még nekem sem teljesen világos, de amolyan Cell-szerűvé vállnak majd a chipek, az előny, hogy logikai szinten eltűnik a különbség a CPU és a GPU között. Az AMD-nél ennek az előjele a Bulldozer modulos felépítése, nyilván ez az architektúra az elkövetkező 5-7 évet meghatározza az AMD-nél, hiszen mindent alárendeltek az alapok fejlesztésénél a Fusion terveknek.

A Kaigai blog előrejelzéseiből az Intel is ugyanezt az utat járja be, némi eltéréssel. Nekik ugye az első APU-juk az Ivy Bridge, ami folytatja a Sandy L3 írást, remélhetőleg jobb felügyelet mellett. A következő chip a Haswell, ami szintén erősít a CPU és a GPU kapcsolatán, de inkább a CPU fejlesztését helyezi előtérbe, ellentétben az AMD filozófiájával. Ugye itt az AVX2, mint újdonság, ami előnyt jelenthet. Nyilván a tick-tock miatt lesz egy szokásos upgrade, illetve az úgynevezett, vagy AMD-nél látható architekturális integrálás lépcsője nem igazán valósul meg. Majd végül, nagyjából hasonló időben (pontos időpont nincs, de mindkét cégnél úgy 2015-2016-ot jelent ez) az Intel is eljut rendszerszintű integrációhoz, ami a náluk annyit jelent, hogy a Larrabee-szerű magok beköltöznek a prociba a főmagok mellé. Ez is amolyan Cell-szerű minta. Itt is eltűnik a logikai különbség a CPU és a GPU között. Már ha a Larrabee magokat valaha is GPU-nak tekintettük. :)

Az NVIDIA esetében nincs ilyen előrejelzés, de az irányt nem nehéz kitalálni. Náluk a Tegra 4 lesz az első APU. Az I/O koherencia a CPU és GPU között biztosítható, ha felhasználják az ARM MMU-400 buszát (ez ugye a miért ne eset, mert hát csak egy licenc kérdése az egész :) - persze biztosat nem lehet tudni). Ezzel 2012-ben ez lenne a legmodernebb chip az APU integrációt tekintve. A következő lépcső náluk a project denver, és nagyjából ugyanazt az utat járják, amit az AMD időbeli lépcsője, vagyis közös címtét és teljesen koherens memória a CPU és a GPU között, illetve a GPU kezelheti az virtuális memóriát. Itt ugye az x86 hiányában az ARM-ra kell építeni. Ennél tovább nem teljesen ismertek az NV lépései. Annyit tudunk, hogy a fejlesztéseknél a GPU dominál, vagyis az Intellel és az AMD-vel ellentétben minden egyes lapkában a CPU kapja a háttérszerepet. Az Intelnél ugye a CPU-é a főszerep, míg az AMD egyensúlyozni próbál, hogy mi lehet a valós alkalmazások szempontjából az ideális elosztás.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#4362) Angel1981 válasza Abu85 (#4361) üzenetére


Angel1981
veterán

"A Trinity utáni lépcső a durva fúzió. A harmadik lépcsőben közös címteret és teljesen koherens memóriát kap a CPU és a GPU, továbbá a GPU kezelheti az x86 virtuális memóriát CPU pointereken keresztül. Ezt hívja az AMD architekturális integrálásnak."

Ennél a generációnál várható már, hogy a felső kategóriás processzorok ("Next Generation Bulldozer") is megkapják a GPU magokat?

(#4363) TESCO-Zsömle válasza Angel1981 (#4362) üzenetére


TESCO-Zsömle
félisten

Nem hiszem.

Eleve ott kezdődik a dolog, hogy a Trinity már Bull magokat kap a GPU mellé.

Gondolom ugyanúgy lesz a skálázás, mint most. Ahol az APU leteszi a fonalat CPU-teljesítményben, ott, vagy alatta kicsivel veszi fel a CPU. Nyilvánvaló, hogy a 40%-os átlapolás ellenére se lehet egy 125W TDP-jű APU olyan erős CPU-ban, mint egy ugyanennyi TDP-jű CPU.

Sub-Dungeoneer lvl -57

(#4364) gbors válasza Abu85 (#4361) üzenetére


gbors
nagyúr

tudod, az a gond az "AMD-től azt hallottam" dolgokkal, hogy ők is úgy hazudnak, ahogy éppen kedvük van. ha még emlékszel, a 4770-ről az utolsó pillanatig az ment, hogy 8 ROP lesz benne, mert további 4 alig jelentene extra teljesítményt - erre aztán 16-tal érkezett. nem kételkedem az AMD-s mérnökök szakértelmében, de épp elég nagyvállalatot láttam akcióban már ahhoz, hogy tudjam, mennyire képesek háttérbe szorulni a mérnöki szempontok.
a gyenge dispatch azért furcsa, mert a 6970 nagyon jól teljesít a Heavenben még normál tesszelációs beállítás mellett is, ott pedig kell az ilyen irányú kapacitás. viszont azt kiválóan sikerült kimérnem, hogy a szerencsétlen chip az esetek nagy részében a ROP-ok miatt megy falnak - és btw. 1 setup művelethez nem feltétlen 1 pixelművelet tartozik. szerintem még alá is becsültem azzal, hogy a duplaannyi ROP 25%-os sebességnövekedést hozna - csak azért voltam vele óvatos, mert azt nem tudom, hogy a memória-sávszélesség hol kezdene durván elfogyni.
persze, abból a chipből csak úgy lenne 6990, ahogy a GF100-ból GTX590 - csak kérdés, hogy lenne-e rá bármi szükség.

a fusion összefoglaló nagyon érdekes - köszi! :R

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#4365) ViiiiktorOC


ViiiiktorOC
senior tag

Lehet hogy mégis XDR2 lesz benne?
TPU!

LamboLVR - CSR2 Lambo T. Hungary

(#4366) TESCO-Zsömle válasza ViiiiktorOC (#4365) üzenetére


TESCO-Zsömle
félisten

Érdekes.

AMD is referring to as "CoreNext Architecture", which is expected to boost performance per square millimeter die area beyond even what VLIW4 manages.

Akkor így nem is olyan elképzelhetetlen az a 190W, főleg ha figyelembe vesszük az XDR2 kedvező fogyasztását...

Még nézni is brutál... 1GHz GPU, 8GHz Ram... :Y

[ Szerkesztve ]

Sub-Dungeoneer lvl -57

(#4367) gyiku válasza TESCO-Zsömle (#4366) üzenetére


gyiku
nagyúr

190w tdp-vel nem piskota. csak lesz vmi kis finom passziv 7770/7850 :U

hüllő

(#4368) Def26


Def26
félisten

ipon. Nem tudom volt e már.

Fanboy Status: PS4:On, Xbox:On, apple:On, samsung:Off, Microsoft:Off, Audi :On,

(#4369) radi8tor válasza Def26 (#4368) üzenetére


radi8tor
MODERÁTOR

Lesz két eladó 6970-esem :D

⭐ Stella

(#4370) zuzu000 válasza Def26 (#4368) üzenetére


zuzu000
őstag

Én is pont most olvastam,már akartam linkelni :)
Reméljük az ár se lesz oly drága...

(#4371) Def26 válasza zuzu000 (#4370) üzenetére


Def26
félisten

Szerintem egy laza 140-150k között nyit a HD7970, a HD7950 meg olyan 110k lesz. Nagyon nagy különbség szvsz nincs a két kártya között, én biztos, hogy a kisebbet veszem. 150W az meg valami eszméletlen. Még az is lehet, hogy nem kell tápot cserélnem (corsair vx550) :)

Fanboy Status: PS4:On, Xbox:On, apple:On, samsung:Off, Microsoft:Off, Audi :On,

(#4372) zuzu000 válasza Def26 (#4371) üzenetére


zuzu000
őstag

Akkor 3-4 hónap múlva egy 50-60-ért fogják utánunk dobálni kábé.

(#4373) Def26 válasza zuzu000 (#4372) üzenetére


Def26
félisten

Nem hiszem. Max. akkor ha nvidia dob egy jót, de szvsz ez nem mostanában lesz. :(

Fanboy Status: PS4:On, Xbox:On, apple:On, samsung:Off, Microsoft:Off, Audi :On,

(#4374) zuzu000 válasza Def26 (#4373) üzenetére


zuzu000
őstag

A 7800-as széria is megkapja ezeket az nyalánkságokat,vagy ez csak a 900-asok kiváltsága ?
Mert ha igen,akkor egy 7870-50 is jó vétel lehet.

(#4375) Def26 válasza zuzu000 (#4374) üzenetére


Def26
félisten

Passz, én is csak találgatok. :U

Fanboy Status: PS4:On, Xbox:On, apple:On, samsung:Off, Microsoft:Off, Audi :On,

(#4376) TESCO-Zsömle válasza zuzu000 (#4374) üzenetére


TESCO-Zsömle
félisten

Csak a 7900-asok lesznek az új architektúra tagjai.

A 7800-asok 1:1-ben 6900-asok lesznek kisebb csíkszélességen.

Sub-Dungeoneer lvl -57

(#4377) BotaN válasza TESCO-Zsömle (#4376) üzenetére


BotaN
senior tag

Az se lesz rossz vétel, persze ha jó lesz az ára, mert a 6970 kiszolgál mindent és ha csökken a csíkszélesség, akkor még hűvösebb is lehet az egész.

http://www.flickr.com/photos/kristofkulcsar/

(#4378) Robi BALBOA válasza BotaN (#4377) üzenetére


Robi BALBOA
őstag

És remélhetőleg a tuningra is jótékony hatással lesz. ;]

Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/

(#4379) Angel1981 válasza radi8tor (#4369) üzenetére


Angel1981
veterán

Né má a Dagobert bácsit! :P :D

(#4380) TESCO-Zsömle válasza BotaN (#4377) üzenetére


TESCO-Zsömle
félisten

Ha a stat-oknak lehet hinni, akkor ugyanolyan teljesítmény mellett a fele lesz a TDP.

950-en járó 6970-es benyakal 250W-ot, a 7870-esre meg 120W a TDP...

Sub-Dungeoneer lvl -57

(#4381) BotaN válasza TESCO-Zsömle (#4380) üzenetére


BotaN
senior tag

Jól hangzik, azért 130W TDP mínusz az már a nem mind1 kategória.

http://www.flickr.com/photos/kristofkulcsar/

(#4382) radi8tor válasza TESCO-Zsömle (#4380) üzenetére


radi8tor
MODERÁTOR

Ezért gondolkozom én is a váltáson (majd). Nekem 260W mínuszt jelentene.

⭐ Stella

(#4383) BotaN válasza radi8tor (#4382) üzenetére


BotaN
senior tag

Na az már az nem csak az éves elszámolásnál, hanem havi szinten is meglátszana. 20k-s villanyszámlám van, pedig nincs is CF a gépemben. Azóta számolgatom a wattokat.

http://www.flickr.com/photos/kristofkulcsar/

(#4384) radi8tor válasza BotaN (#4383) üzenetére


radi8tor
MODERÁTOR

Nem vagyok én annyira kocka, hogy napi 8 órát játszak, másik kérdés, hogy idle-ben mennyit fogyasztana(k).

⭐ Stella

(#4385) BotaN válasza radi8tor (#4384) üzenetére


BotaN
senior tag

Én se játszok max 2-3 órát, de az már soknak számít.

http://www.flickr.com/photos/kristofkulcsar/

(#4386) Tibicsucsu válasza BotaN (#4383) üzenetére


Tibicsucsu
aktív tag

Akkor az már nem csak TV, PC, hűtő, porszívó, lámpa. Ott már a fűtés, sütés, infra szauna valamelyike is (mindegyik) kell hogy játsszon. Nálunk 65-70 nm, 3 főre jut kb 8e Ft villanyszámla és egyikünk sem vak.

(#4388) BotaN válasza Hakuoro (#4387) üzenetére


BotaN
senior tag

Ezek szerint több mint valószínű hogy először a mobil piacon fog bemutatkozni a kicsike.

http://www.flickr.com/photos/kristofkulcsar/

(#4389) TESCO-Zsömle válasza Hakuoro (#4387) üzenetére


TESCO-Zsömle
félisten

Ebben az a szomorú, hogy mobil fronton semmi új nem lesz, mert abba a TDP-be nem fér még bele az új architektúra...

Sub-Dungeoneer lvl -57

(#4390) Angel1981 válasza TESCO-Zsömle (#4389) üzenetére


Angel1981
veterán

Illetve az, hogy egyértelműen látszik, hogy már a mobil piac a fő szegmens, az asztali megoldások egyre inkább háttérbe lesznek szorítva, pedig szerintem még egy jó ideig nagyobb lesz rájuk az igény, mint ahogy a médiában, illetve a gyártókon keresztül be van állítva :(

(#4391) TESCO-Zsömle válasza Angel1981 (#4390) üzenetére


TESCO-Zsömle
félisten

Asztalinál meg be kell nyomni a TimeShift funkciót, és 'kifutó' platformokat vásárolni, ha jól akarsz járni...

Amúgy is van most egy ilyen "1080p-re minek?" érzésem az új cuccokkal kapcsolatban... Ha elfogy a VGA, dobok mellé egy tesót 40-ért, mert kb annyit fog érni...

Most van egy hd6950-esem unlockolva, tuningolva, szóval technikailag ott van, mint egy alap HD7870-es. Ehhez jön egy csini 250W-os fogyasztás, míg az utóbbi eszik 120W-ott...

Ez a nem mindegy...

Én megértem a mobil platform terjedését. Mindenki rohan és egy rohanó világban béklyó egy ilyen helyhez kötött gép. Játszani ott a konzol, ami alig nagyobb egy ITX-es HTPC-nél, és sokkal kedvezőbbek a fizetési feltételek is.

Arra van igény, amire teremtenek... Az iPad előtt csak egy jelentéktelen kisebbségnek volt igénye tabletekre, most meg boldog-boldogtalan ilyenre csorgatja a nyálát, még akkor is ha semmi szüksége rá...
Tisztelet a kivételnek, Ők vannak kisebbségben...

Sub-Dungeoneer lvl -57

(#4392) BotaN válasza TESCO-Zsömle (#4391) üzenetére


BotaN
senior tag

Egyszer lecseng majd úgyis ez a nagy tablet/netbook őrület, majd jön helyette valami más. Azt viszont számomra elég szomorú hogy megéltük azt a kort mikor egy új gpu generáció először mobil eszközökbe jelenik meg, az asztali szegmensnek meg várni kell.

http://www.flickr.com/photos/kristofkulcsar/

(#4393) joker1220


joker1220
őstag

Sziasztok!

Érdemes itt a nagy generáció váltás előtt bármilyen VGA-t is venni Radeon vonalon?!:D

Már csak azért kérdem mert az új sorozat valószínűleg szépen lenyomja majd
a jelenlegi árakat, legalábbis szerintem:)

[ Szerkesztve ]

,,A lustaság nem más, mint pihenés mielőtt még elfáradnánk''

(#4394) BotaN válasza joker1220 (#4393) üzenetére


BotaN
senior tag

Azért addig még kell várni rendesen, szerintem ha most akarsz venni akkor vegyél. Ha meg kijön az új gen, jönnek a tesztek és tetszeni fog, akkor eladod amit vettél és ráfizetsz egy újra.

Szerintem felesleges fél évet várni, mivel szerintem 2012 Március előtt tuti nem fogsz itthon kapni újat, sőt!

[ Szerkesztve ]

http://www.flickr.com/photos/kristofkulcsar/

(#4395) TESCO-Zsömle válasza BotaN (#4394) üzenetére


TESCO-Zsömle
félisten

6xxx-ekről is ezt mondták, aztán előbb volt itt az aprón, mint a boltok polcain...

Sub-Dungeoneer lvl -57

(#4396) joker1220 válasza TESCO-Zsömle (#4395) üzenetére


joker1220
őstag

Kezdek beleőrülni az AMD be, viccen kívül,
nemrég adtam el az asztalimat, épp azért
mert jön az új generáció...

Ha az új Radeon okkal is azt csinálják mint
a Bullal hogy húzzák vonják halasztják
hónapokon keresztül akkor beadom a kulcsot
az tuti.

Egyáltalán merjek belevágni az am3+ ba.
Minden rev.1 es, teljesen kiforratlan, most
rákölteni egy valag pénzt aztán kiderül
valami hardverhiba:S

Phenom II nél is volt három stepping,
mire kiforrott teljesen:S

Lehet hogy inkább nem veszek semmit
jövő tavaszig, addigra már lesz bőven
teszt meg stb, VGA kkal szerintem
ugyanez a helyzet.

,,A lustaság nem más, mint pihenés mielőtt még elfáradnánk''

(#4397) TESCO-Zsömle válasza joker1220 (#4396) üzenetére


TESCO-Zsömle
félisten

Nincs értelme szvsz új generációt venni.

Én Március környékén vettem a kifutó platformot, amit az adatlapomon is látsz, és semmi gondom vele.

Francba az egésszel. Veszel egy vadonatúj kártyát tonnányi új, kihasználatlan képességgel. Mi értelme?

Sub-Dungeoneer lvl -57

(#4398) joker1220 válasza TESCO-Zsömle (#4397) üzenetére


joker1220
őstag

Én meg azt a configot adtam el amit az adatlapomon látsz, nekem sem
volt semmi gondom vele, csak szükségem lett egy leptop ra ezért
el kellett adni....

Viszont itt már az is a kérdés hogy érdemes e nekem újra asztali,
mert a leptop elvisz mindent amivel játszom...

i5 2410M 2,3Ghz - 4Gb 1333Mhz Cl9 ram - Geforce GT540M 1Gb

Szerinted van értelme várni és mondjuk egy év múlva venni egy új asztalit?!:D

,,A lustaság nem más, mint pihenés mielőtt még elfáradnánk''

(#4399) TESCO-Zsömle válasza joker1220 (#4398) üzenetére


TESCO-Zsömle
félisten

a leptop elvisz mindent amivel játszom...

Akkor minek? Ha elvisz mindent, és meg is vagy elégedve azzal, amit kapsz, nincs értelme asztalit venni.

Esetleg lecserélheted majd egy másik v harmadik generációs Fusion- Laptopra hybrid CF-el.

Vagy vegyél inkább biciklit és járj azzal.

Sub-Dungeoneer lvl -57

(#4400) joker1220 válasza TESCO-Zsömle (#4399) üzenetére


joker1220
őstag

Jelenleg elvisz:D

De az újabb játékokkal már nem biztos hogy elmenne:D

Van bringa de sajnos 'alaplap' hibás:D

,,A lustaság nem más, mint pihenés mielőtt még elfáradnánk''

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)
Copyright © 2000-2024 PROHARDVER Informatikai Kft.