Hirdetés

2024. április 24., szerda

Gyorskeresés

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2017-08-30 10:47:05

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#8701) HSM válasza Crytek (#8699) üzenetére


HSM
félisten

Veled ellentétben mi legalább érveket is írunk, nem csak a másik témáját lehúzzuk. Ha nem tetszik, vess fel valami más témát, a miénket pedig görgesd tovább.

(#8702) Crytek válasza HSM (#8701) üzenetére


Crytek
veterán

Minek érveljek? Én csak egy kis nyomoronc vagyok aki nem ért az ilyen témához.Én csak szimplán látom , hogy minden ami nem konzol az nagyon le van kakkantva. Szóval Abu is ajnározhat minden fejlesztőt az egekbe amíg ilyen hulladék portok jönnek pc-re mint amik.Szóval egyelőre hiszek a szememnek meg a teszteknek hogy szarok a portok mintsem HOGY MAJD NA AZ AKKOR. Aha majd ha lesz olyan akkor emelem kalapom hogy ez igen tényleg valóban.De ez még olyan messze van mint én az angoltól.

[ Szerkesztve ]

Next PC Upgrade: 2022

(#8703) Dtomka válasza Crytek (#8702) üzenetére


Dtomka
veterán

Kezd zavaró lenni a sok negatív hozászolásod!

"NASA gépen is akadozó **arok csak MERT azért"

Ha a profilodon lévő géppel a mai játékokat full grafon szeretnéd játszani (és nem lenézésképpen írom!) akkor nagy csalódás fog érni.
Igenis a mantle elindított valamit, és lesz látszata/eredménye. Az AMD ócsárlását meg ne ebben a topicban tedd, mert azzal minden tulajt sértegetsz és (te) lenézel!
Köszönöm!

(#8705) stratova válasza ALONSO11 (#8704) üzenetére


stratova
veterán

Ilyen eszmecserére ott az AMD vs Nvidia topik.

[ Szerkesztve ]

(#8706) Abu85 válasza ALONSO11 (#8704) üzenetére


Abu85
HÁZIGAZDA

Az AMD API-ja egy éve létezik. Hat játék jelent meg rá és 100 fejlesztő dolgozik vele. Az eredeti terv kb. 20 fejlesztő volt, de láthatóan kell az iparnak ez a szemlélet.

Az NV-nek semmi baja, szóba sem került az NV ebben a topikban.
Ami szóba került, hogy a szabványnak van baja, például az, hogy a Dragon Age Inquisition nem stabil DX11 alatt. [link] - ez már veszélyezteti a PC-s játékpiacot, mert mégis ha megveszel egy játékot és fagy, akkor mit tennél? Sokan a Radeont már meg sem próbálják, hiába csinált nekik az EA egy alternatív módot az AMD API-jára. Egyszerűbb menni konzolra.
Csak egy dolgot kell figyelembe venni. Az, hogy egy modern játékot nem lehet megírni teljesen stabilra DX11-re, drámaian veszélyezteti a PC-s játékpiacot. És mondhatjátok azt, hogy bénák a fejlesztők, de ez nem változtat azon a tényen, hogy a felhasználóknak elege van a PC-ből, abból a tökölésből, hogy optimalizálatlan vagy nem stabil játékokat kapnak. Ezekről csak a vak nem akar tudomást venni. Az a helyzet, hogy egyszerűbb, ha elfogadjuk a fejlesztők indokát, hogy konzolra miért megy nekik az, ami a PC-re nem megy. Főleg azután, hogy bizonyították is idén, hogy PC-n is megy, csak nem DX11 alatt.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8707) Malibutomi válasza ALONSO11 (#8704) üzenetére


Malibutomi
nagyúr

Csak egyre reagálnék:

"A Mantlít már két éve ajnározzák.
Eredmény??Semmi"

Egy éve sem jelent meg a mantle...ebből látszik is mennyire ott vagy a témában...

[ Szerkesztve ]

(#8711) gbors válasza Abu85 (#8698) üzenetére


gbors
nagyúr

igen, tudom, milyen egy sokszázezer / többmillió dolláros méretű szoftverprojekt, vezettem párat :) minél komplexebb a történet (márpedig egy 3D motor elég komplex), annál inkább érdemes prototípusokat gyártani az elején, és feltérképezni velük a határokat, legalább nagyságrendi jelleggel. ebből (akár mellékhatásként) kijönnek a DX-problémák is, és ez alapján meg lehet hozni a szükséges döntéseket. de már megint a jelenről beszélünk, és nem 6-7 évvel ezelőttről, amikor ez a probléma még minimális szinten létezett :)

engem nem nagyon érdekel, hogy ki mennyit szívott a DX11-es kóddal. tudod, hogy miért? amikor megjelent a DX11, akkor a szakma nagy része ujjongott, a pH!-n minden azzal volt tele, hogy kompjútséder hűdekirály. én akkor annyit fűztem a sztorihoz, hogy szerintem egy félmegoldás ez a lépés, meg kellett volna lépni a már akkor is 10+ éves raszterizációs pipeline lerombolását. most végre megtörténik, aminek nagyon örülök - szóval engem felesleges győzködni, hogy jók az új API-k. hoznak majd nyilván új problémákat, de a jelen modell már iszonyú mocsaras, abból kell lépni valamerre.

AI téren nem érdemes mindig az ügyes exkluzívokkal jönni, mert azok a kivételek. a normának kellene javulni, jelentősen.

@Crytek és @ALONSO11: azt nem értem, mit bírtok ennyit kínlódni az AAA-s helyzeten. olyan mennyiségű k**va jó, alacsony gépigényű játék van PC-re, hogy igazi játékosparadicsom most a platform, szerintem sosem volt ennyire jó a helyzet. inkább játsszatok :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8712) Abu85 válasza gbors (#8711) üzenetére


Abu85
HÁZIGAZDA

Senki sem a compute shadert bírálja, amikor a bajokról beszél. Sőt, ez a shader lépcső segít abban, hogy begyorsítsák a programot. Az egyetlen fejlesztés, aminek igazából haszna volt a DX11-ben. Ellenben jött még számtalan újítás. Például a deferred context, amit mindenki, ezen belül ma már maga a Microsoft is rossz megoldásnak tart.

Az eddigi pipeline nem fog lebomlani a DX12-vel. A Microsoft csak az Xbox One-on engedi meg az egyszerűsített erőforrás-kezelést, ami minden shader lépcsőt egységesnek tekint.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8713) Joe.36


Joe.36
addikt

R7 260X nél csak film nézés közben (VLC) elmegy a kép időnként, ez nagyon változó... van hogy órákig nem... nem mindig... néha aztán fagyi... Valakinél már fordult elő ilyesmi ?
Játék közben soha! Vagy ha használom, pl netezek.... soha!
Csak ha magában elvan és filmet nézek! Lehet hogy bekavar valami energia takarékos funkció ? De más kártyával még nem tapasztaltam ilyet soha...

A siker nem végleges, a kudarc nem végzetes: a folytatáshoz való bátorság az, ami számít ! / Redmi Note 13 pro + Samsung Gear S3 Frontier /

(#8714) Dtomka válasza Joe.36 (#8713) üzenetére


Dtomka
veterán

A 260x kártya vagy a catalsyt topicba érdeklődj! Itt a még nem meg jelent kártyákról kell(ene) társalogni, beszélgetni!
Melyik driver van fent?Igen nézd meg a képernyő kikapcsolásának idejét, és a hibernálás, alvó mód idejét is.

[ Szerkesztve ]

(#8715) Dtomka


Dtomka
veterán

"... a korábban tervezett februári-márciusi időszak helyett április vagy május környékén jelenhetnek meg..." :(
Csúszik a csíkszélesség váltás az AMD-nél és az Nvidiánál

(#8716) Abu85 válasza Dtomka (#8715) üzenetére


Abu85
HÁZIGAZDA

Sosem tervezték. A 28 nm-es node a GPU-knál jobb, mint a 20 nm-es. Lassan másfél éve lehet tudni.
A WCCFtech egy hihetetlen kókler banda, akik abszolút nem értenek ehhez az egészhez, de rengeteg fals pletykát gyártanak. Tőlük átvenni bármilyen információt igen nagy öngyilkosság, mert 90%, hogy hibás, vagy ha az információ nem is volt az a hírben már hibásan írták meg.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8717) Crytek válasza Dtomka (#8715) üzenetére


Crytek
veterán

Nem is gond addig készüljenek csak a Witcher és és Batman AK-ra! :C

Next PC Upgrade: 2022

(#8719) HSM válasza Abu85 (#8716) üzenetére


HSM
félisten

Igen, de megéri nekik a sok fals hülye hír, mert mennek az emberek, és olvassák, ők meg kapják a lóvét a reklámok után. Poénból megnéztem egy hírüket, kapásból egy oldalon 10 reklámot blokkolt az Adblock Plus. :C

(#8720) Abu85 válasza ALONSO11 (#8718) üzenetére


Abu85
HÁZIGAZDA

Írtam korábban, hogy az AMD-vel erről beszélgettem nemrég. Lesznek új hardverek, nem tagadják, de a mostani hardvereket elég jónak tartják és arra koncentrálnak, hogy elérhető legyen a tudásuk a fejlesztőpartnereiknek. Sajnos annyira lemaradt a szoftveres oldal, hogy ebben rejlik most messze a legnagyobb innováció lehetősége. Például nagyon fontosnak tekintik, hogy az olyan konzolos innovációk elérhetők legyenek PC-n, mint a HRAA, mert hiába a gyorsabb hardver, ha az említett kiemelkedő minőségű és hatékonyságú AA-t nem tudod aktiválni PC-n. Úgy látják, hogy az nem segít a PC-nek, ha jön egy még gyorsabb VGA, és eközben nézegeted, hogy a konzolon milyen innovatív eljárások születnek, amelyeket nem érhetsz el PC-n dacára a TFLOPS-oknak

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8722) gbors válasza Abu85 (#8712) üzenetére


gbors
nagyúr

nagyon jó, hogy a "shader lépcső" kifejeztést használtad - pont ez a legnagyobb baj, hogy egyáltalán létezik ilyen fogalom.

most komolyan azt mondod, hogy a DX12-ben kötelező lesz az eddigi merev pipeline, többek között a 3 lépcsős tesszelátorral? :Y akkor az minden lesz, csak nem low level. az teljesen logikus lépés, ha opcionálisan megmarad a jelen modell, hogy aki nem akar űrhajót építeni, az az eddigi tudásából dolgozhasson, de ha flexibilitásban annyit sem fog tudni, hogy a "csövet" átkonfiguráld, akkor az nagy lószar lesz, nem előrelépés.

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8723) TTomax válasza Abu85 (#8720) üzenetére


TTomax
nagyúr

Aham,tehát gyakorlatilag nem akarnak fejleszteni,illetve az erre szánt összeg tizedéből akarják megúszni a dolgot,lehet így is csak nem biztos hogy sikerre lehet vinni.Nehogy úgy járjanak mint CPU vonalon,mert akkor nem lesz ami kihúzza őket nullszaldóra.
Fejleszteni mindig van mit,és kell is,ha mást nem akkor a fogyasztásból kell lefaragni,hogy a mobil szegmensben is labdába rúghassanak.Én továbbra sem vagyok meggyőzve arról,hogy nekünk kell a low level api... a dx11-röl is pontosan ezeket olvastuk,meg a 10.1-röl is... én még bőven emlékszem amikor ujjongás övezte a DX-et,mert az mindent támogat,egy szűkülő piacnak minden hiányzik csak a fragmentnáció nem.

★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

(#8724) Crytek válasza TTomax (#8723) üzenetére


Crytek
veterán

Amúgy nem hülyeség amit az amd szeretne, hogy a mostani cuccok jobban ki legyenek használva.
A konzol ugye joval gyengébb csak a felépítése miatt ki tudnak facsarni belőle sokkal többet mint egy 3x olyan drága pc-ből. Szóval csinálják csak (bár mint fentebb is írtam nem sok látszata lesz a dolognak)

Szerintem az Amd pont az akinek nem olyan hüde fontos a mobil szegmens. Next genekkel + pc-vel nagyon jól elvannak sőt lehet a nintendóba is ők gyártanak majd vagy mibe. És ahogy kinéz ez az apu cuccos a később érkező konzolokba is amd lesz.Mobil fronton meg nagyon nehéz lesz az intel ellen bármit is kezdeni (Bár én nem értek hozzá csak találgatok)

Next PC Upgrade: 2022

(#8725) Abu85 válasza gbors (#8722) üzenetére


Abu85
HÁZIGAZDA

Lehet, hogy félreértjük egymást. Tisztázzuk azt, hogy a DX11 pipeline modellje megváltozik. Tehát a különálló pipeline modell eltűnik, vagyis nem úgy működik majd a DX12, hogy a lépcsőkhöz (legyen az shader vagy fixfunkciós) hozzá kell rendelni egy hardver állapotot. Ehelyett lesznek a PSO-k. Maga a futószalag állapotobjektumként lesz reprezentálva, tehát a futószalag lépcsői be lesznek vonva egy objektum alá, amelyek a létrehozásuk után megváltoztathatatlanok. Ezt főleg azért vezette be az MS, mert a hardverek bizonyos DX11-ben még megkülönböztetett állapotokat az eszközszinten valójában egységes állapot alatt kezelnek. Tehát közelebb került az API működése a hardverhez és a sok többletterheléstől is mentesülünk. Ugyanakkor maga a DX12 még mindig megkülönbözteti a vertex, pixel, geometry, akármi shader lépcsőket. Ezeknek megvan a maguk szabályozása, hogy milyen erőforrásokhoz férhetnek hozzá, stb. Ebből a szempontból a Sony PS4 és az AMD saját API-ja másképp működik, mert ott igazából a vertex, pixel, geometry bár logikailag megkülönböztethető, de mindegyik shader ugyanarra képes, ugyanazokhoz az erőforrásokhoz férhet hozzá. Tehát nincs olyan, hogy a vertex shader nem írhat xy bufferbe, ha a fejlesztő írni akar oda, hát akkor írjon.

Arról nincs szó az eddigi leírásokban, hogy a tesszellációs lépcsők a DX12-ben kivághatók lennének. A PS4-en és az AMD API-ján biztosan azok. De igazából már a DX12 PSO is ad arra lehetőséget, hogy olyan formában optimalizálj, ami korábban nem volt lehetséges. Például, ha egy vertex shaderben számolt értékre később biztos nem lesz szükség, akkor az kiszűrhető, és nem kell, hogy a futószalag többi elemét tovább terhelje. Ebből a szempontból a PSO is lényeges előrelépés a DX11-hez képest.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8726) Abu85 válasza TTomax (#8723) üzenetére


Abu85
HÁZIGAZDA

A hardver fejlesztése valójában egyszerűbb lenne számukra. Megvan az architektúrájuk, még mindig közelében sem járnak az API-k, hogy kihasználják a képességeit, szóval továbbra is élhetnének azzal, hogy átkonfigurálják évente, és arra a konfigra kiadnak három-négy új GPU-t. A probléma ezzel az, hogy semmit sem változtat a piacon. Kapnak a fejlesztők kb. 20%-kal több TFLOPS-ot minden szegmensben, miközben továbbra sem fogják tudni futtatni azokat az effekteket PC-n, amelyeket például a PS4-en igen. Lásd a HRAA a Far Cry 4 esetében.
Az a szoftveres fejlesztés, amit elindítottak valójában sokkal több pénzt emészt fel, mintha új hardvereket hoznának, de jelen pillanatban úgy látják, hogy ennek van értelme, mert csak így tudnak a fejlesztők hozzányúlni azokhoz a tartalékokhoz, amelyeket ma nem lehet elérni.
A mobil szegmensben a fogyasztást semmi sem csökkenti jobban, mint egy low-level API. Ezt te nem tudod megnézni, de a Mantle érdekessége, hogy úgy növeli a sebességet, hogy közben csökkenti a fogyasztást. A Sniper Elite 3-on ezt kipróbáltam már, kb. 50 wattal kevesebbet fogyasztott a gépem, miközben a sebesség 30-40%-kal nőtt.
Neked nem kell arról meggyőzve lenni, hogy kell a low-level API. Nem neked fejlesztik, hanem a fejlesztőpartnereiknek, akik viszont meg vannak arról győződve, hogy számukra egy ilyen irány nélkül a PC nem vállalható platform.
A fragmentáció elkerülhetetlen, nem a low-level API hozza ezt el, hanem az eltérő fejlesztési stratégia, amivel az AMD és az NV dolgozik. Az AMD akarja a low-level API-t, míg az NV nem, ők szándékosan kértek DX11.3-at, mert nem fogják elmondani, hogy miképp lehet az alkalmazásokat GeForce-ra optimalizálni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#8727) Werkly


Werkly
őstag

(#8728) regener válasza Werkly (#8727) üzenetére


regener
veterán

Ennek az oldalnak eléggé kevés a szavahihetősége, tudtommal még a HBM sincs megerősítve, nem pedig majd egyesével (meg 4esével) küldözgeti az eddigi talán legjobb nyákját, nert ez csak nyákot említ, de hogy a chip mit tud annak mi köze ehez, illetve egy céggel, sőt még felis tüntetik a szállítólevélen hogy ez ety videókártya alkatrész... Aki tudja miaz az a sorozat/modelszám alaplján is tudja.

Ez ilyen Zauba reklám kb, mert ezelőtt még sose hallottam róluk.

(#8729) Peat;) válasza Abu85 (#8726) üzenetére


Peat;)
veterán

Abu van valami tervezet mikor adják ki az "új" amd kártyákat? Sima 280-as teljesítmény szintet nézegetem, az nvidia 960 majd kiderül milyen, de elég drága lesz és nem csak az árfolyam miatt. Ha AMD is újít mostanában (nem követtem figyelemmel a terveiket) akkor azt is megvárom, hátha minőségibb kártyák születnek. (sima 280-asra majdnem elcsábultam, de nagyon változó adatokat találtam a fogyasztásra vonatkozóan, az én házam meg elég kicsi hogy ez problémát okozzon)

(#8730) 7time válasza Abu85 (#8726) üzenetére


7time
senior tag

Az a szoftveres fejlesztés, amit elindítottak valójában sokkal több pénzt emészt fel, mintha új hardvereket hoznának, de jelen pillanatban úgy látják, hogy ennek van értelme, mert csak így tudnak a fejlesztők hozzányúlni azokhoz a tartalékokhoz, amelyeket ma nem lehet elérni.

Hatalmas hibát követ el az AMD ha erre az útra lép ahogy a HSA -t is várjuk 4 éve és van 1-2 szoftver ami használja de ki tud róla, játék az 1 szem se ahogyan a LOW-LEVEL konzolos szoftverek sincsenek sehol, a Mantle API az nagyon jó de azt is kevesen használják és ígéretekkel tele a padlás de szoftvert senki sem szeret írni, ha most leállítják a hardveres fejlesztést és elkezdik nyomatni ezt a "szoftverből megoldjuk" dolgot akkor a VGA piac is megy a CPU után, nem értem miért nem tanulnak az eddig elkövetett hibákból, ez a titkolózás is láthatnák hogy inkább káros mint hasznos az Nvidia -Intel messzire kikürtöli mi fog következni és a vásárlók várnak rá mert tudják mire számítsanak, nem jó úton halad az AMD :N

(#8731) Dtomka


Dtomka
veterán

Egyre biztosabb a HBM az új Radeonon
Egyre biztosabb, hogy HBM memóriával jön a Radeon R9 380X

Én azt hittem, hogy a 380x kevesebbet fog "enni" mint a 280x.

"Az AMD következő generációs csúcskategóriás videokártyája, amelyet régóta R9 380X névvel emlegetnek"
Ezek szerint 390x nem is lesz? :F
Lassan jöhetnének konkrétumok már...

(#8732) -Solt- válasza Dtomka (#8731) üzenetére


-Solt-
veterán

No igen, a 380X csúcskategóriásként említve engem is meglepett... most variálták át a számozást, nem sok logika lenne benne, ha megint megváltoztatnák.

www.smart-bus.hu

(#8733) subpixels


subpixels
tag

Szerintem inkább az lesz a kérdés: 300w-os kártya ellenére, milyen teljesítmény/fogyasztás aránya lesz? Ebben mennyit tud javulni Amd, mert a Maxwellek most borzasztóan jók.

(#8734) -Solt- válasza subpixels (#8733) üzenetére


-Solt-
veterán

Ha rendesen lehűtik, akkor engem totál hidegen hagy a fogyasztás... :)

www.smart-bus.hu

(#8735) 7time válasza -Solt- (#8734) üzenetére


7time
senior tag

A HBM jobb memória vezérlő miatt valószínűleg jól fog alakulni a fogyasztás.

(#8736) Interceptor válasza -Solt- (#8732) üzenetére


Interceptor
addikt

Lehet előbb ez jön ami felveszi a versenyt a 980GTX-el, aztán a TI ellen jön majd a 390X.

Nem kell drága gép, csak játékra kell

(#8737) Xmister


Xmister
senior tag

Érdekes dolgokat lehet találni:

[link]
Valószínűleg fake, de ez már a második ilyen a napokban..

(#8738) Sz_Imre


Sz_Imre
senior tag

Állítólag Q2 2015 (április-június) fog megjelenni a AMD R9 380X/390X. Ez nem igazán jó hír, azt hittem előbb fog megjelenni (pl.: február-március környékén).

(#8739) rocket válasza Sz_Imre (#8738) üzenetére


rocket
nagyúr

Egy ujabb R600 szintu bukta van a levegoben.

"A lower resolution generally means that there can be more quality per pixel."

(#8740) 7time válasza rocket (#8739) üzenetére


7time
senior tag

Miért lenne, a HBM memóriával egy igen sikeres termék lesz csak jönne már mert elköltöm a pénzem.

[ Szerkesztve ]

(#8741) rocket válasza 7time (#8740) üzenetére


rocket
nagyúr

Attol meg onmagaban nem lesz sikeres egy termek, mert uj technologiat hasznal.
Pont az R600 az egyik legjobb pelda.

NV tarolja a piacot a felso szegmensben, es ugynezki fogja is meg honapokig, plusz mar a kuszobon van a GM200, ha nem lenne eleg a 9800GTX.

Nem ertem az AMD-t, megint beleestek ugyanabba a csapdaba amibe a multban mar tobbszor (az NV is), szenvednek itt a highend GPU-val, ahelyett, hogy inkabb a 150-300$ kozotti kategoriaba dobtak volna valamit elsokent, amire mar raferne egy rancefelvarras az elavult, atnevezett, magas fogyasztasu, melegedo felteglaik helyett.

Ugylatszik nem jo elojel, ha az AMD konzol GPU-t tervez, mert nem jut eleg eroforras a diszkret szegmensre, csak a nyuglodes megy.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#8742) 7time válasza rocket (#8741) üzenetére


7time
senior tag

Dobnak az alsóbb kategóriába is R9-370X de meg kell várják a 20nm másképp nincs értelme ezért késnek.

(#8743) rocket válasza 7time (#8742) üzenetére


rocket
nagyúr

GM204 megmutatta, hogy van ertelme a 28nm-nek, szep extra profitot termel az NV ezzel a GPU-val, es elnezve a fogyasztasi adatait az eddigi Maxvell GPU-knak, jol kiveheto, hogy joval alacsonyra lottek be a kartyakat, mint amit tudnanak, igy van meg boven tartalek, ami gondolom kilesz aknazva mire az AMD piacra dob valamit.

Plusz kopogtat mar a GM206, ami valoszinuleg hozza az R9280 teljesitmenyet full HD-ben (szurokkel mar kevesbe), - kb. 50 wattal es joval olcsobb gyartasi koltseggel (ami nagyobb profit az NV-nek es a partnereinek), es ha beall majd az ara 2 hettel a rajt utan, jobban fog fogyni, mint a paksi atomeromu altal szponzoralt felteglak :D

"A lower resolution generally means that there can be more quality per pixel."

(#8744) 7time válasza rocket (#8743) üzenetére


7time
senior tag

Ebben a szegmensben nem az fogyasztás a lényeg, várjuk meg az AMD -t aztán írjuk le, kiosztott már pár kemény pofont a zöldeknek és ne feledjük hogy a konzolos piac is a kezükben van. Most hogy az Nvidia is kihozott egy jobb fogyasztású kártyát a sok hegesztő trafó után még nem ájulok el.

[ Szerkesztve ]

(#8745) rocket válasza 7time (#8742) üzenetére


rocket
nagyúr

Meg annyit akartam, hogy en nem vennek merget ra, hogy TI 20nm-es GPU lesz.
Sokkal valoszinubb, hogy marad a 28nm.

Szerintem szimplan nincs penze es eroforrasai az AMD-nek az NV-vel szembeni csatahoz.
A magas elvarasok a pletyka oldalak altal felfujt lufik miatt vannak, ezen oldalak pletykai azok amikbol a tobbseg konkurencianak gondolja az AMD-t az NV-nek a diszkret GPU piacon.

Nagyabol 3 eve semmit nem csinal az AMD a diszkret piacon, pedig a nagy megmondo ember itt PH-n, ugye azt josolta, hogy NV dobja a diszkret GPU szegmenst, ehez kepest folyik a profit mintha csapbol jonne.

#8744: 200-250$ kategoriaban nagyon fontos szempont a fogyasztas.

A konzolos piac egy resze az R600 idejeben is a kezukben volt (ugye az ami fejlesztesi platformja volt a PC-nek a jatekok jelentos reszenel), semmire nem mentek vele, sok evig tarto nyuglodes vette kezdetet, ahol inkabb az arakkal tudtak kartyakat eladni, ami kevesebb profitot jelentett.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#8746) 7time válasza rocket (#8745) üzenetére


7time
senior tag

Na jó azért én nyugodt szívvel veszek egy R9-370X 380X VGA-t ahogy sokan mások is innen, csináltam már pár Mantle tesztet és megéri, ha te meg a zöldeket szereted akkor vegyél abból de nem feledd hogy a felárból kifizetek 3-4 évi villanyt az alatt el is avul a kártya úgyhogy nem bánkódok túlzottan, a zöldek csúcskarija meg megint 3000$ lesz azt tegyék a szemükre..

(#8747) Dtomka válasza 7time (#8746) üzenetére


Dtomka
veterán

"ha te meg a zöldeket szereted akkor vegyél abból" rocket viccelek, ne vedd komolyan! -->Csak nézzél rá szted piros kártyát fog venni :D (mennyit nyomtam anno Blanka-val SFIIT :) )

Én egyetértek veled, abban, hogy olcsóbb és még nem mondom , hogy jobb, de újabb technológiát fog képviselni az tuti. Remélem max áprilisban kiadják, bár sanszosabb a június.

(#8748) gbors válasza 7time (#8746) üzenetére


gbors
nagyúr

a gond mindössze annyi, hogy a meggyőződéses AMD-vásárlók kevesen vannak ahhoz, hogy eltartsák a céget. gyakorlatilag tálcán adják át a vevőket az nVidiának - kijött ősszel a felső kategória, holnapután kijön a közép (ráadásul még csak túlzottan acélosnak sem ígérkezik), és válasz sehol. szép Tőled, hogy lojális vagy, és megvárod a 370X-et, de a túlnyomó többség nem fogja ezt megtenni. az meg csak hab a tortán, hogy a 200-as lineup fele feature téren elavult kártyákból áll...

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#8749) 7time válasza gbors (#8748) üzenetére


7time
senior tag

hogy a 200-as lineup fele feature téren elavult kártyákból áll...

Az Nvidia is volt hasonló helyzetben nem is 1x, most az AMD van ez nem egy tragédia a cég helyzete pedig olyan mértékben érdekel hogy legyen konkurencia és olcsón vegyek VGA-t, jelenleg ha ínovációról van szó az Nvidia az aki hátráltatja mert használhatna mindenki Mantle API-t ami sokkal jobb mint a DX de ebbe most nincs időm, kedvem belefolyni.
Az a leg viccesebb mikor Nvidia fanok szólják meg durván a pirosakat hogy milyen hülyeség egy cég termékei mellett kitartani de a Fermi is fogyasztott 420W amikor az AMD 350 -et.

[ Szerkesztve ]

(#8750) gbors válasza 7time (#8749) üzenetére


gbors
nagyúr

Az Nvidia is volt hasonló helyzetben nem is 1x

saját feature-ök tekintetében tudtommal nem, de cáfolj meg nyugodtan.

persze, mindenki használhatna Mantle-t. meg mindenki használhatna PhysX-et is - ezek szerint az AMD már 7-8 éve hátráltatja a fejlődést? :)

a GTX480 pedig kis-közepes mértékű bukta volt, későn jött, és túl sok volt vele a gond. ettől függetlenül sokaknak megfelelt, mert gyors volt - ezért lett a bukta mérsékelt, és nem óriási.

fogyasztásoknak kicsit olvass utána :)

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)
Copyright © 2000-2024 PROHARDVER Informatikai Kft.