Hirdetés

2024. április 30., kedd

Gyorskeresés

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2017-08-30 10:47:05

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#2601) zuchy válasza Gaboman (#2599) üzenetére


zuchy
őstag

Bizony, ezt már fél éve tudjuk. :P

PC-STYLE.hu

(#2602) Gaboman válasza Abu85 (#2591) üzenetére


Gaboman
nagyúr

Most akkor mi az igazság az 595ről?

Ha meghalsz te nem tudod hogy halott vagy, csak a többieknek nehéz. Ugyanez a helyzet akkor is ha hülye vagy. ;-)

(#2603) Robi BALBOA válasza Gaboman (#2602) üzenetére


Robi BALBOA
őstag

Kb annyira reális egy 2db GF110-as gpu-ra épülő kari mint amennyire a dual GF100 volt reális vagyis tervező asztalon (képzeletben) már létezik, de kézzelfogható termék kb soha nem lesz belőlle, max ha valamelyik elvetemült gyártó (Asus Ares fíling, csak ez még azon is bőven túltenne fogyasztásban) meg nem csinálja. ;]

Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/

(#2604) Gaboman válasza Robi BALBOA (#2603) üzenetére


Gaboman
nagyúr

Értem, akkor a 6990nek van valós alapja csak.

Ha meghalsz te nem tudod hogy halott vagy, csak a többieknek nehéz. Ugyanez a helyzet akkor is ha hülye vagy. ;-)

(#2605) Abu85 válasza Atom_Anti (#2592) üzenetére


Abu85
HÁZIGAZDA

A fogyasztási problémák miatt vezetnek be a Caymanben egy technológiát, amit arra találtak ki, hogy maximalizáljak a teljesítményt egy adott TDP kereten belül.

(#2593) rocket: Az gáz ha nem érdekli őket az OEM eladás, mert a csúcskártyák nagyon nagy része itt kerül eladásra. Ergó vagy tartják a 300 wattot, vagy lényegtelen a terméket kiadni, mert nem lesz meg a megfelelő eladás. Ezért jelennek meg a 300 wattnál többet fogyasztó kártyák limitált szériásként. Csak luxusárazással hozza vissza a fejlesztési pénzt.

(#2596) A.tessz: Mivel a GF110-nél ilyen nem vezettek be, így a fizika megakadályozza a 300 wattos limit tartásán két lapka mellett. Egy GF110 is 300 wattot fogyaszt amit három vezérlő limitálásával tartanak. Számolj utána, hogy a maradék 0 wattba hány chip fér még bele. Két GF110-hez a lapkák minimum 40%-át le kell tiltani. A fizika mindenki számára ugyanaz, mivel a 300 wattos limitet nagyon komolyan veszik az OEM-ek, a csúcskategóriában az az architektúra nyer, amelyik egységnyi fogyasztás mellett magasabb teljesítményre képes. Ezért nem lett semmi a dual GF100-ból, és a dual GF104-ből. Még a Zotac és a Galaxy is eldobta a saját dual GF100 tervezetét. Az Asus megoldása már a tervezőasztalon meghalt. A Galaxy terméke eljutott a prototípus szintjére de sosem lehetett működés közben megtekinteni, mert az ATX szabványban leírt kialakítás a házakra nem elég jó, így a termék a legtöbb otthoni körülmény között instabil lett volna (sőt sérülésveszélyes, senki sem akar olyan számítógépet, ami elsőfokú égési sérülést okoz, ha működés közben hozzáérsz a ház oldalához). Ilyen figyelmeztetés található már a 300 wattot fogyasztó csúcskártyák dobozában, de addig nincs gond, amíg a kártyát nem fogdosod működés közben. Ez nem is életszerű, de amikor már a ház oldalára kell ezt ragasztani, hogy ne érj hozzá, akkor az már megfontolandó dolog, az OEM-ek részéről. Éppen ezért a 300 wattos limitet a PCI-SIG addig fogja megtartani, amíg a házakra nem jön egy jobb hőelvezetést előíró tervezet.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2606) Atom_Anti válasza Abu85 (#2605) üzenetére


Atom_Anti
senior tag

Megnyugtattál :R

(#2607) Robi BALBOA válasza Gaboman (#2604) üzenetére


Robi BALBOA
őstag

Egy dual Cayman (6990) 100% hogy lesz, mert a gyártó is megerősítette, de ha a gyártó ezt nem erősítette volna meg akkor is sokkal könnyebben elképzelhető egy kb 400mm²-es csipből egy dual verzió ellentétben a GF110-el ami cirka 520mm² és mint tudjuk az Nv nem igazán áll a csúcson ami az egységnyi területre jutó teljesítményt illeti.

Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/

(#2608) oliba válasza Abu85 (#2605) üzenetére


oliba
őstag

Akkor a 6990 szabályozni fogja az sp-k és az órajelet a játékok teljesítményét illetően. Amikor a játéknak több sp kell, akkor az órajeleket visszaveszi és az sp-t növeli és pont fordítva? :D

(#2609) Oliverda válasza oliba (#2608) üzenetére


Oliverda
félisten

Az SP számának on-the-fly szabályzása elég vadul hangzik. Az órajel már inkább kivitelezhető. Szvsz egyszerűen arról van illetve lesz szó, hogy folyamatosan monitorozva lesz az éppen aktuális áramfelvétel és ha nem lépi túl a limitet akkor csutkára lesz tekerve a GPU(k) órajele, ha meg már túllépné akkor szépen lecsökkenti majd egy olyan szintre, hogy még beleférjen a keretbe. Gondolom a feszültséggel párhuzamosan...

"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

(#2610) keIdor válasza Atom_Anti (#2597) üzenetére


keIdor
titán

Én inkább az nVidia-n röhögök... vergődnek, mint egy partra sodort bálna...
Ezek csak foltozások és egyetértek Oliverdával, ez szerintem sem fog kijönni. De jó lenne, mert gondolom a 580 árán jönne azt meg lenyomná.

¡GLORIA A LAS PLAGAS!

(#2611) Oliverda válasza keIdor (#2610) üzenetére


Oliverda
félisten

Szvsz annak megint anyagi bukta lenne a vége ha olyan árban jönne.

[ Szerkesztve ]

"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

(#2612) RexpecT


RexpecT
addikt

A 6770 várhatóan mikortól lesz elérhető?

[ Szerkesztve ]

(#2613) rocket válasza Abu85 (#2605) üzenetére


rocket
nagyúr

Tudnal mutatni valami linket arrol, hogy az OEM eladasok teszik ki a csucskartyak nagy reszet?
Van egy olyan erzesem ezt megint megalmodtad, hogy tudjal valamivel magyarazkodni ;)

"A lower resolution generally means that there can be more quality per pixel."

(#2614) rocket válasza Oliverda (#2609) üzenetére


rocket
nagyúr

Azert ez eleg rosszul hangzik, vegulis arrol van szo, hogy kordaban tartsak a fogyasztast limitalva lesz a teljesitmeny, ami azert legyunk oszintek nem igazan az elsodleges szempont a felhasznaloknal ebben a kategoriaban, es ugye a PCI-SIG "matrica" se hianyzik a kutyanak se. (Abu OEM latomasait nem vettem figyelembe amig nem linkel valami hiheto forrast errol.)
Persze elofordult mar , hogy a gyakorlatban jol mukodott ami elmeletben nem tunt ugy, hogy jol fog :)

Szerintem az NV csinalna jol, ha kiadnak a 400wattos szornyet, kutyat nem erdekelne a fogyasztas, es presztizs gyozelem lehetne.
Ebben az esetben az AMD is gondolhatna ugy, hogy deaktivalja a fogyasztasi limitet eloidezo funkciot, ami valoszinuleg BIOS alapu, igy ez nem lenne nagy muvelet.

"A lower resolution generally means that there can be more quality per pixel."

(#2615) rocket


rocket
nagyúr

nApoleon azt irja Chiphellen, hogy december 7-en startolnak a HD6950/6970 kartyak.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#2616) Oliverda válasza rocket (#2614) üzenetére


Oliverda
félisten

Szerintem ha a kutyának sem hiányozna az a "matrica" akkor már rég lett volna nV ref. dual GF100 és ehhez hasonló szörnyek.

Lehet, hogy szerinted rosszul hangzik de a gyakorlatban több fér a 300 wattos TDP-be mint az ember elsőre gondolná csak okosan kell kihasználni a keretet. Az 5970 a 294 wattos TDP ellenére játékok alatt (illetve pontosabban trémárk) alatt még a 211 wattos csúcsot sem lépi át. Az pedig, hogy Furmark és hasonló digitális hulladékok futtatása közben a felére fog visszaesni a kártya órajelet az szerintem már nem sok embert fog izgatni. Első úgyis a játék az meg mint látható kicsit más max. terhelést képes adni.

"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

(#2617) Bici válasza Oliverda (#2616) üzenetére


Bici
félisten

A starcraft II is furmark-hoz hasonlóan terheli VGA-t, nem?

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#2618) rocket válasza Oliverda (#2616) üzenetére


rocket
nagyúr

GF100 sokat kesett, nem hiszem arra akartak pazarolni az eroforrasokat, hogy elorukkoljanak egy dual kartyaval.
Ha nem lenne a nyakon an NVIDIA felirat, azt gondolnam az ASUS amokfutasanak kovetkezmenyet latjuk.
A tap csatik nincsenek beforrasztva, lehet csak az AMD-t ilyesztgetik :)

3DMARK2K6-al teszteltek, az is nevezheto digitalis hulladeknak.
Starcraft2 alatt erdekesebb lenne latni ezt a tesztet, vagy olyan jatekban ahol a CF skalazodasa majdnem tokeletes.

Jo nagy baromsag ez az egesz PCI-SIG limit, es a gondjuk a gyartoknak ott kezdodik, hogy a 300watt a TDP-re vonatkozik nem a valos fogyasztasra (mondjuk ezt nem is nagyon lehetne kivitelezni, mert nem fogjak az osszes jatekot vegig tesztelni nem-e mereszkedik a fogyasztas 300watt fole :D ), es pl. AMD altal megadott 294wattos TDP a jatekok alatti maximum elerheto board powert jelenti, nem a powervirus programok alapjan szamoljak, magyarul az AMD-nek 6 wattja maradt a HD5970-hez kepest a HD6990-nel, hogy beferjen a limitbe.
Foleg a pontvadasz tunigosok jarnak majd rosszul a fogyasztasi limit miatt teljesitmenyt szabalyzo megoldasnal, de mint a GTX580 eseteben, valoszinuleg HD6990 eseteben is konnyen kikapcsolhato lesz.

#2617:Nekem is ez fordult meg a fejemben :)

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#2619) Oliverda válasza Bici (#2617) üzenetére


Oliverda
félisten

Nem tudom, hogy mennyire hasonló a kettő de a Starcraft csak egy játék a sok közül illetve (AA nélkül) amúgy sincs szüksége túl nagy GPU teljesítményre.

"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

(#2620) csatahajós


csatahajós
senior tag

Némi infomorzsa:
Slide

Ezek alapján úgy látszik a nagyon magas órajelű RAM-nak kaszáltak....

(#2621) rocket válasza Oliverda (#2619) üzenetére


rocket
nagyúr

Az lenyegtetlen 1 jatek a sok kozul, a lenyeg hogy van ilyen jatek, Starcraft 2-vel igazabol az a legenda megdolt, hogy a jatekok nem lehetnek a kozeleben se a powervirusok altali fogyasztashoz.

A 6GHZ-en jaro memoriak most se jottek ossze, nagyon karcsu lesz ehez a kartyahoz a 160GB/s savszelesseg.

#2620:Megeloztek ;)

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#2622) Abu85 válasza rocket (#2613) üzenetére


Abu85
HÁZIGAZDA

A TUL-tól kapunk kimutatásokat. Náluk HD 5970-es termékek 78%-a OEM szinten ment el. Ezt abból lehet látni, hogy az eladások 78%-a TUL, és csak 22%-a PowerColor. :) Ez egyébként általánosan jellemző mutató. Ezért nincs a csúcskártyákból gyártók által tervezett verzió, mert az eladások nagyon nagy része az OEM piacra megy, oda pedig úgyis a referencia az elfogadott. :)

(#2614) rocket: Az a limit nem véletlenül jött létre. Van négy kártya, ami ezt túllépi, de mindegyik csak limitált szériás 1000 darabos mennyiségig. A limitálás a magas árazás miatt van, mert az OEM gyártók úgy sem fogják rendelni, így kell a luxusár, hogy a fejlesztési költség visszajöjjön. Azon pedig nem érdemes csodálkozni, hogy az OEM-ek tartják magukat a limithez. A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát. Alapvetően az ATX szabvány a probléma. Nincs lehetőség több hőmennyiséget elvezetni a kialakítás problémái miatt.

(#2618) rocket: Pedig voltak dual prototípusok. Csak mindet elkaszálták, még a gyártói megoldások is halva születtek. Valamelyiknek nem lehetett megoldani a hűtését, míg a dual GF104-es modelleket a HD 5970 teljesítménye végezte ki. De ezt már mondtam, hogy 300 wattos limiten belül az a kártya nem fogható. Esetleg akkor fogható, ha valamelyik gyártó egy teljesen dinamikus órajelszabályzást vezet be, persze akkor sem kell 20-30%-nál nagyobb gyorsulásra számítani, a fizika törvényei lehetetlenné teszik.
A PCI-SIG egy külön mérést alkalmaz, amivel megállapítják a fogyasztást. Az egyik probléma ezzel kapcsolatban, hogy rá lehet tervezni a terméket, amit láthatunk a GF100 és a GF110 esetében. A játékokban a csúcs-GeForce-ok még mindig többet fogyasztanak a HD 5970-nél, csupán azért vannak benne a 300 wattban, mert megfelelően teljesítik a PCI-SIG mérését. A jövőben ez változik, mert a szervezet több mérést alkalmaz majd, és mindenhol meg kell felelni a limitnek. Ez azt fogja eredményezni, hogy nehezebben lehet belőni a PCI-SIG tesztjére a terméket.

(#2617) Bici: Igen a StarCraft 2 képes megközelíteni a Furmark terhelését. Azt hozni nem lehet, mert arra a játék körülményei alkalmatlanok, hiszen biztos lesz egynél több objektum a jelenetben, de megközelíteni már nem probléma. Erre lett bevezetve a hardveres túlterhelés védelem a HD 5000-nél, mert a szimulációk azt mutatták, hogy lehetséges a Furmark szintű terhelés, ami problémát jelenthet a jövőben. Hasonló védelmet az NV is bevezetett a GTX 580-nál, csak az félig szoftveres vezérlésű, vagyis meg van a módja a kikapcsolásnak. Itt majd valószínűleg az NV átírja a drivert, hogy a GPZ-Z trükkje ne éljen. Utána jön az új megoldás a GPU-Z-től, és így folytatódik a macskaegér játék, amíg az NV elő nem áll egy teljesen hardveres védelemmel.

(#2620) csatahajós: Cuki ez a GDDR5. Van benne kraft, de a stabil memóriavezérlőt nem könnyű hozzá összehozni. :)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2623) Oliverda válasza rocket (#2618) üzenetére


Oliverda
félisten

Nem nehéz rárakni az nVidia feliratot. :) Ráadásul csak két tápcsatlakozó van rajta ami azt jelenti, hogy vagy tényleg egy nagy kamu az egész vagy belefér a 300 wattba ergo erősen le van butítva a két GPU. Az ASUSféle dual GF110 ilyen volt.

3DMark03-mal teszteltek ami azért eléggé más célokra lett kitalálva mint a Furmarak. Ergo sokkal reálisabb eredményeket ad a játékok által képes terhelésről. Nem véletlenül használják pont ezt a TPU-nál.

Szerinted baromság szerintem pedig még a 300 wattos keret is magas. Így legalább a gyártók is rá vannak kényszerítve az optimalizációra. Nekünk pedig nem kell 1000 wattos tápokat vennünk egy csúcs kártyához. :)

"(mondjuk ezt nem is nagyon lehetne kivitelezni, mert nem fogjak az osszes jatekot vegig tesztelni nem-e mereszkedik a fogyasztas 300watt fole :D )"

Erre van már egy jól kidolgozott folyamat. A PCI-SIG plecsnit nem a Furmark, a 3DMark03 vagy éppen a Crysis alatt mért fogyasztás után adják. :)

"es pl. AMD altal megadott 294wattos TDP a jatekok alatti maximum elerheto board powert jelenti, nem a powervirus programok alapjan szamoljak, magyarul az AMD-nek 6 wattja maradt a HD5970-hez kepest a HD6990-nel, hogy beferjen a limitbe."

Leírtam feljebb, hogy szerintem hogyan fog működni a 69xx esetében a dolog. Ugyanaz a lényege mint az procik turbójának. A rendelkezésre álló TDP keret hatékony kihasználása. Furmark alatt le fogja venni az órajelet (és valószínűleg a feszültséget is) még például 3DMark03 mellett addig fogja feltolni ameddig még belefér.

A tuning meg már egy más kérdés. Annak nem sok köze van a PCI-SIG plecsnihez. A procik TDP keretét sem tuning mellett lövik be.

[ Szerkesztve ]

"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

(#2624) rocket válasza Abu85 (#2622) üzenetére


rocket
nagyúr

Linket kertem, nem szamokat leirva toled.
Sajnos annyit tevedtel mar, hogy nehez neked barmit is elhinni amit a PH alcaja moge bujva probalsz beadni az AMD "mindigmindentjolcsinal" erdekeben.

Hagyad mar ezeket a tenyek nelkuli OEM gyartos marhasagokat.

"A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát. Alapvetően az ATX szabvány a probléma."

LOL :DDD

Tovabb nem is olvasom, ennyi eleg volt :)

"A lower resolution generally means that there can be more quality per pixel."

(#2625) Abu85 válasza rocket (#2624) üzenetére


Abu85
HÁZIGAZDA

Szerinted odaadhatom a TUL kimutatását bárkinek? :) Kérd el a cégtől. Az pedig, hogy nem hiszed el, nem változtat semmin. Múltkor azt mondtad, hogy nem lesz MLAA a HD 5000-ben, mikor én mondtam, hogy lesz. Nyilván akkor is én tévedtem mi? :))
Az a gondod rocket, hogy túl sok dolog jött be nekem. És te ez ellen nem tudsz mit kezdeni. Kezdjük ott, hogy szerinted mit nem csinál jól az AMD? Jelentősen kisebb lapkával hozzák az NV-s megoldások teljesítményét. Első helyen vannak a VGA-piac eladási statisztikái alapján és lehagyták az NV-t a GPU-piacon. Integrálják a CPU-ba a GPU-t, vagyis képesek olyan notebook platformot kínálni, amivel lehetőség lesz versenyezni az Intel ellen. Komplett fejlesztőkörnyezetekkel támogatják az összes gyártófüggetlen piaci szabványt. Nem zárnak le semmit a konkurensek elől így biztosítva, hogy a felhasználók érdekei ne sérüljenek. Erre jó példa a PhysX és a Mafia 2 esete. Ha valakinek nem jó, hogy a GPU-s cloth modul a CPU-n fut, azok a GeForce tulajok, akik jóhiszeműen megvették a terméket, mondván, hogy tudják majd használni a PhysX gyorsítást. Hát nem, mert akkor tudják használni, ha vesznek mellé egy dedikált GeForce gyorsítót, így a sebesség élvezhető lesz. Ez annyira a júzer érdeke, hogy már sírnom kell.

Tények nélküli? Mutass egy olyan OEM gépet, amiben van Asus Ares, vagy ehhez hasonló rendszer. Ha nem megy, akkor húzom az újabb strigulát miss dobozodba. Az MLAA után nem gondoltam volna, hogy ilyen rövid időn belül megy a másik. ;]

Hát, ha szerinted a lehetséges égési sérülés ennyire nem probléma, akkor miért nem látunk 300 watt felett fogyasztó VGA-t? :)) Magyarázat jöhet, hiszen nyilvánvaló, hogy hatalmas a tapasztalatod az OEM-es igények területén.

Vagy csak nem tudsz rá már mit mondani. A tények makacs dolgok. ;)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2626) toldy válasza rocket (#2624) üzenetére


toldy
őstag

A BTX szabványt pont ezért találták ki, a hatékonyabb hőelvezetés céljából. :U
Nem pedig azért mert úgy volt kedvük, az más dolog hogy nem erőltették annyira hogy elterjedjen, mert mindenki ragaszkodik az "elavult" atx platformhoz ( itt nem arra gondolog hogy atx, matx itx hasonlók, hanem az alapvető elrendezés).

[ Szerkesztve ]

Az élet nem habostorta.

(#2627) rocket válasza Abu85 (#2625) üzenetére


rocket
nagyúr

Miert kuldene a TUL uzleti dolgokat tartalmazo kimutatast egy hardverekkel foglalkozo weboldalnak?

Ennyi, tenyleg hagyuk, ugyse fognak kozeledni az allaspontjaink addig amig nem mutatsz valami kezzel foghatot, ami tenykent mukodne.

"Az a gondod rocket, hogy túl sok dolog jött be nekem."

Igazad van, 6GHZ-es memoriak 256bit-es busz mellett is bejott a HD6970 eseteben :DDD
(ha szerencsed van akkor az a slide FAKE, ha nem akkor "miss" ;) )

Ajaj, ne keverd ide az AMD elso helyet, meg a kisebb lapjakukat, szo se volt rola, mivel ezzel kapcsolatban nagyabol ugyanazon a velemenyen vagyunk.
Leirtam mar parszor, hogy szerintem mit nem csinal jol az AMD, nem fogom ujra.

Az AMD legnagyobb gondja az, hogy nem latszik a kisebb lapkabol es nagy szamu eladasokbol szarmazo profit, meg ugyse hogy nem diktalt az AMD diszkont atrazast a HD58xx szeriaval, es Q3-ban meg ~90%-os DX11-es piaci reszesedese volt, es igyis valami felre siklott.

"Tények nélküli? Mutass egy olyan OEM gpet, amiben van Asus Ares, vagy ehhez hasonló rendszer."

Nem ertem, hogy jott ide az ASUS ARES.
Hivatalosan nem letezo termekrol irogatsz, mit keresne az OEM gepekben?
Amikor mar nem tudsz mit irni, felhozol olyan temakat amirol szo se volt, ez is egy sajatossagod.

"Az MLAA után nem gondoltam volna"
Nem akartam elhinni amit mondott Huddy, mondjuk meg hivatalosan nincs MLAA driver, ugyhogy meg ne huzzal be semmit :)
Karpotol az a tudat, hogy jo elore "megjosoltam", hogy a TSMC torolte a 32nm-es nodejat, amit te nem akartal elhinni, es a forum bajtarsaddal osztottatok az iget, hogy nem igy lesz :D
Rajtatok mulna akkor 28nm-es GPU invazio kapujaban allnank, egy sikeres 32nm-es generacio utan, 6+GHZ-es GDDR5 memoriakkal :DDD

(egyebkent azt az urban legendat se terjeszd tovabb, hogy a Barts azert lett 40nm-es GPU mert a 32nm-es NODE torlesenek az aldozata lett)

En befejeztem, inkabb jatszok egy kis NFS-t mint veled fussam ugyanazokat a koroket 108x :)

"A lower resolution generally means that there can be more quality per pixel."

(#2628) rocket válasza toldy (#2626) üzenetére


rocket
nagyúr

Nem irtam ennek az ellenkezojet :)

Nem lett volna egyertelmu ezen rohogtem:
"A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát"

Megha a kartyara irta volna ezt akkor oke, dehat igy megint egy vicc gyujtemenybe valo jott ossze.
OEM gepeknel a haz felbontasa a szerzodo felek kozti szerzodes (ami a vasarlassal jon letre) megszegesevel jar, es ez semlegesiti a ceg felelosseget ha a lama usernek megis 3D alkalmazas futtatasa kozben lenne kedve a kartyat fogdosni :)

"A lower resolution generally means that there can be more quality per pixel."

(#2629) LK


LK
addikt

Sziasztok! Örülnék, ha valaki tudna infót arról a kártyáról,amit az 5770-ből fognak kiadni (talán 67xx néven),megosztaná velünk. Olcsóbb kategória,és első negyedévre igérik,de mit fog tudni ?

"óóóóó istenem.. boldogok a lelki szegények, mert övék a trollok és fanboyok országa, ámen" by PUG

(#2630) csatahajós válasza LK (#2629) üzenetére


csatahajós
senior tag

Az 5770 marad 5770, legalábbis egyelőre tuti :). Az új 67xx széria feltehetően a 28nm-es pipecleaner GPU-ra fog épülni, úgyhogy ha az Q1 akkor igencsak március vége lesz az.

Valószínűsítem, hogy a 66xx széria fogja közelíteni az 5770 teljesítméynét, de még az is meglehet, hogy kiadnak egy 6830-at, amit egy Bartsból butítanak vissza.

Egy 5770 teljesítményű kártyának ugyanabban az árszegmensben szerintem nincs sok értelme, mivel a Juniper elég jól sikerült kis darab és mivel úgyis maradtak 40nm-en így a gyártási költségeket sokkal lejjebb szorítani úgysem tudnák. Ergo vagy kell egy még kisebb lapka hasonló teljesítmény mellett, alacsonyabb fogyasztással, amit tudnak olcsóbban adni (felteszem HD66xx széria) vagy kell egy erősebb kártya hasonló árszegmensben ahová el tudják szórni a hibás Barts-okat (feltételes HD6830). Minden más verzióra érdemesebb megtartaniuk az 5770-et.

(#2631) Tirexi


Tirexi
addikt

Hát már kajak nem tudom kinek higgyek, inkább szép csendben megvárom míg kijön a HD6990 és majd a tesztek eldöntik hogy még is mi az igazság.

Amúgy csak érdekesség képen írom, jó pár játékban a GTX285 SLI még mindig megveri az ATI 5970-et ami nem kis szó ahhoz képest hogy milyen régi VGA-k.
Nem tom egyáltalán érdemes lesz-e váltanom ATI-ra.

(#2632) SzlobiG válasza Tirexi (#2631) üzenetére


SzlobiG
félisten

Mik is azok a játékok? Muta.:U

(#2633) Abu85 válasza rocket (#2627) üzenetére


Abu85
HÁZIGAZDA

Mert érdeklődök ezek után. Ha észrevetted, mi vagyunk az elsők, akik lehozták, hogy a PowerColor vagyis a TUL retail brandje Fusion alaplapokat fog gyártani. Senki más nem jelentette be. Ez azért van, mert én tartom velük a kapcsolatot.

Leírtad már párszor, hogy a fejlesztőkkel van gond az AMD-nél, de ez is megdőlt már, mert nagyságrendekkel több a Gaming Evolved cím a DX11-es játékoknál. Az NV TWIMTBP címe a HAWX 2, a Metro 2033 és a Lost Planet 2. Az összes többi DX11-es játék az AMD termékeivel és segédletével készült.

Szerintem se keverjük ide az első helyet a VGA-piacon, hiszen az mutatja, hogy növelik a részesedésüket. :D Tényleg ennyire szelektíven akarod beállítani az álláspontodat? :(

A VGA-piacban már annyiszor írtam, hogy nincs sok pénz, ez az AMD-re is vonatkozik. Attól függ a nyereség, hogy a mobil megoldások mennyire kelendőek. A nagy zseton az IGP, mert azon lehet a legtöbbet termelni. Egyébként meg az, hogy nem látszik a HD 5000 árazása nem igaz, mert ebben az évben jelentős pluszban áll az AMD a VGA-ból befolyt nyereség esetében, mint az elmúlt két évben. És ami bizonyítja az olcsón gyártható lapkák jelentőségét, azok a gyártópartnerek. Az NVIDIA az elmúlt hónapokban két első számú partnert is elfogyasztott. Persze gondolom ezt se keverjük ide, mert rossz fényt vett az állításaidra. :DDD

Az Asus Ares egy olyan kártya, ami 300 wattnál többet fogyaszt. Mivel ilyen kártya nincs az OEM-ek gépében, így ez azt mutatja, hogy a 300 wattnál többet fogyasztó kártyákat alapból nem alkalmazzák. Ezt hiába nem fogadod el, ettől még tény marad. Ennek az egyik oka, hogy nem lehet jól hűteni, vagyis a ház oldala annyira felfórosodhat, hogy megsütheti a felhasználót. A másik ok a stabilitás, ami csak meglehetősen hangos hűtés mellet biztosítható.

Szerinted a 10.10e az mi, ha nem egy hivatalosan kiadott driver? Az egyetlen ami nincs az WHQL aláírással rendelkező Catalyst, de a hotfix megoldások ugyanolyan hivatalos driverek, mint a havonta megjelenők. A béta driverek az AMD-nél sosem kerülnek fel a support oldalra. Persze a fórumokon kiszivárognak.

Azt természetesen jól írtad. Én is csak annyit írtam rá, hogy ezt nehéz elhinni, és nem tartom valószínűnek. Eleve a legnagyobb bárgyártóról van szó, akik ugyan bakizták a 40 nm-ert, de sosem volt olyanra példa a történelemben, hogy egy node-ot törölnek.
Az pedig igaz, hogy a Barts azért lett 40 nm-es, mert a 32 nm-ert törölték. Ha minden a terveknek megfelelően alakul a 32 nm körül, akkor aligha döntenek a 40 nm mellett. Ezt a linkelt post is bizonyítja, hogy eldöntötték a 40 nm-ert. Nyilvánvaló, hogy nem egyik napról a másikra törölték a 32 nm-ert, hanem volt annak előjele is, ami alapján mérlegelték a kérdést az AMD-nél.
Ez egyébként abszolút nem probléma az AMD-nek, sőt előny, mert az NV nem tud váltani, és nekik sokkal nagyobb szükségük van egy új gyártástechnológiára, hiszen a GF110 messze nem fejlődött annyit a GF100-hoz képest, mint amennyit fog a Cayman a Cypresshez képest, vagy emennyit a Barts fejlődött, hiszen jelentősen redukálták a méretét amellett, hogy alig vesztett a teljesítményből, szintén a Cypresshez viszonyítva. Ilyenre az NV nem volt képes a GF110 esetében, még a memóriavezérlő problémáját sem sikerült megoldani, mert továbbra is 4 GHz a stabil órajel GDDR5 mellett. Az AMD 4,8-at tud, míg a Caymannél majd meglátjuk ez mennyire emelkedik. Egyelőre a mintákon 6 Gbps-os lapkák vannak.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2634) gbors


gbors
nagyúr

úgy látom, megy a harc :)

ha a #2619-ben linkelt slide nem fake, akkor ez az 6970 nem lesz valami acélos - még ha növelik a hatékonyságot, és a SIMD teljesítmény egységenként hasonló marad, akkor is vékony lesz a backend...

A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát.

ez nekem is tetszett - meg kellene kérdeni Laudát, hogy hányszor égette össze magát a 480SLI-vel :DDD

#2633 Leírtad már párszor, hogy a fejlesztőkkel van gond az AMD-nél,

Hát, érdemes elolvasni a Beyond3D Fermi cikkét, abból indirekt módon kiderül, hogy az AMD-nél brutálisan nagy gáz van a fejlesztők környékén...

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#2635) Tirexi válasza SzlobiG (#2632) üzenetére


Tirexi
addikt

Ebben nézz körül egy kicsit: http://www.guru3d.com/article/radeon-hd-5970-review-test/12
Ja és akkor még tuning nem is volt adva a VGA-knak.

(#2636) rocket válasza gbors (#2634) üzenetére


rocket
nagyúr

HD6970-nel a 30 es a 1920-nal a 0 lejebb van, meg a kis kepen is jol lathato, kinagyitva meg megjobban :)

Ha igaz lesz akkor se gondolom, hogy az AMD szandekosan szurna ki magaval, lehet nem volt/lesz a kozeljovoben eleg 6GHZ-es memoria modul, igy kenyszerbol kellett meglepni az 5GHZ-et.
Ar/ertek aranyban meg igyis alkothatnak HD4870 stilusban :)

#2635:Ez a teszt tobb mint 1 eves, nem igazan mervado, de meg ebben is osszesegeben joval gyorsabb a HD5970 mint a GTX285 SLI, DX9-es COD4-5-6 amikben jobb a GTX285SLI a HD5970-nel egy picivel, a tobbi jatek kikap, van ahol nagyon.

Szoval ez nem jott be ;)

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#2637) Abu85 válasza gbors (#2634) üzenetére


Abu85
HÁZIGAZDA

Lehet, hogy viccesnek tűnik, de nagyon nem az. Az OEM gyártók mindent a szabvány szerint készítenek, mert azért vannak ezek kitalálva, hogy a működés az egyes részegységek között biztosítva legyen. Az ATX szabvány jelenleg kötött hőelvezetési mutatókkal rendelkezik, vagyis egy szabványnak megfelelő házban 300 watt az a hőmennyiség, amit el lehet vezetni. Az SLI az más tészta, mert a hő nem egy pontból keletkezik, de az NV be is vezetett egy SLI matricát a házakra, amit nem sok termék kap meg. A CM-nek és a TT-nek van ilyen háza. [link] - írtunk is a gyártók véleményéről. Egyelőre ez a szélcsatornás dolog tűnik értékelhetőnek, és a tesztprotokoll 40 fokos környezeti hője mellett nem fagy az SLI. Az OEM gyártók, is hasonló körülmények között tesztelnek, mert nem az a cél, hogy az otthoni körülményeket szimulálják, hanem azoknál durvább kell. Ha ott átmegy a rendszer, akkor nagyon nagy eséllyel otthon sem lesz baj, hiszen szelídebbek a körülmények.
Ilyen hőmérsékleti viszonyok között egyébként minden csúcskártya megbukik CF/SLI kiszerelésben. Nem erre találták ki az normál ATX házakat. Mind a keletkező hő veszélyes a felhasználóra, továbbá a stabil működés sincs meg.

Én ezt gyökeresen másképp hallom, sőt látszik is. Egyszerűen az AMD semmit nem költ a fejlesztői projektekre és hardvereket, valamint fejlesztőket adnak. Az NV inkább költ, és effekteket vásárol a játékba. A DX11-es címek arányából látszik, hogy melyik a kedvezőbb stratégia. Mind anyagilag, mind a támogatott játékok tekintetében. A legjobb dolog pedig, hogy nincsenek a felhasználók hülyének nézve, mint a Mafia 2 cloth moduljánál. De nyilván az NV-nek ezért kell költenie ezekre, mert épeszű fejlesztő csak úgy nem rak a programba limitációkat.
De, hogy számszerűen is itt legyen: eddig 10:3 az arány az AMD javára a megjelent DX11-es címekben. Idén még elvileg jön a Kylin MMO, de azt nem számoltam bele. Meg a jövő év elején a Deus Ex HR sincs benne. Ezenkívül még van 4 cím az első félévben, amit szintén AMD hardveren fejlesztenek a Gaming Evolved programon belül. Azok is kiderülnek később. Pletyka szinten tudom mondani, hogy köztük van a Duke Nukem Forever.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2638) SzlobiG válasza Tirexi (#2635) üzenetére


SzlobiG
félisten

Körül néztem 3 játékba előzi meg és a legjobb benne ez Published: November 18, 2009 azóta kijött már egy jó pár driver amivel javítottak a teljesítményen szal nem lehet a GTX 285SLI-t egy kalap alatt említeni az 5970-el...

(#2639) Abu85 válasza rocket (#2636) üzenetére


Abu85
HÁZIGAZDA

Az AMD nyilván nem szúrna ki magával szándékosan, de ha a memóriavezérlő egy bizonyos órajel fölött nem stabil, akkor az nem stabil. Ezen nem lehet már a fejlesztés ezen időszakában változtatni. Ha lehetne, akkor az NV sem 4 GHz-en tökörészne a 6-7 Gbps-os lapkák korában. Függetlenül attól, hogy a képen sok jel mutat a hamisítás felé, az benne van a pakliban, hogy a memóriavezérlő nem képes a tervezett órajelre.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2640) Tirexi válasza SzlobiG (#2638) üzenetére


Tirexi
addikt

Én legalább megpróbáltam egy kis életet lehelni a régi VGA-imba. :O :O

(#2641) MaUser válasza gbors (#2634) üzenetére


MaUser
addikt

Hát, ha lehet hinni az eddig kiszivárgott Vantage és Heaven teszteknek (a valóságalapjuk persze kérdéses), akkor a 6970 tényleg nem fogja megváltani a világot. Elvileg centire ugyanott lesz, mint a gtx580 és az 5970, ráadásul fogyasztásra is. Ez nem túl biztató sajnos.

Abu85: Egy megfelelő smiley beszúrásával tudnád tudatni, hogy mégis csak lehet okunk örülni, vagy a kiszivárgott tesztek szerint búslakodni fogunk.:)

''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

(#2642) Tirexi válasza Abu85 (#2639) üzenetére


Tirexi
addikt

Abu te látom vágod a témát. (oliba ajánlott téged :) )

Ennek a tesszellációs cuccnak volt értelme? Mármint nem lehetett volna ezt máshogy megoldani mondjuk valamiféle bump mapping-al?
Mert én eddig FPS csökkenésen kívül nem sok mindent vettem rajta észre.

(#2643) gbors válasza Abu85 (#2637) üzenetére


gbors
nagyúr

az OEM sztorit én nem fűzöm tovább, van igazság abban, amit írsz, de nagyon sarkított.

fejlesztők: engem a végeredmény érdekel - szinte minden újonnan kijövő játék jobban megy az azonos kategóriás nVidia kártyán, mint az AMD-n - annak ellenére, hogy a Cypress (és nyilván a többi Evergreen és NI chip is) sokkal jobban hozza az elvárható szintetikus teljesíményt, mint bármelyik Fermi. most akkor vagy a fejlesztői támogatással van gond, vagy a driver lényegesen rosszabb - melyik legyen? :)

rocket: értem - semmi sem az, aminek látszik :)

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#2644) Abu85 válasza Tirexi (#2642) üzenetére


Abu85
HÁZIGAZDA

Attól függ, hogy hogyan alkalmazzák. Effektekre, karakterekre van értelme, másra nincs, mert vannak problémák az API-ban és a raszterizálás hatásfokát is ki lehet ütni. Bár eddig csak egy játék van, ahol feláldozták a rasztert a tesszellálásért. Mondjuk ott fel is lehet, mert csak egy repülő van a képen és egy heightmapel generált táj. Gyerekjáték minden GPU-nak.
A Heaven például egy FPS-hez közelebb áll. Ott láthatod, hogy nincs olyan GPU, ami nem menne be 25 FPS alá, ha a raszterizálás hatásfoka 90% alatt van.

(#2643) gbors: Az újonnan kijövő alatt mit értesz? Mert nem szokott mostanában probléma lenni az új játékok teljesítményével. Azonnal hozzák azt a szintet, amit kell. Esetlegesen lehet javítani rajta 3- maximum 10%-ot, de ez ritka már. A szolgáltatásokat sem értem, nézhetjük mondjuk az NFS: HP-t, aminél egyelőre csak az AMD kártyáin lehet engedélyezni az MSAA-t. Nyilván a GeForce-on is lehetne, csak még nem készült hozzá driver.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2645) gbors válasza Abu85 (#2644) üzenetére


gbors
nagyúr

olvasd el még 1x, amit írtam :) nem írtam, hogy bármi rosszul menne, meg a szolgáltatásokról sem írtam semmit - annyit írtam, hogy az nVidia kártyákon gyorsabbak a game-ek (ha nem is sokkal), annak ellenére, hogy az AMD GPU-k hozzák, ami a papíron van, az nVidiák meg kevésbé...

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#2646) Abu85 válasza gbors (#2645) üzenetére


Abu85
HÁZIGAZDA

Így már végképp nem értem. Mit mihez hasonlítunk? Mert általánosan kijelenteni, hogy gyorsabb a gém, nem szerencsés. Nyilván a GeForce GTX 580 gyorsabb a Radeon HD 5870-nél, de a HD 5970-nél már nem. Így a gyorsabb fogalom csak a viszonyítás kérdése. :) Itt nem értem, hogy mihez viszonyítunk mit. Lapkaméret szerint? Fogyasztás szerint? Ár szerint?

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#2647) FireGL válasza gbors (#2645) üzenetére


FireGL
aktív tag

Változtasd meg a Device ID-t egy ATI kártyán, NV-re. Jópár játékban kapsz egy kis plusz fps-t ugyanazon a hardveren, mert azthiszi a TWIMTBP játék, hogy nem ATI kártya.

Az embert a gondolkodás tette állattá...

(#2648) SzlobiG válasza FireGL (#2647) üzenetére


SzlobiG
félisten

Ennek mennyi a valóság alapja, valami link van róla?

(#2649) Tirexi válasza FireGL (#2647) üzenetére


Tirexi
addikt

Hmmm ez engem is érdekelne.
Bár ha ilyen egyszerű lenne valaki már biztos kipróbálta volna.

[ Szerkesztve ]

(#2650) Abu85 válasza SzlobiG (#2648) üzenetére


Abu85
HÁZIGAZDA

A mai játékok elejéről szinte teljesen eltűnt a vendor ID ellenőrzés. Legutóbb a Batman: AA-ban volt, hogy az ATI ki legyenek zárva a szabványos élsimítás lehetőségéből. Most már van GOTY változata a játéknak, ami ugyanazt az algoritmust tartalmazza, csak nincs vendor ID check, így az ATI-n is működik.

Igazából ez az elgondolás manapság már nem alkalmazható, mert a játékosok szívják meg, és lényegében ők azok akik fizetnek. Esetleg, akkor, ha a megrendelő dollármilliókat tesz le az asztalra. Ez a stratégia pedig azért problémás, mert semmi nem garantálja, hogy a játékos a csalódás után marad a PC mellett szopni, vagy esetleg elmegy a konzol felé.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)
Copyright © 2000-2024 PROHARDVER Informatikai Kft.