Hirdetés

2024. május 4., szombat

Gyorskeresés

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2017-08-30 10:47:05

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#6151) fatallerror válasza Abu85 (#6150) üzenetére


fatallerror
addikt

na a haswell még odébb van, durván 1 év múlva jön addig még sok minden történik. jó h megcélozták az igp-t csak mire annak normális teljesítménye lesz az még sok év és nem járnának jól ha addig prémium termékként tekintenének a vga-kra mert egyre drágábbak és mindjárt kitalálják h 1000 dollárnál olcsóbb nem lesz (jó ez erős túlzás de bármit kinézek belőlük). az igény elég nagy a vga-kra csak hazudják h nem és ahogy látoma abefektetőknél működik is a hazugság h azért fogy egyre kevesebb vga mert nincs rá igény pedig van csak nem 500 meg 1000 dollárért (szerintem az emebreknél a lélektani határ vhol 300-450 dollár között van ami már nagyon max) ezért jobban kellene figyelniük a 200 dolláros kártyákra ha már a pénz számít nekik akkor jelenleg még a vga-val tudnak többet keresni nem az apukkal

don't tell me what i can't do!

(#6152) Abu85 válasza fatallerror (#6151) üzenetére


Abu85
HÁZIGAZDA

Inkább háromnegyed év, mert ugye 2013Q2.
Az IGP-re nem csak grafikát lehet rakni. Szépen át lehet nyomni egy játéknál rá a fizikát, az útkeresést, a különböző culling eljárásokat, a sortingot és a tartalom kikódolást. Nem viccből gyúr az Intel a Haswellnél az IGP-re.
Ennyiért lehet őket adni. Ennél lentebb alig-alig mennek majd az árak. És ha nem kell ennyiért, akkor nem az lesz az üzenet a cégeknek, hogy drága, hanem az, hogy a piac nem igényli őket. Vannak 200 dodóért is VGA-k. Új generációs megoldások is. A HD 7850 memóriától függően 190-210 dollár.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6153) Ric4m0nd válasza Abu85 (#6144) üzenetére


Ric4m0nd
aktív tag

Pontosan ez a funkció lenne hasznos BOINC projektek futtatásánál. Függetlenül a CPU-tól! Kíváncsi leszek, hogyan osztja majd fel a munkaegységeket a GPU esetén.

Van közelebbi információd a HD8000-es széria megjelenéséről?

[ Szerkesztve ]

(#6154) fatallerror válasza Abu85 (#6152) üzenetére


fatallerror
addikt

nem azt írtam h nem kell hanem h még legalább ugyanannyi figyelmet kellene szentelni a vga-kra is :K
meglátjuk azt a q2-őt, ha lesz pénzem várni nem fogok rá mert a mostani ib platform is elég erős és modern ahhoz h időtálló legyen még 2-3 évig is akár

jó de 250ről indult, a mostani áruk már oké de innen kellett volna indulniuk :] viszont a 100 dollár alattiakat már teljesen megkéne szüntetniük, óriási pocséklás

[ Szerkesztve ]

don't tell me what i can't do!

(#6155) Abu85 válasza Ric4m0nd (#6153) üzenetére


Abu85
HÁZIGAZDA

Nem csak a BOINC számára lenne hasznos. A játékfejlesztők is kérik. Eddig csak a GK110-re jelentették be, hogy kínál ilyen funkciót, de az kérdéses, hogy megjelenik-e GeForce-ként.
A HD 8000 2013 elején jön. Hasonló lesz a start, mint idén. Talán karácsony előtt enged teszteket az AMD.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6156) gbors válasza Abu85 (#6149) üzenetére


gbors
nagyúr

point taken. amit leírtál, az ugyan sokaknak a varázslás kategória, de azért örömteli, hogy legalább létezik megoldás. tényleg ki fogom próbálni :)

azt elhiszem, hogy webböngészéshez jó a PT. játékhoz nem jó.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#6157) Abu85 válasza gbors (#6156) üzenetére


Abu85
HÁZIGAZDA

Mi a baj a játékoknál vele? Az órajel dobálása? A PowerTune 0%-os alapbeállításokkal mindig tartja az alapórajelet, kivéve a Furmarknál. Ha tuningolsz, akkor +20%-ra kell húzni, és a tuningórajel is stabil lesz. Ha pedig kevesebb fogyasztást akarsz, akkor -20%. Ekkor tényleg valós időben változik az órajel a legtöbb játéknál. Tehát ha nem mész negatívba, akkor sosem lesz egy játékban kisebb az órajel az alapnál.
Ami alapbeállításon is dobálja az órajelet az a GeForce-on a GPU Boost, akár 100 MHz-eket is pakol oda vissza. A PowerTune Boost is ilyen csak finomabb határokkal.
Van két kép, hogy mi az amit a GPU Boost és a PowerTune Boost beállíthat, mint érték. Az AMD esetében a váltás az alapon kívül csak egy órajelállapot. Az NV-nél az alapon kívül 8 külön órajelállapot van, de termékenként változó ugye, mivel ebből csak az alsó 4 garantált. Ezek között a rendszer valós időben válthat a terhelés függvényében.
A képeken egyébként a pontok erőssége azt jelenti, hogy az adott teszt során a rendszer milyen gyakorisággal lőtte be az órajel-feszültség párosát. Ha erősebb a szín, akkor sokszor, ha gyengébb, akkor kevésszer. A GPU Boost esetében ugye vannak üres helyek. Azok is léteznek, mint állapot, csak nem voltak a teszt közben aktívak.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6158) gbors válasza Abu85 (#6157) üzenetére


gbors
nagyúr

igen. a PT boosttal, gondolom, nincs semmi gond, ugyanazért, amiért az nV boostjával sem - csak időnként kapcsol órajelet. persze akkor sincs gond, ha a PT nem kapcsol be - de akkor minek van? ha viszont bekapcsol, akkor az órajel folyamatos billegtetése látható a játékon, és engem személy szerint borzasztóan zavar.

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#6159) Abu85 válasza gbors (#6158) üzenetére


Abu85
HÁZIGAZDA

A PowerTune azért van, hogy védje a hardvert a Furmarktól. Ha téged az órjelváltás zavar, akkor a GPU Boosttal és a PowerTune Boosttal lesz inkább bajod. Ezek sokkal agresszívebben működnek, mert állandóan dobálják az órajelet, ahogy látod a grafikonon is. A PowerTune Boost csak egy órajelbeállításra és 50 MHz-et, míg a GPU Boost az 100 MHz-es szinteket is dobálhat ide-oda. [link] - Ez az NV saját mérése hogyan működik. 1 másodpercenként változott az órajel. Ez a minimum határ, ugyanis a driver dönt erről, vagyis a kérés is a válasz között 800 ms van.
Maga a PowerTune 0%-on egy játékban semmit sem csinál, mert a Furmarkra szabták. Ha nem így védi az AMD a Furmarktól a terméket, akkor máshogy kell elfojtani a teljesítményt. Furmark szerű terhelés pillanatokra előjöhet játék alatt is. Ilyen volt például a StarCraft 2. [link] - erről írtunk is. Sokan elhullott GeForce-ról beszéltek a fórumban. Akkor az NVIDIA semmivel sem védte a hardvereket a túlterheléstől. Az AMD a HD 5000-be már rakott egy alapvető védelmet, ami a túlterhelés érzékelésére az órajelet ugyan nem módosítja, de képes kiadni egy halt parancsot. Elméletben a GPU addig nem dolgozik az adott ciklusban, amíg a halt parancsot kapja. Egyszerűen futja az üres ciklusokat. Jellemző volt a Radeonokon, hogy a vezérlés úgy volt megoldva, hogy egy halt és egy munka parancs volt, és így folytatódott. Ugyanakkora ez teljesítményvesztéssel járt, mivel két ciklusra nézve a teljesítmény a felére esett, mivel az egyik ciklus üres volt. Persze ez 10 ciklusnál közel sem volt ilyen drámai. Furmark alatt 10 ciklust nézve 2-3 halt van, míg nagyon jól optimalizált játékban (StarCraft 2) 100 ciklusra 1 halt (de egy játék nem állandó jelenettel dolgozik, mint a Furmark, szóval itt ez az érték nagyon függött a jelenet típusától). Az NVIDIA hasonló védelmet vezetett be a GeForce GTX 580-on. Ez abban különbözött az AMD megoldásától, hogy nem volt kötelező egy halt után csinálni egy munkaciklust, vagyis előfordulhatott, hogy a GPU öt ciklusig nem csinált semmit. Utána persze jellemzően volt munka, mert a túlterhelés sosem lehetett olyan nagy, hogy öt ciklus után ne legyen meló, de ha ez a ciklus állandósuló, például Furmark, akkor a hardver megállapít egy extrém terhelési szintet. Tehát ha öt ciklusos lenne a halt, és egy a munka, akkor a rendszer inkább megfelezte a feldolgozás sebességét. Ezt úgy érte el az ütemező, hogy a külső parancsnál halt helyett slow jelet kapott, ami azt jelentette, hogy az erőforrások felét sose használja ki. Gyakorlatilag az ütemezőnek meg lett tiltva, hogy az összes GPC blokkra osszon szálat. Így működött a GTX 590 is, azzal a különbséggel, hogy a keret szűkösebb volt, így ha tuningoltál, akkor lassult a sebesség egy játékban. Természetesen a korábbi halt túlterhelés nélküli védelem a driveres tiltásra helyezte a terhet. Ez is hasonlóan működött, mint a GeForce-on a slow, csak a driver a program futtatásának elején kiadta, hogy lassítani kell, mert ez a program túlterhel. Ezt a rendszerprogramozók tesztelték ki, és a friss meghajtókba került a dolog. A Furmark ez ellen az exe átnevezéssel védekezett, így később ez a program kapott egy módosítást, vagyis a driver nem az exét detektálta, hanem a shader fordító rakott üres ciklusokat a Furmark shaderjébe. A játékoknál nyilván túl nagy veszélye nincs annak, hogy a user átnevezi a fájlokat, így ott a fájl szerinti fojtás megfelelt. A HD 4000 például azért volt gyenge a HD 5000-hez képest Starcraft 2 alatt, mert az AMD már a program kiadása előtt érzékelte, hogy gyilkolni fog, és belerakták a driverekbe a fojtást, amint bekerült a meghajtóba a profil a játékra. Az NVIDIA ezt nem tette meg, és ezért hullottak a GeForce-ok a játék kiadásakor. Később persze megtörtént, aminek meg kellett történnie. Az NVIDIA is lelassította a hardveres túlterhelésvédelemmel nem rendelkező termékeket, a helyzet ugyanaz volt, mint az AMD-nél fojtás a driverbe. Ezért van az, hogy a GeForce GTX 480 lelassult az új driverekkel, míg a GTX 580 sebessége nem változott StarCraft 2 alatt. Persze a StarCraft 2 az nem Furmark, szóval annyira drasztikus fojtás nem kellett bele, nem kell tehát felezett sebességtől tartani, amolyan 10-15%-os mínusz volt a jellemző.
A HD 6900-nál mutatkozott be a PowerTune, ami azt a célt szolgálta, hogy kevésbé legyen drasztikus a túlterhelés elleni védelem. Könnyen kitalálható, hogy nincs rosszabb annál, ha egy GPU kap egy halt ciklust, mert jelentősen növelhet a frame elkészülésének idején, ha egy egész ciklusig nincs munka. A több ciklusos halt, ami a GTX 580/590-en volt, pedig nagyon gáz lehet. Nyilván tök egyértelmű, hogy a játékok ebből nem sokat éreztek, azok terhelése nem Furmark szintű, de a halt, ha bekapcsolt, akkor nagyon is érezhetően ártott a folyamatos képszámításnak. Ugyanakkora a halt túlzott, amikor a teljes ciklust üresbe rakta, hiszen jellemzően a túlterhelést nem kell feltétlenül a terhelés megszüntetésével orvosolni. Nyilván a pillanatnyi túlterhelés nem gond, csak a folytonos. Például, ha 2-3 másodpercig tart, az már para lehet (a hardver persze gyorsan dolgozik, így lereagálja a dolgot a másodperc töredéke alatt). A PowerTune abban újított, hogy kivette a haltra való igényt, ugyanis a rendszer precízen monitorozta a terhelést, és ha érezte, hogy a peak meghatározott idejénél tovább tart a terhelés, akkor be kell avatkozni. A haltra viszont nincs szükség, mivel a túlterhelés mértéke változó, és a PowerTune kiszámolja, hogy mekkora az az órajel, amivel a terhelés a specifikált limit alá szorítható, és annyival csökkenti az órajelet. Ez lehet akár 1 MHz is, ha ennyi elég. Ha a terhelés a limit alá ment, akkor lehet növelni az órajelet. Ez egy valós monitorozás lényegében, és az órajel folyamatosan reagál a terhelés szintjére. A Powertune megkötése persze, hogy van egy órajelminimum is. Jellemzően ~300 MHz-es az a sáv, amiben működik. Ez azt jelenti, hogy ~300 MHz-nél nagyobb órajelcsökkentést nem enged meg. Ez persze fejlesztésenként változó, mindig az adott fejlesztéshez szabják. Van olyan, ahol ~200 MHz a PowerTune sáv. Természetesen a specifikált limitet lehet változtatni. A 0%-ot az AMD mindig úgy állítja be, hogy az a játékoknál ne jelentsen órajelváltást. Ez ügye elemi érdek, mert ha csökken az órajel, akkor csökken a sebesség. Ennek a limitnek a negatívba és pozitívba eltolása a user feladata, ha akarja. Nyilván hagyható 0%-on, de ha tuningolsz, akkor nem árt pozitívba tolni, mert nyilván a tuningórajel, már csökkenhet, hiszen a limitet az alapórajelre szabták. A -20%, akkor lehet hasznos, ha futtatsz valami BOINC projektet. Még mindig sokkal gyorsabban számol a GPU, mint a CPU, de legalább nem fogyaszt annyit, mint 0%-on. Illetve nyilván a mobil felhasználás során is értékes a dolog. Ha nincs konnektor a közelben, de valami 3D-s alkalmazást nyomsz, akkor -20%-os paraméter sokat segít az aksinak ergo később fog a noti lemerülni. A PoweTune Boost, mint "újdonság" tök egyértelmű. Sokszor a 0%-os PowerTune limit, is sok és bőven van hely órajelemelésre. Ezt használja ki a PowerTune Boost. Fontos viszont, hogy a PowerTune Boost egy megkülönböztetett jel, vagyis az vagy aktív, vagy nem, nincsenek köztes állapotok. Ha aktív a PowerTune Boost, akkor az órajel a Boost órajel ez fixen annyi marad, amíg az állapot aktív. Ha a Boostot kilövi a hardver, akkor az eredeti PowerTune paraméterezés lét érvénybe az alapórajellel, és az 1 MHz-es lehetséges minimális csökkentésekkel. Az órajel változása egyébként fejlesztésenként eltérő, de 10-100 ns-os reakcióidő van, vagyis 10-100 ns-onként lehet órajelet váltani a Radeonnak. Ugyanez érvényes a Boostra. 10 ns-onként ki-be lehet kapcsolni (itt a 100 ns azért nem él, mert a Tahiti az egyedüli boostos termék, és az 10 ns-mal dolgozik, de nyilván ez a paraméter is eltérő lehet fejlesztésenként)
A Keplernél az NVIDIA is áttért egy hasonló megoldásra, de a PowerTune-nal ellentétben nem a hardver értékel, hanem a driver. A hardver csak mér, és adagolja az infót a drivernek, ami egy adatbázis alapján válaszol, hogy a beküldött (azaz legutóbb kimért) terhelési szint után milyen órajelet és feszültséget kell beállítani. A GPU Boost bines lépcsőkben zajlik. És egy binnek megvan az órajelértéke (GTX 680-nál például 13 MHz). Az órajel tehát ennál a terméknél 13 MHz-cel változhat, de a maximum változás pedig 8 bin mellett 104 MHz lehet. 4 bin mellett pedig a specifikációkban megadott 52 MHz. A köztes bineket ki lehet számolni. Nyilván ez csak a GTX 680-ra vonatkozik, de elég egyszerű az NV speckója. Minden termékre 4 bin van biztosan garantálva. A bin órajele pedig a hivatalos GPU Boost órajel mínusz az alapórajel osztva néggyel. A PowerTune-hoz tehát az alapvető különbség, hogy nem a hardver dönt az órajelről, hanem a driver mondja meg. Ez egy 800 ms-os késleltetés az oda vissza jel miatt, illetve a proci munkája. Éppen ezért az NVIDIA termékein az órajelváltás minimum 1 másodpercig tart, és a Boost módban váltott órajelet 1 másodpercig minimum meg kell őrizni. A Boost viszont lefelé is működik. Az NVIDIA szintén eldobta a halt rendszert, hasonló okokból, mint az AMD. Ha a hardver nem bírja alapórajelen a terhelést, akkor egy negatív GPU Boost lép érvénybe, ami a bin órajelértékével, illetve annak többszörösével csökkenti majd az órajelet. Erre szintén van adatbázis a driverben. Lefelé egyébként terméktől függően 20-30 bin engedélyezett. A GeForce esetében magát a specifikált limitet nem lehet módosítani. Az állandó. Ez attól van, hogy a GPU nem monitorozza magát, mivel ezt egy külső IC végzi. Az AMD azért képes a limitet paraméterezhetővé tenni, mert a PowerTune a GPU-ba van építve (tehát nincs külön IC erre), és a PowerTune áramkör programozható.
Ezenkívül a PowerTune nem csak a terhelés monitorozásáért, hanem az energiagazdálkodásért is felelt. Nyilván egyértelmű, hogy ha az adott munkafolyamat terhelése megszűnik, akkor az a legjobb, ha a hardver a lehető leggyorsabban vált idle, vagy köztes órajelre. A szoftveres megoldásoknál ez lassú, mert a driverből kell erre enegedéjt kérni, de az nem foglalkozik a driverrel, mert maga dönt. A ZeroCore is egy PowerTune technika alapvetően. Azért akarják ezt másolni a konkurensek, mert ennél hatékonyabb vezérlési forma nincs. És ebből érthető, hogy az AMD miért védi a specifikációkat még a saját partnerei elől is.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6160) fatallerror válasza Abu85 (#6159) üzenetére


fatallerror
addikt

és a gyakorlatban mennyire működnek jól ezek a védelmek?

don't tell me what i can't do!

(#6161) Abu85 válasza fatallerror (#6160) üzenetére


Abu85
HÁZIGAZDA

Nagyon jól működnek már. A Furmark fejlesztője le is állt a program polírozásával. A szoftvert meg lehet kerülni, de hardvert nem. Persze a GeForce GTX 580 és 590 védelme a GPU-Z-vel kikapcsolható, de nem ajánlott megtenni. Asszem a Kepler Boostja is kikapcsolható pozitív-negatív irányban, de azzal sem érdemes élni, mert a hardver erre támaszkodik a védelmeknél.
A PowerTune kikapcsolhatatlan, mert az a display driver betöltéséhez van kötve. Tehát az egyetlen mód ezt kikapcsolni, ha megtiltod a display driver betöltődését, ami pedig lényegtelenné teszi a dolgot, mert display driver nélkül semmilyen 3D-s program nem fut.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6162) fatallerror válasza Abu85 (#6161) üzenetére


fatallerror
addikt

na akkor jó h már itt tart. ráadásul a "maradibb" kepler is biztonságos. kíváncsi vagyok h a gcn-ből mit tud még kihozni az amd vga téren

don't tell me what i can't do!

(#6163) gbors válasza Abu85 (#6159) üzenetére


gbors
nagyúr

a tesztekben én azt láttam, hogy a boost messze nem ennyire hektikus - jellemzően egy órajelen megy. meg ugye max. 100MHz-es range-en csinálja, míg a powertune akár 300-400MHz-eket változtat, ciklikusan. igen, ha nem kapcsol be, akkor jó - de pont Te írtad, hogy pl. az OEM 6990-et így tolják be 300W alá. na egy olyan géppel nem szeretnék találkozni :(

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#6164) Z10N válasza Abu85 (#6159) üzenetére


Z10N
veterán

Reszben erinti a kerdesem a temat. HD6850-nel a "PowerState"-ek elvileg dinamikusan valtozank. Esetemben Eyefinityben es Extended modban hasznalom. Ugye alapbol egy kijelzo eseten visszaveszi az orajelet 100/300@950mV, ez 3db megjelenitonel 250/1000@1000mV, ami alapbol 300/1000@1000mV, viszont 250 alatt mar nem stabil. Illetve foleg videozasnal (flash) felugrik 600-ra. Szoval a kerdesem az lenne az Eyefinity/Extended mod ennyire igenyelne a plusz orajelet es feszultseget 2D-ben (bar a scaling be van kapcsolva). Ez kb 10°C jelent 45/55°C, illetve ilyen melegben is 47/57°C (1 vs 3 display) 2D-ben (ez HD6950-nel is kb azonos volt). A vicces az, hogy terhelve 3D-ben viszont nem megy 65°C (67) fole, huzamosabb terhelesnel max 70 (BF3MP), mikozben 975@1200mV megy. A masik az elobbihez kapcsolodik az EYE/EXT mod mennyire befolyasolna az overclockot, mivel 1 kijelzonel az 1GHz-cel sincs gondja, 3-nal viszont neha eldobja (ertsd a venti felporog es eldobja a vedelem az alkalmazast), illetve EYE/EXT modban az energiagazdalkodas, hogyan mukodik nem csak HD6000-nal, hanem HD7000-nel is. Udv.

[ Szerkesztve ]

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#6165) Abu85 válasza gbors (#6163) üzenetére


Abu85
HÁZIGAZDA

A PowerTune pedig 0 MHz-et változtat 0%-os beállítással. A Boostok sokkal hektikusabbak. A GPU Boost a legrosszabb. Ott a TPU-s kép ... vagy az NV mérése, ami másodpercenkénti órajel módosítást mutatott. Egy mérés alatt az összes órajelszintet érintette többször is. Ugyanígy a PowerTune Boost, de annak csak egy szintje van, de az is nyilván váltogat az alap és a boost szint között.
Egyébként, ha elolvastad, akkor a GPU Boost ugyanúgy működik negatív irányba is. Tehát az órajeskálázás mindkét architektúrán közel 300-400-500 MHz-es tartományban működik. De ez csak elmélet. A gyakorlatban egy játék nem képes úgy leterhelni a hardvert, hogy az alapórajel alá kelljen menni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6166) Abu85 válasza Z10N (#6164) üzenetére


Abu85
HÁZIGAZDA

A HD 6850 nem PowerTune-os rendszer.
Több megjelenítőnél persze, hogy nem stabil 250 MHz alatt. Egy kijelzőre van tesztelve az idle. És azért nincs engedélyezve a kártyákon ez több kijelzőnél, mert nem lesz stabil. Ez nem csak a Radeonokon, hanem az összes terméken így működik. Ha több kijelzőt használsz, akkor nincs idle.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6167) janos666 válasza Abu85 (#6166) üzenetére


janos666
nagyúr
LOGOUT blog

De, sajnos van, ha fut az MSI AfterBurner. Ilyenkor vibrálnak is a kijelzőim, szóval vagy feszemelt overclock vagy multimonitor. (Na jó, talán lenne más megoldás a kettőre együtt, de egyszerűről nem tudok.)

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#6168) Abu85 válasza janos666 (#6167) üzenetére


Abu85
HÁZIGAZDA

Azért nincs idle, mert vibrálna a kijelző. Az afterburnert hagyni kell. Ott a CCC Overdrive. Azért építi be az AMD, hogy ne kelljen külső progit használni ehhez.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6169) janos666 válasza Abu85 (#6168) üzenetére


janos666
nagyúr
LOGOUT blog

Hol van az overdrive-ban a VCore csúszka? :Y
A HD5850 nem 1V-on megy 1Ghz-et, hanem 1.2-n. :DDD

Egyébként azt hiszem a memóriaórajelet is elég lenne magasabban tartani a multimondiot setuphoz, de felfoghatatlan számomra, hogy az AfterBurner-ben miért nem oldható ez meg. Pedig egyáltalán nem tűnik lehetetlennek vagy egy olyan opciót adni, hogy ne is váltson soha órajelet a kártya ("force constant clocks" vagy valami), vagy legalább a külön elmenthető 2D/3D profilokat rendesen kezelné, és ha azt mondom 2D-ben is 1Ghz a RAM, akkor nem viszi le 300-ra idleben sem. De nem... mindig leveszi és bele sem szólhatok, hogy meddig...

A BIOS-ba is beírtam volna már én, ha nem lenne túlbonyolítva és ott is egyszerűen megadhatnám hogy 1.2V-on menjen 3D-ben a GPU.

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#6170) TESCO-Zsömle válasza janos666 (#6169) üzenetére


TESCO-Zsömle
félisten

Azt nem értem, hogy aki ennyire profi tuningban, annak miért okoz gondot ezt BIOS-on belül megoldani?

[ Szerkesztve ]

Sub-Dungeoneer lvl -57

(#6171) hoolla


hoolla
aktív tag

http://www.hardwareheaven.com/reviews/1561/pg1/powercolor-devil-13-hd-7990-graphics-card-review-introduction.html

"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."

(#6172) ricshard444 válasza hoolla (#6171) üzenetére


ricshard444
veterán

Ez azért beadja,de tuningban nem remekel viszont 5760as felbontáson aláz ;]

[ Szerkesztve ]

Vannak dolgok...

(#6173) janos666 válasza TESCO-Zsömle (#6170) üzenetére


janos666
nagyúr
LOGOUT blog

Nem tudom, egyszerűen nem vergődtem zöld ágra az RBE-vel Vcore ügyben.
Ha mutatsz egy jó leírást HD5-höz, akkor megcsinálom, de nem tűnik egyértelműnek a túlfeszelés. Szerintem hexeditor móka, amitől még nem félek, csak magamtól nem találom ki melyik regisztert kell átütni.

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#6174) hoolla


hoolla
aktív tag

http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/1.html

[ Szerkesztve ]

"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."

(#6175) radi8tor válasza hoolla (#6174) üzenetére


radi8tor
MODERÁTOR

Major engineering fail with cooler mounting system

Szívás. Ennyiért ($999) ilyen silány konstrukciót összehozni.

⭐ Stella

(#6176) hoolla válasza radi8tor (#6175) üzenetére


hoolla
aktív tag

Igen azon én is pupilláztam, de amit müvel sleeping dogsban az ütös. Vagy épp mit nem müvel az ellenfele. De sajnos egyenlöre nem gyözött meg. Meglátjuk itt mennyit kérnek érte.

"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."

(#6177) fatallerror válasza hoolla (#6174) üzenetére


fatallerror
addikt

nem nagy eresztés (szerintem)

don't tell me what i can't do!

(#6178) KillerKollar válasza hoolla (#6174) üzenetére


KillerKollar
senior tag

Összesítésben minden felbontásban elveri a 690...(kivéve talán a 3 monitoros felbontást,de az meg marha ritka...)és ugyan annyiba kerül...kíváncsi leszek jobb lesz-e ennél a "hivatalos" 7990...

[ Szerkesztve ]

(#6179) hoolla válasza KillerKollar (#6178) üzenetére


hoolla
aktív tag

Ha valaha megjelenik a ref egyáltalán. Ezért az árért szerintem sem elég meggyözö. Viszont adnak csavarhúzókészletet, amivel kijavíthatod a szarrápénzelt mérnökök bakiját, így sokkal jobban a magadénak tudhatod a kártyát. :)

"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."

(#6180) KillerKollar válasza hoolla (#6179) üzenetére


KillerKollar
senior tag

Plusz veszíted a garanciát :)

(#6181) radi8tor válasza KillerKollar (#6180) üzenetére


radi8tor
MODERÁTOR

Semmilyen VGA kártyánál nem veszted a garanciát a hűtő leszedése miatt.
Csak akkor ugrik a garancia, ha eközben megsérül a GPU vagy az áramköri lap.

⭐ Stella

(#6182) Abu85 válasza radi8tor (#6181) üzenetére


Abu85
HÁZIGAZDA

Valójában elveszted, de igazából senki sem tudja meg, hogy leszedted. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#6183) radi8tor válasza Abu85 (#6182) üzenetére


radi8tor
MODERÁTOR

MSI R7970 Lightning-nál kérdeztem rá a magyar képviseletnél, hogy ugyan már mondja meg: Mi értelme az LN2 módnak a kártyán, ha bukom a garanciát a hűtő leszerelésével?
Erre a kérdésemre válaszolta azt, hogy semelyik kártyán nem vész el a garancia, ha sérülés mentesen cserélsz rajta hűtőt. Lightning esetében LN2 módnak akkor van értelme, ha egy LN2 potot szerelsz rá és folyékony nitrogénnel hűtöd.
Szóval a Lightning-en még a gyártó is engedi a hűtő cserét.

[ Szerkesztve ]

⭐ Stella

(#6184) hoolla


hoolla
aktív tag

Mind a ketten uazt írtátok. :) Ha sérülésmentesen cserélsz hütöt, nem veszi észre senki, tehát gariztathatod. Még akkor is, ha a boltba ahova visszavitted, megmondod, hogy volt rajta csere de visszaraktad. Ha ök nem látnak semmi nyomát cserének, vissza tudják küldeni. Ha viszont csere közben akár csak elnyalsz egy csavart, azzal már bukod a garit. Nem kell, hogy nagyobb sérülés legyen rajta. Nem fogják kicserélni, ha visszaviszed azzal a szöveggel, hogy hát csak hütö csere volt rajta, viszont hàrom csavar feje úgy szét van nyalva, hogy már nem lehet meghúzni, illetve lazítani.

"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."

(#6185) Z10N válasza janos666 (#6167) üzenetére


Z10N
veterán

"vagy feszemelt overclock vagy multimonitor"
Erdekes nalam mukodik :)
2D 250/1000@1000mV
3D 975/1225@1200mV
Ezert is kerdeztem korabban toled mekkora feszultsegen megy nalad az 5850 Eyefinity-ben, mert kisse hihetetlennek tunt. Nalam egy kijelzo eseten viszi az 1GHz-t a fentebbi feszultseggel, de 3 megjelenitonel mar nem, ezert tovabbra is furcsallom.

ui: Sajnos a vibralas nalam is megvan ha tobb HD video megy egyidoben, pedig a rendszer birja, alig van terheles (sot ugye ilyenkor a gpu felugrik 600MHz-re), szoval ez driveres problema (HD6850). Ezt az Eyefinity-s topikban mar targyaltuk.

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#6186) Z10N válasza janos666 (#6169) üzenetére


Z10N
veterán

Nalam, mint emlitetetm mukodik. Eyefinity-nel 300/1000@1000mV ugye az alap.
gpu: 250 alatt mar kifagy, mem: 500-ig muxik (ertsd 2000MHz), csak videozasnal a framerate leesik (MPHC/VLC) drasztikusan 15-20 fps, ezert inkabb hagytam 1000-n (4000MHz), a gpu feszt. idle-ben probaltam 950mV/975mV 950-nel azonnal kifagy a kep, 975-nel neha elszall a szinkronizacio (DVI signal not found) 980mV stabilnak tunik, de neha reccen egyet, szoval ez is maradt 1000mV-n. Ugy latszik ebbol a szempontbol is jobb a HD6800 szeria (Eyefinity orajel es energia menedzsmentje). Mindezt en is AB-ben profiloztam be, illetve meg a Trixx-et erdemes kiprobalni, bar lehet a CHiL VRM miatt lehet igy finomhangolni (6870 PCB).

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#6187) dangerzone


dangerzone
addikt

8000-res szériáról valami infó? :)

(#6188) ricshard444 válasza dangerzone (#6187) üzenetére


ricshard444
veterán

Semmi hivatalos,feltuningolt 7000-s lesz és valószínű,hogy december környékén jönnek az első tesztek.Év elején pedig megjelennek az első 8000-sek,de ez is mind tipp ;]

[ Szerkesztve ]

Vannak dolgok...

(#6189) fatallerror válasza dangerzone (#6187) üzenetére


fatallerror
addikt

nagy változás nem lesz, a gcn volt a nagy lépés és ez lesz finomítva 1 picit, szerintem 10-15% gyorsulás várható kb azonos fogyasztással
szóval ricsike jól mondta ;]

don't tell me what i can't do!

(#6190) ViiiiktorOC válasza fatallerror (#6189) üzenetére


ViiiiktorOC
senior tag

Hát remélem azért többet fog hozni.
És lehet hogy XDR2?

Egy 8870-esre beneveznék szívesen a GTA V-re. ;]

LamboLVR - CSR2 Lambo T. Hungary

(#6191) fatallerror válasza ViiiiktorOC (#6190) üzenetére


fatallerror
addikt

á az nagyon drága, szerintem ddr5ös marad. jó lenne persze de tuti h nagyon költséges még, nagyon talán a csúcs kártyában lehet

don't tell me what i can't do!

(#6192) ricshard444 válasza ViiiiktorOC (#6190) üzenetére


ricshard444
veterán

Kétlem,hogy az lenne benne,talán majd jövőre,de 2014ben jön a GDDR6 szóval nemtudom mikor akarják egyáltalán rádobni a karikra...

Vannak dolgok...

(#6193) fatallerror válasza ricshard444 (#6192) üzenetére


fatallerror
addikt

gddr 6? :D mesélj ;]

don't tell me what i can't do!

(#6194) ricshard444 válasza fatallerror (#6193) üzenetére


ricshard444
veterán

Az első GDDR6 modulok ill. az ezekkel szerelt grafikus kártyák a várakozások szerint legkorábban 2014-ben kerülhetnek majd piacra. Ugyanakkor a specifikáció vélhetően legalább 2020-ig velünk marad majd, és utódja - a logikusan vélhetően GDDR7 nevet viselő specifikáció - bevezetése csak ezt követően válhat majd indokolttá.

Ezt olvastam még múltkor,az hogy mennyire valós ez kiderül

Vannak dolgok...

(#6195) fatallerror válasza ricshard444 (#6194) üzenetére


fatallerror
addikt

aha tehát a hd9000esektől várható, kösz az infot nem hallottam róla, reméljük így lesz v xdr2

don't tell me what i can't do!

(#6196) radi8tor válasza fatallerror (#6195) üzenetére


radi8tor
MODERÁTOR

Aztán utána meg is áll a fejlődés, mert mindenki APU-ban látja a jövőt.

⭐ Stella

(#6197) fatallerror válasza radi8tor (#6196) üzenetére


fatallerror
addikt

én ettől nem vagyok kiakadva, mind1 h min játszok csak játsszak csúcsminőségben. persze sok a hátránya is pl ha az igp rész meghal akkor kuka az egész...
de addig még több generációnyi vga jön, messze van még a végük.

don't tell me what i can't do!

(#6198) Z10N válasza radi8tor (#6196) üzenetére


Z10N
veterán

Az allitasod csak felig igaz, a dGPU lehetseges, viszont a memoria fejlesztes pont, hogy nem az altalad is emlitett APU-k miatt, amiknel a mem. savszel a szuk keresztmetszet. Egy eDRAM + XDR2 konfiguraciora kivancsi lennek.

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#6199) ViiiiktorOC


ViiiiktorOC
senior tag

Szvsz idén már nem lesz ebből 7990-es kártya!
Nagyon késő van hozzá már! :(
4-5 hónap azt itt az új generáció.

LamboLVR - CSR2 Lambo T. Hungary

(#6200) fatallerror válasza ViiiiktorOC (#6199) üzenetére


fatallerror
addikt

nem is kell :D mőr ők 8asban gondolkodnak szerintem

don't tell me what i can't do!

Útvonal

Fórumok  »  Videokártyák  »  AMD GPU-k jövője - amit tudni vélünk (kiemelt téma)
Copyright © 2000-2024 PROHARDVER Informatikai Kft.