A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Gyorskeresés
Legfrissebb anyagok
- Bemutató Route 66 Chicagotól Los Angelesig 2. rész
- Helyszíni riport Alfa Giulia Q-val a Balaton Park Circiut-en
- Bemutató A használt VGA piac kincsei - Július I
- Bemutató Bakancslista: Route 66 Chicagotól Los Angelesig
- Tudástár AMD Radeon undervolt/overclock
Általános témák
LOGOUT.hu témák
- [Re:] [Szevam:] Érzelmi magabiztosság/biztonság - miért megyünk sokan külföldre valójában?
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] [ubyegon2:] Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- [Re:] eBay-es kütyük kis pénzért
- [Re:] [ldave:] New Game Blitz - 2024
- [Re:] [attilasd:] A laposföld elmebaj: Vissza a jövőbe!
- [Re:] PLEX: multimédia az egész lakásban
- [Re:] [bitpork:] Balatoni autós tali 2024
- [Re:] Elektromos rásegítésű kerékpárok
- [Re:] [Luck Dragon:] Asszociációs játék. :)
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
GAMEPOD.hu témák
Téma összefoglaló
Hozzászólások
zuchy
őstag
Bizony, ezt már fél éve tudjuk.
PC-STYLE.hu
Gaboman
nagyúr
Most akkor mi az igazság az 595ről?
Ha meghalsz te nem tudod hogy halott vagy, csak a többieknek nehéz. Ugyanez a helyzet akkor is ha hülye vagy. ;-)
Robi BALBOA
őstag
Kb annyira reális egy 2db GF110-as gpu-ra épülő kari mint amennyire a dual GF100 volt reális vagyis tervező asztalon (képzeletben) már létezik, de kézzelfogható termék kb soha nem lesz belőlle, max ha valamelyik elvetemült gyártó (Asus Ares fíling, csak ez még azon is bőven túltenne fogyasztásban) meg nem csinálja.
Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
Gaboman
nagyúr
Értem, akkor a 6990nek van valós alapja csak.
Ha meghalsz te nem tudod hogy halott vagy, csak a többieknek nehéz. Ugyanez a helyzet akkor is ha hülye vagy. ;-)
Abu85
HÁZIGAZDA
A fogyasztási problémák miatt vezetnek be a Caymanben egy technológiát, amit arra találtak ki, hogy maximalizáljak a teljesítményt egy adott TDP kereten belül.
(#2593) rocket: Az gáz ha nem érdekli őket az OEM eladás, mert a csúcskártyák nagyon nagy része itt kerül eladásra. Ergó vagy tartják a 300 wattot, vagy lényegtelen a terméket kiadni, mert nem lesz meg a megfelelő eladás. Ezért jelennek meg a 300 wattnál többet fogyasztó kártyák limitált szériásként. Csak luxusárazással hozza vissza a fejlesztési pénzt.
(#2596) A.tessz: Mivel a GF110-nél ilyen nem vezettek be, így a fizika megakadályozza a 300 wattos limit tartásán két lapka mellett. Egy GF110 is 300 wattot fogyaszt amit három vezérlő limitálásával tartanak. Számolj utána, hogy a maradék 0 wattba hány chip fér még bele. Két GF110-hez a lapkák minimum 40%-át le kell tiltani. A fizika mindenki számára ugyanaz, mivel a 300 wattos limitet nagyon komolyan veszik az OEM-ek, a csúcskategóriában az az architektúra nyer, amelyik egységnyi fogyasztás mellett magasabb teljesítményre képes. Ezért nem lett semmi a dual GF100-ból, és a dual GF104-ből. Még a Zotac és a Galaxy is eldobta a saját dual GF100 tervezetét. Az Asus megoldása már a tervezőasztalon meghalt. A Galaxy terméke eljutott a prototípus szintjére de sosem lehetett működés közben megtekinteni, mert az ATX szabványban leírt kialakítás a házakra nem elég jó, így a termék a legtöbb otthoni körülmény között instabil lett volna (sőt sérülésveszélyes, senki sem akar olyan számítógépet, ami elsőfokú égési sérülést okoz, ha működés közben hozzáérsz a ház oldalához). Ilyen figyelmeztetés található már a 300 wattot fogyasztó csúcskártyák dobozában, de addig nincs gond, amíg a kártyát nem fogdosod működés közben. Ez nem is életszerű, de amikor már a ház oldalára kell ezt ragasztani, hogy ne érj hozzá, akkor az már megfontolandó dolog, az OEM-ek részéről. Éppen ezért a 300 wattos limitet a PCI-SIG addig fogja megtartani, amíg a házakra nem jön egy jobb hőelvezetést előíró tervezet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Atom_Anti
senior tag
Megnyugtattál
Robi BALBOA
őstag
Egy dual Cayman (6990) 100% hogy lesz, mert a gyártó is megerősítette, de ha a gyártó ezt nem erősítette volna meg akkor is sokkal könnyebben elképzelhető egy kb 400mm²-es csipből egy dual verzió ellentétben a GF110-el ami cirka 520mm² és mint tudjuk az Nv nem igazán áll a csúcson ami az egységnyi területre jutó teljesítményt illeti.
Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
oliba
őstag
Akkor a 6990 szabályozni fogja az sp-k és az órajelet a játékok teljesítményét illetően. Amikor a játéknak több sp kell, akkor az órajeleket visszaveszi és az sp-t növeli és pont fordítva?
Oliverda
félisten
Az SP számának on-the-fly szabályzása elég vadul hangzik. Az órajel már inkább kivitelezhető. Szvsz egyszerűen arról van illetve lesz szó, hogy folyamatosan monitorozva lesz az éppen aktuális áramfelvétel és ha nem lépi túl a limitet akkor csutkára lesz tekerve a GPU(k) órajele, ha meg már túllépné akkor szépen lecsökkenti majd egy olyan szintre, hogy még beleférjen a keretbe. Gondolom a feszültséggel párhuzamosan...
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
keIdor
titán
Én inkább az nVidia-n röhögök... vergődnek, mint egy partra sodort bálna...
Ezek csak foltozások és egyetértek Oliverdával, ez szerintem sem fog kijönni. De jó lenne, mert gondolom a 580 árán jönne azt meg lenyomná.
¡GLORIA A LAS PLAGAS!
Oliverda
félisten
Szvsz annak megint anyagi bukta lenne a vége ha olyan árban jönne.
[ Szerkesztve ]
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
RexpecT
addikt
A 6770 várhatóan mikortól lesz elérhető?
[ Szerkesztve ]
rocket
nagyúr
Tudnal mutatni valami linket arrol, hogy az OEM eladasok teszik ki a csucskartyak nagy reszet?
Van egy olyan erzesem ezt megint megalmodtad, hogy tudjal valamivel magyarazkodni
"A lower resolution generally means that there can be more quality per pixel."
rocket
nagyúr
Azert ez eleg rosszul hangzik, vegulis arrol van szo, hogy kordaban tartsak a fogyasztast limitalva lesz a teljesitmeny, ami azert legyunk oszintek nem igazan az elsodleges szempont a felhasznaloknal ebben a kategoriaban, es ugye a PCI-SIG "matrica" se hianyzik a kutyanak se. (Abu OEM latomasait nem vettem figyelembe amig nem linkel valami hiheto forrast errol.)
Persze elofordult mar , hogy a gyakorlatban jol mukodott ami elmeletben nem tunt ugy, hogy jol fog
Szerintem az NV csinalna jol, ha kiadnak a 400wattos szornyet, kutyat nem erdekelne a fogyasztas, es presztizs gyozelem lehetne.
Ebben az esetben az AMD is gondolhatna ugy, hogy deaktivalja a fogyasztasi limitet eloidezo funkciot, ami valoszinuleg BIOS alapu, igy ez nem lenne nagy muvelet.
"A lower resolution generally means that there can be more quality per pixel."
rocket
nagyúr
nApoleon azt irja Chiphellen, hogy december 7-en startolnak a HD6950/6970 kartyak.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
Oliverda
félisten
Szerintem ha a kutyának sem hiányozna az a "matrica" akkor már rég lett volna nV ref. dual GF100 és ehhez hasonló szörnyek.
Lehet, hogy szerinted rosszul hangzik de a gyakorlatban több fér a 300 wattos TDP-be mint az ember elsőre gondolná csak okosan kell kihasználni a keretet. Az 5970 a 294 wattos TDP ellenére játékok alatt (illetve pontosabban trémárk) alatt még a 211 wattos csúcsot sem lépi át. Az pedig, hogy Furmark és hasonló digitális hulladékok futtatása közben a felére fog visszaesni a kártya órajelet az szerintem már nem sok embert fog izgatni. Első úgyis a játék az meg mint látható kicsit más max. terhelést képes adni.
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
A starcraft II is furmark-hoz hasonlóan terheli VGA-t, nem?
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
rocket
nagyúr
GF100 sokat kesett, nem hiszem arra akartak pazarolni az eroforrasokat, hogy elorukkoljanak egy dual kartyaval.
Ha nem lenne a nyakon an NVIDIA felirat, azt gondolnam az ASUS amokfutasanak kovetkezmenyet latjuk.
A tap csatik nincsenek beforrasztva, lehet csak az AMD-t ilyesztgetik
3DMARK2K6-al teszteltek, az is nevezheto digitalis hulladeknak.
Starcraft2 alatt erdekesebb lenne latni ezt a tesztet, vagy olyan jatekban ahol a CF skalazodasa majdnem tokeletes.
Jo nagy baromsag ez az egesz PCI-SIG limit, es a gondjuk a gyartoknak ott kezdodik, hogy a 300watt a TDP-re vonatkozik nem a valos fogyasztasra (mondjuk ezt nem is nagyon lehetne kivitelezni, mert nem fogjak az osszes jatekot vegig tesztelni nem-e mereszkedik a fogyasztas 300watt fole ), es pl. AMD altal megadott 294wattos TDP a jatekok alatti maximum elerheto board powert jelenti, nem a powervirus programok alapjan szamoljak, magyarul az AMD-nek 6 wattja maradt a HD5970-hez kepest a HD6990-nel, hogy beferjen a limitbe.
Foleg a pontvadasz tunigosok jarnak majd rosszul a fogyasztasi limit miatt teljesitmenyt szabalyzo megoldasnal, de mint a GTX580 eseteben, valoszinuleg HD6990 eseteben is konnyen kikapcsolhato lesz.
#2617:Nekem is ez fordult meg a fejemben
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
Oliverda
félisten
csatahajós
senior tag
Némi infomorzsa:
Ezek alapján úgy látszik a nagyon magas órajelű RAM-nak kaszáltak....
rocket
nagyúr
Az lenyegtetlen 1 jatek a sok kozul, a lenyeg hogy van ilyen jatek, Starcraft 2-vel igazabol az a legenda megdolt, hogy a jatekok nem lehetnek a kozeleben se a powervirusok altali fogyasztashoz.
A 6GHZ-en jaro memoriak most se jottek ossze, nagyon karcsu lesz ehez a kartyahoz a 160GB/s savszelesseg.
#2620:Megeloztek
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
Abu85
HÁZIGAZDA
A TUL-tól kapunk kimutatásokat. Náluk HD 5970-es termékek 78%-a OEM szinten ment el. Ezt abból lehet látni, hogy az eladások 78%-a TUL, és csak 22%-a PowerColor. Ez egyébként általánosan jellemző mutató. Ezért nincs a csúcskártyákból gyártók által tervezett verzió, mert az eladások nagyon nagy része az OEM piacra megy, oda pedig úgyis a referencia az elfogadott.
(#2614) rocket: Az a limit nem véletlenül jött létre. Van négy kártya, ami ezt túllépi, de mindegyik csak limitált szériás 1000 darabos mennyiségig. A limitálás a magas árazás miatt van, mert az OEM gyártók úgy sem fogják rendelni, így kell a luxusár, hogy a fejlesztési költség visszajöjjön. Azon pedig nem érdemes csodálkozni, hogy az OEM-ek tartják magukat a limithez. A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát. Alapvetően az ATX szabvány a probléma. Nincs lehetőség több hőmennyiséget elvezetni a kialakítás problémái miatt.
(#2618) rocket: Pedig voltak dual prototípusok. Csak mindet elkaszálták, még a gyártói megoldások is halva születtek. Valamelyiknek nem lehetett megoldani a hűtését, míg a dual GF104-es modelleket a HD 5970 teljesítménye végezte ki. De ezt már mondtam, hogy 300 wattos limiten belül az a kártya nem fogható. Esetleg akkor fogható, ha valamelyik gyártó egy teljesen dinamikus órajelszabályzást vezet be, persze akkor sem kell 20-30%-nál nagyobb gyorsulásra számítani, a fizika törvényei lehetetlenné teszik.
A PCI-SIG egy külön mérést alkalmaz, amivel megállapítják a fogyasztást. Az egyik probléma ezzel kapcsolatban, hogy rá lehet tervezni a terméket, amit láthatunk a GF100 és a GF110 esetében. A játékokban a csúcs-GeForce-ok még mindig többet fogyasztanak a HD 5970-nél, csupán azért vannak benne a 300 wattban, mert megfelelően teljesítik a PCI-SIG mérését. A jövőben ez változik, mert a szervezet több mérést alkalmaz majd, és mindenhol meg kell felelni a limitnek. Ez azt fogja eredményezni, hogy nehezebben lehet belőni a PCI-SIG tesztjére a terméket.
(#2617) Bici: Igen a StarCraft 2 képes megközelíteni a Furmark terhelését. Azt hozni nem lehet, mert arra a játék körülményei alkalmatlanok, hiszen biztos lesz egynél több objektum a jelenetben, de megközelíteni már nem probléma. Erre lett bevezetve a hardveres túlterhelés védelem a HD 5000-nél, mert a szimulációk azt mutatták, hogy lehetséges a Furmark szintű terhelés, ami problémát jelenthet a jövőben. Hasonló védelmet az NV is bevezetett a GTX 580-nál, csak az félig szoftveres vezérlésű, vagyis meg van a módja a kikapcsolásnak. Itt majd valószínűleg az NV átírja a drivert, hogy a GPZ-Z trükkje ne éljen. Utána jön az új megoldás a GPU-Z-től, és így folytatódik a macskaegér játék, amíg az NV elő nem áll egy teljesen hardveres védelemmel.
(#2620) csatahajós: Cuki ez a GDDR5. Van benne kraft, de a stabil memóriavezérlőt nem könnyű hozzá összehozni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Oliverda
félisten
Nem nehéz rárakni az nVidia feliratot. Ráadásul csak két tápcsatlakozó van rajta ami azt jelenti, hogy vagy tényleg egy nagy kamu az egész vagy belefér a 300 wattba ergo erősen le van butítva a két GPU. Az ASUSféle dual GF110 ilyen volt.
3DMark03-mal teszteltek ami azért eléggé más célokra lett kitalálva mint a Furmarak. Ergo sokkal reálisabb eredményeket ad a játékok által képes terhelésről. Nem véletlenül használják pont ezt a TPU-nál.
Szerinted baromság szerintem pedig még a 300 wattos keret is magas. Így legalább a gyártók is rá vannak kényszerítve az optimalizációra. Nekünk pedig nem kell 1000 wattos tápokat vennünk egy csúcs kártyához.
"(mondjuk ezt nem is nagyon lehetne kivitelezni, mert nem fogjak az osszes jatekot vegig tesztelni nem-e mereszkedik a fogyasztas 300watt fole )"
Erre van már egy jól kidolgozott folyamat. A PCI-SIG plecsnit nem a Furmark, a 3DMark03 vagy éppen a Crysis alatt mért fogyasztás után adják.
"es pl. AMD altal megadott 294wattos TDP a jatekok alatti maximum elerheto board powert jelenti, nem a powervirus programok alapjan szamoljak, magyarul az AMD-nek 6 wattja maradt a HD5970-hez kepest a HD6990-nel, hogy beferjen a limitbe."
Leírtam feljebb, hogy szerintem hogyan fog működni a 69xx esetében a dolog. Ugyanaz a lényege mint az procik turbójának. A rendelkezésre álló TDP keret hatékony kihasználása. Furmark alatt le fogja venni az órajelet (és valószínűleg a feszültséget is) még például 3DMark03 mellett addig fogja feltolni ameddig még belefér.
A tuning meg már egy más kérdés. Annak nem sok köze van a PCI-SIG plecsnihez. A procik TDP keretét sem tuning mellett lövik be.
[ Szerkesztve ]
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
rocket
nagyúr
Linket kertem, nem szamokat leirva toled.
Sajnos annyit tevedtel mar, hogy nehez neked barmit is elhinni amit a PH alcaja moge bujva probalsz beadni az AMD "mindigmindentjolcsinal" erdekeben.
Hagyad mar ezeket a tenyek nelkuli OEM gyartos marhasagokat.
"A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát. Alapvetően az ATX szabvány a probléma."
LOL
Tovabb nem is olvasom, ennyi eleg volt
"A lower resolution generally means that there can be more quality per pixel."
Abu85
HÁZIGAZDA
Szerinted odaadhatom a TUL kimutatását bárkinek? Kérd el a cégtől. Az pedig, hogy nem hiszed el, nem változtat semmin. Múltkor azt mondtad, hogy nem lesz MLAA a HD 5000-ben, mikor én mondtam, hogy lesz. Nyilván akkor is én tévedtem mi?
Az a gondod rocket, hogy túl sok dolog jött be nekem. És te ez ellen nem tudsz mit kezdeni. Kezdjük ott, hogy szerinted mit nem csinál jól az AMD? Jelentősen kisebb lapkával hozzák az NV-s megoldások teljesítményét. Első helyen vannak a VGA-piac eladási statisztikái alapján és lehagyták az NV-t a GPU-piacon. Integrálják a CPU-ba a GPU-t, vagyis képesek olyan notebook platformot kínálni, amivel lehetőség lesz versenyezni az Intel ellen. Komplett fejlesztőkörnyezetekkel támogatják az összes gyártófüggetlen piaci szabványt. Nem zárnak le semmit a konkurensek elől így biztosítva, hogy a felhasználók érdekei ne sérüljenek. Erre jó példa a PhysX és a Mafia 2 esete. Ha valakinek nem jó, hogy a GPU-s cloth modul a CPU-n fut, azok a GeForce tulajok, akik jóhiszeműen megvették a terméket, mondván, hogy tudják majd használni a PhysX gyorsítást. Hát nem, mert akkor tudják használni, ha vesznek mellé egy dedikált GeForce gyorsítót, így a sebesség élvezhető lesz. Ez annyira a júzer érdeke, hogy már sírnom kell.
Tények nélküli? Mutass egy olyan OEM gépet, amiben van Asus Ares, vagy ehhez hasonló rendszer. Ha nem megy, akkor húzom az újabb strigulát miss dobozodba. Az MLAA után nem gondoltam volna, hogy ilyen rövid időn belül megy a másik.
Hát, ha szerinted a lehetséges égési sérülés ennyire nem probléma, akkor miért nem látunk 300 watt felett fogyasztó VGA-t? Magyarázat jöhet, hiszen nyilvánvaló, hogy hatalmas a tapasztalatod az OEM-es igények területén.
Vagy csak nem tudsz rá már mit mondani. A tények makacs dolgok.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
toldy
őstag
A BTX szabványt pont ezért találták ki, a hatékonyabb hőelvezetés céljából.
Nem pedig azért mert úgy volt kedvük, az más dolog hogy nem erőltették annyira hogy elterjedjen, mert mindenki ragaszkodik az "elavult" atx platformhoz ( itt nem arra gondolog hogy atx, matx itx hasonlók, hanem az alapvető elrendezés).
[ Szerkesztve ]
Az élet nem habostorta.
rocket
nagyúr
Miert kuldene a TUL uzleti dolgokat tartalmazo kimutatast egy hardverekkel foglalkozo weboldalnak?
Ennyi, tenyleg hagyuk, ugyse fognak kozeledni az allaspontjaink addig amig nem mutatsz valami kezzel foghatot, ami tenykent mukodne.
"Az a gondod rocket, hogy túl sok dolog jött be nekem."
Igazad van, 6GHZ-es memoriak 256bit-es busz mellett is bejott a HD6970 eseteben
(ha szerencsed van akkor az a slide FAKE, ha nem akkor "miss" )
Ajaj, ne keverd ide az AMD elso helyet, meg a kisebb lapjakukat, szo se volt rola, mivel ezzel kapcsolatban nagyabol ugyanazon a velemenyen vagyunk.
Leirtam mar parszor, hogy szerintem mit nem csinal jol az AMD, nem fogom ujra.
Az AMD legnagyobb gondja az, hogy nem latszik a kisebb lapkabol es nagy szamu eladasokbol szarmazo profit, meg ugyse hogy nem diktalt az AMD diszkont atrazast a HD58xx szeriaval, es Q3-ban meg ~90%-os DX11-es piaci reszesedese volt, es igyis valami felre siklott.
"Tények nélküli? Mutass egy olyan OEM gpet, amiben van Asus Ares, vagy ehhez hasonló rendszer."
Nem ertem, hogy jott ide az ASUS ARES.
Hivatalosan nem letezo termekrol irogatsz, mit keresne az OEM gepekben?
Amikor mar nem tudsz mit irni, felhozol olyan temakat amirol szo se volt, ez is egy sajatossagod.
"Az MLAA után nem gondoltam volna"
Nem akartam elhinni amit mondott Huddy, mondjuk meg hivatalosan nincs MLAA driver, ugyhogy meg ne huzzal be semmit
Karpotol az a tudat, hogy jo elore "megjosoltam", hogy a TSMC torolte a 32nm-es nodejat, amit te nem akartal elhinni, es a forum bajtarsaddal osztottatok az iget, hogy nem igy lesz
Rajtatok mulna akkor 28nm-es GPU invazio kapujaban allnank, egy sikeres 32nm-es generacio utan, 6+GHZ-es GDDR5 memoriakkal
En befejeztem, inkabb jatszok egy kis NFS-t mint veled fussam ugyanazokat a koroket 108x
"A lower resolution generally means that there can be more quality per pixel."
rocket
nagyúr
Nem irtam ennek az ellenkezojet
Nem lett volna egyertelmu ezen rohogtem:
"A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát"
Megha a kartyara irta volna ezt akkor oke, dehat igy megint egy vicc gyujtemenybe valo jott ossze.
OEM gepeknel a haz felbontasa a szerzodo felek kozti szerzodes (ami a vasarlassal jon letre) megszegesevel jar, es ez semlegesiti a ceg felelosseget ha a lama usernek megis 3D alkalmazas futtatasa kozben lenne kedve a kartyat fogdosni
"A lower resolution generally means that there can be more quality per pixel."
LK
addikt
Sziasztok! Örülnék, ha valaki tudna infót arról a kártyáról,amit az 5770-ből fognak kiadni (talán 67xx néven),megosztaná velünk. Olcsóbb kategória,és első negyedévre igérik,de mit fog tudni ?
"óóóóó istenem.. boldogok a lelki szegények, mert övék a trollok és fanboyok országa, ámen" by PUG
csatahajós
senior tag
Az 5770 marad 5770, legalábbis egyelőre tuti . Az új 67xx széria feltehetően a 28nm-es pipecleaner GPU-ra fog épülni, úgyhogy ha az Q1 akkor igencsak március vége lesz az.
Valószínűsítem, hogy a 66xx széria fogja közelíteni az 5770 teljesítméynét, de még az is meglehet, hogy kiadnak egy 6830-at, amit egy Bartsból butítanak vissza.
Egy 5770 teljesítményű kártyának ugyanabban az árszegmensben szerintem nincs sok értelme, mivel a Juniper elég jól sikerült kis darab és mivel úgyis maradtak 40nm-en így a gyártási költségeket sokkal lejjebb szorítani úgysem tudnák. Ergo vagy kell egy még kisebb lapka hasonló teljesítmény mellett, alacsonyabb fogyasztással, amit tudnak olcsóbban adni (felteszem HD66xx széria) vagy kell egy erősebb kártya hasonló árszegmensben ahová el tudják szórni a hibás Barts-okat (feltételes HD6830). Minden más verzióra érdemesebb megtartaniuk az 5770-et.
Tirexi
addikt
Hát már kajak nem tudom kinek higgyek, inkább szép csendben megvárom míg kijön a HD6990 és majd a tesztek eldöntik hogy még is mi az igazság.
Amúgy csak érdekesség képen írom, jó pár játékban a GTX285 SLI még mindig megveri az ATI 5970-et ami nem kis szó ahhoz képest hogy milyen régi VGA-k.
Nem tom egyáltalán érdemes lesz-e váltanom ATI-ra.
SzlobiG
félisten
Mik is azok a játékok? Muta.
Abu85
HÁZIGAZDA
Mert érdeklődök ezek után. Ha észrevetted, mi vagyunk az elsők, akik lehozták, hogy a PowerColor vagyis a TUL retail brandje Fusion alaplapokat fog gyártani. Senki más nem jelentette be. Ez azért van, mert én tartom velük a kapcsolatot.
Leírtad már párszor, hogy a fejlesztőkkel van gond az AMD-nél, de ez is megdőlt már, mert nagyságrendekkel több a Gaming Evolved cím a DX11-es játékoknál. Az NV TWIMTBP címe a HAWX 2, a Metro 2033 és a Lost Planet 2. Az összes többi DX11-es játék az AMD termékeivel és segédletével készült.
Szerintem se keverjük ide az első helyet a VGA-piacon, hiszen az mutatja, hogy növelik a részesedésüket. Tényleg ennyire szelektíven akarod beállítani az álláspontodat?
A VGA-piacban már annyiszor írtam, hogy nincs sok pénz, ez az AMD-re is vonatkozik. Attól függ a nyereség, hogy a mobil megoldások mennyire kelendőek. A nagy zseton az IGP, mert azon lehet a legtöbbet termelni. Egyébként meg az, hogy nem látszik a HD 5000 árazása nem igaz, mert ebben az évben jelentős pluszban áll az AMD a VGA-ból befolyt nyereség esetében, mint az elmúlt két évben. És ami bizonyítja az olcsón gyártható lapkák jelentőségét, azok a gyártópartnerek. Az NVIDIA az elmúlt hónapokban két első számú partnert is elfogyasztott. Persze gondolom ezt se keverjük ide, mert rossz fényt vett az állításaidra.
Az Asus Ares egy olyan kártya, ami 300 wattnál többet fogyaszt. Mivel ilyen kártya nincs az OEM-ek gépében, így ez azt mutatja, hogy a 300 wattnál többet fogyasztó kártyákat alapból nem alkalmazzák. Ezt hiába nem fogadod el, ettől még tény marad. Ennek az egyik oka, hogy nem lehet jól hűteni, vagyis a ház oldala annyira felfórosodhat, hogy megsütheti a felhasználót. A másik ok a stabilitás, ami csak meglehetősen hangos hűtés mellet biztosítható.
Szerinted a 10.10e az mi, ha nem egy hivatalosan kiadott driver? Az egyetlen ami nincs az WHQL aláírással rendelkező Catalyst, de a hotfix megoldások ugyanolyan hivatalos driverek, mint a havonta megjelenők. A béta driverek az AMD-nél sosem kerülnek fel a support oldalra. Persze a fórumokon kiszivárognak.
Azt természetesen jól írtad. Én is csak annyit írtam rá, hogy ezt nehéz elhinni, és nem tartom valószínűnek. Eleve a legnagyobb bárgyártóról van szó, akik ugyan bakizták a 40 nm-ert, de sosem volt olyanra példa a történelemben, hogy egy node-ot törölnek.
Az pedig igaz, hogy a Barts azért lett 40 nm-es, mert a 32 nm-ert törölték. Ha minden a terveknek megfelelően alakul a 32 nm körül, akkor aligha döntenek a 40 nm mellett. Ezt a linkelt post is bizonyítja, hogy eldöntötték a 40 nm-ert. Nyilvánvaló, hogy nem egyik napról a másikra törölték a 32 nm-ert, hanem volt annak előjele is, ami alapján mérlegelték a kérdést az AMD-nél.
Ez egyébként abszolút nem probléma az AMD-nek, sőt előny, mert az NV nem tud váltani, és nekik sokkal nagyobb szükségük van egy új gyártástechnológiára, hiszen a GF110 messze nem fejlődött annyit a GF100-hoz képest, mint amennyit fog a Cayman a Cypresshez képest, vagy emennyit a Barts fejlődött, hiszen jelentősen redukálták a méretét amellett, hogy alig vesztett a teljesítményből, szintén a Cypresshez viszonyítva. Ilyenre az NV nem volt képes a GF110 esetében, még a memóriavezérlő problémáját sem sikerült megoldani, mert továbbra is 4 GHz a stabil órajel GDDR5 mellett. Az AMD 4,8-at tud, míg a Caymannél majd meglátjuk ez mennyire emelkedik. Egyelőre a mintákon 6 Gbps-os lapkák vannak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
úgy látom, megy a harc
ha a #2619-ben linkelt slide nem fake, akkor ez az 6970 nem lesz valami acélos - még ha növelik a hatékonyságot, és a SIMD teljesítmény egységenként hasonló marad, akkor is vékony lesz a backend...
A 300 watt is problémát okoz, de a ház szellőzésének jó tervezésével megoldható, hogy ne okozzon a felhasználónak égési sérüléseket, ha meg fogja a ház oldalát.
ez nekem is tetszett - meg kellene kérdeni Laudát, hogy hányszor égette össze magát a 480SLI-vel
#2633 Leírtad már párszor, hogy a fejlesztőkkel van gond az AMD-nél,
Hát, érdemes elolvasni a Beyond3D Fermi cikkét, abból indirekt módon kiderül, hogy az AMD-nél brutálisan nagy gáz van a fejlesztők környékén...
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Tirexi
addikt
Ebben nézz körül egy kicsit: http://www.guru3d.com/article/radeon-hd-5970-review-test/12
Ja és akkor még tuning nem is volt adva a VGA-knak.
rocket
nagyúr
HD6970-nel a 30 es a 1920-nal a 0 lejebb van, meg a kis kepen is jol lathato, kinagyitva meg megjobban
Ha igaz lesz akkor se gondolom, hogy az AMD szandekosan szurna ki magaval, lehet nem volt/lesz a kozeljovoben eleg 6GHZ-es memoria modul, igy kenyszerbol kellett meglepni az 5GHZ-et.
Ar/ertek aranyban meg igyis alkothatnak HD4870 stilusban
#2635:Ez a teszt tobb mint 1 eves, nem igazan mervado, de meg ebben is osszesegeben joval gyorsabb a HD5970 mint a GTX285 SLI, DX9-es COD4-5-6 amikben jobb a GTX285SLI a HD5970-nel egy picivel, a tobbi jatek kikap, van ahol nagyon.
Szoval ez nem jott be
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
Abu85
HÁZIGAZDA
Lehet, hogy viccesnek tűnik, de nagyon nem az. Az OEM gyártók mindent a szabvány szerint készítenek, mert azért vannak ezek kitalálva, hogy a működés az egyes részegységek között biztosítva legyen. Az ATX szabvány jelenleg kötött hőelvezetési mutatókkal rendelkezik, vagyis egy szabványnak megfelelő házban 300 watt az a hőmennyiség, amit el lehet vezetni. Az SLI az más tészta, mert a hő nem egy pontból keletkezik, de az NV be is vezetett egy SLI matricát a házakra, amit nem sok termék kap meg. A CM-nek és a TT-nek van ilyen háza. [link] - írtunk is a gyártók véleményéről. Egyelőre ez a szélcsatornás dolog tűnik értékelhetőnek, és a tesztprotokoll 40 fokos környezeti hője mellett nem fagy az SLI. Az OEM gyártók, is hasonló körülmények között tesztelnek, mert nem az a cél, hogy az otthoni körülményeket szimulálják, hanem azoknál durvább kell. Ha ott átmegy a rendszer, akkor nagyon nagy eséllyel otthon sem lesz baj, hiszen szelídebbek a körülmények.
Ilyen hőmérsékleti viszonyok között egyébként minden csúcskártya megbukik CF/SLI kiszerelésben. Nem erre találták ki az normál ATX házakat. Mind a keletkező hő veszélyes a felhasználóra, továbbá a stabil működés sincs meg.
Én ezt gyökeresen másképp hallom, sőt látszik is. Egyszerűen az AMD semmit nem költ a fejlesztői projektekre és hardvereket, valamint fejlesztőket adnak. Az NV inkább költ, és effekteket vásárol a játékba. A DX11-es címek arányából látszik, hogy melyik a kedvezőbb stratégia. Mind anyagilag, mind a támogatott játékok tekintetében. A legjobb dolog pedig, hogy nincsenek a felhasználók hülyének nézve, mint a Mafia 2 cloth moduljánál. De nyilván az NV-nek ezért kell költenie ezekre, mert épeszű fejlesztő csak úgy nem rak a programba limitációkat.
De, hogy számszerűen is itt legyen: eddig 10:3 az arány az AMD javára a megjelent DX11-es címekben. Idén még elvileg jön a Kylin MMO, de azt nem számoltam bele. Meg a jövő év elején a Deus Ex HR sincs benne. Ezenkívül még van 4 cím az első félévben, amit szintén AMD hardveren fejlesztenek a Gaming Evolved programon belül. Azok is kiderülnek később. Pletyka szinten tudom mondani, hogy köztük van a Duke Nukem Forever.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
SzlobiG
félisten
Körül néztem 3 játékba előzi meg és a legjobb benne ez Published: November 18, 2009 azóta kijött már egy jó pár driver amivel javítottak a teljesítményen szal nem lehet a GTX 285SLI-t egy kalap alatt említeni az 5970-el...
Abu85
HÁZIGAZDA
Az AMD nyilván nem szúrna ki magával szándékosan, de ha a memóriavezérlő egy bizonyos órajel fölött nem stabil, akkor az nem stabil. Ezen nem lehet már a fejlesztés ezen időszakában változtatni. Ha lehetne, akkor az NV sem 4 GHz-en tökörészne a 6-7 Gbps-os lapkák korában. Függetlenül attól, hogy a képen sok jel mutat a hamisítás felé, az benne van a pakliban, hogy a memóriavezérlő nem képes a tervezett órajelre.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Tirexi
addikt
Én legalább megpróbáltam egy kis életet lehelni a régi VGA-imba.
MaUser
addikt
Hát, ha lehet hinni az eddig kiszivárgott Vantage és Heaven teszteknek (a valóságalapjuk persze kérdéses), akkor a 6970 tényleg nem fogja megváltani a világot. Elvileg centire ugyanott lesz, mint a gtx580 és az 5970, ráadásul fogyasztásra is. Ez nem túl biztató sajnos.
Abu85: Egy megfelelő smiley beszúrásával tudnád tudatni, hogy mégis csak lehet okunk örülni, vagy a kiszivárgott tesztek szerint búslakodni fogunk.
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
Tirexi
addikt
Abu te látom vágod a témát. (oliba ajánlott téged )
Ennek a tesszellációs cuccnak volt értelme? Mármint nem lehetett volna ezt máshogy megoldani mondjuk valamiféle bump mapping-al?
Mert én eddig FPS csökkenésen kívül nem sok mindent vettem rajta észre.
az OEM sztorit én nem fűzöm tovább, van igazság abban, amit írsz, de nagyon sarkított.
fejlesztők: engem a végeredmény érdekel - szinte minden újonnan kijövő játék jobban megy az azonos kategóriás nVidia kártyán, mint az AMD-n - annak ellenére, hogy a Cypress (és nyilván a többi Evergreen és NI chip is) sokkal jobban hozza az elvárható szintetikus teljesíményt, mint bármelyik Fermi. most akkor vagy a fejlesztői támogatással van gond, vagy a driver lényegesen rosszabb - melyik legyen?
rocket: értem - semmi sem az, aminek látszik
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Abu85
HÁZIGAZDA
Attól függ, hogy hogyan alkalmazzák. Effektekre, karakterekre van értelme, másra nincs, mert vannak problémák az API-ban és a raszterizálás hatásfokát is ki lehet ütni. Bár eddig csak egy játék van, ahol feláldozták a rasztert a tesszellálásért. Mondjuk ott fel is lehet, mert csak egy repülő van a képen és egy heightmapel generált táj. Gyerekjáték minden GPU-nak.
A Heaven például egy FPS-hez közelebb áll. Ott láthatod, hogy nincs olyan GPU, ami nem menne be 25 FPS alá, ha a raszterizálás hatásfoka 90% alatt van.
(#2643) gbors: Az újonnan kijövő alatt mit értesz? Mert nem szokott mostanában probléma lenni az új játékok teljesítményével. Azonnal hozzák azt a szintet, amit kell. Esetlegesen lehet javítani rajta 3- maximum 10%-ot, de ez ritka már. A szolgáltatásokat sem értem, nézhetjük mondjuk az NFS: HP-t, aminél egyelőre csak az AMD kártyáin lehet engedélyezni az MSAA-t. Nyilván a GeForce-on is lehetne, csak még nem készült hozzá driver.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
olvasd el még 1x, amit írtam nem írtam, hogy bármi rosszul menne, meg a szolgáltatásokról sem írtam semmit - annyit írtam, hogy az nVidia kártyákon gyorsabbak a game-ek (ha nem is sokkal), annak ellenére, hogy az AMD GPU-k hozzák, ami a papíron van, az nVidiák meg kevésbé...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Abu85
HÁZIGAZDA
Így már végképp nem értem. Mit mihez hasonlítunk? Mert általánosan kijelenteni, hogy gyorsabb a gém, nem szerencsés. Nyilván a GeForce GTX 580 gyorsabb a Radeon HD 5870-nél, de a HD 5970-nél már nem. Így a gyorsabb fogalom csak a viszonyítás kérdése. Itt nem értem, hogy mihez viszonyítunk mit. Lapkaméret szerint? Fogyasztás szerint? Ár szerint?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
FireGL
aktív tag
Változtasd meg a Device ID-t egy ATI kártyán, NV-re. Jópár játékban kapsz egy kis plusz fps-t ugyanazon a hardveren, mert azthiszi a TWIMTBP játék, hogy nem ATI kártya.
Az embert a gondolkodás tette állattá...
SzlobiG
félisten
Ennek mennyi a valóság alapja, valami link van róla?
Tirexi
addikt
Hmmm ez engem is érdekelne.
Bár ha ilyen egyszerű lenne valaki már biztos kipróbálta volna.
[ Szerkesztve ]
Abu85
HÁZIGAZDA
A mai játékok elejéről szinte teljesen eltűnt a vendor ID ellenőrzés. Legutóbb a Batman: AA-ban volt, hogy az ATI ki legyenek zárva a szabványos élsimítás lehetőségéből. Most már van GOTY változata a játéknak, ami ugyanazt az algoritmust tartalmazza, csak nincs vendor ID check, így az ATI-n is működik.
Igazából ez az elgondolás manapság már nem alkalmazható, mert a játékosok szívják meg, és lényegében ők azok akik fizetnek. Esetleg, akkor, ha a megrendelő dollármilliókat tesz le az asztalra. Ez a stratégia pedig azért problémás, mert semmi nem garantálja, hogy a játékos a csalódás után marad a PC mellett szopni, vagy esetleg elmegy a konzol felé.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Téma tudnivalók
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.