Hirdetés
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- eBay-es kütyük kis pénzért
- GoodSpeed: Márkaváltás sok-sok év után
- D@reeo: Pi-hole és a Telekom Sagemcom F@st 5670 DNS beállítása
- N€T0X|N: Poloskahegy
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- bb0t: Ikea PAX gardrób és a pokol logisztikája
Új hozzászólás Aktív témák
-
válasz
tibcsi0407
#10052
üzenetére
Pont a Maxwell a legékesebb bizonyíték arra, hogy üzletileg működik ez a megoldás. Teljesítményben ráhoztak egy alig-javulást a 780Ti-780-760 hármasra, és vitték az emberek, mint a cukrot. Fogyasztói társadalomban élünk, a built-to-last megközelítés (sajnos) nem tesz senkit sikeressé
. -
Urak, a gépösszerakós témát kérném áttelepíteni a megfelelő topicba

-
válasz
velizare
#9988
üzenetére
A jelen téma szempontjából teljesen mindegy, milyen mértékben, az a lényeg, hogy gyorsult, nem pedig stagnált, és főleg nem ment át mocsári csigába, ahogy az AotS-es srácoknál. Az érdekes, hogy hogyan csinálta, de lehet pl., hogy vmi speciális experimental development drivert használtak, vagy ilyesmi.
(#9986) Ren Hoek: mindegy igazából, ez a bench csak egy katalizátor volt ahhoz, hogy egy probléma a felszínre kerüljön. Következtetéseket nem az eredményeiből kell levonni, hanem pl. abból, amint lejjebb linkelt Petykemano.
(#9990) HSM: azon sok meglepődnivaló nincsen, hogy a Radeonok többet gyorsultak - az ilyesmire jobban kihegyezett uarch mellett több is a kihasználatlan erőforrás bennük. Ugye a GCN tervezésekor az AMD már erre az irányra gyúrt, csak lassabban jött el, mint gondolták. Biztosan lesznek is fájdalmak emiatt a Maxwellel - a két fontos kérdés pedig ugyanaz, mint eddig:
- Mikor?
- Mennyi extra munkát fektetnek majd a fejlesztők abba, hogy ezeket enyhítsék? -
válasz
Ren Hoek
#9982
üzenetére
Nem a compute queue-k száma az izgalmas kérdés, hanem (feltéve, hogy tényleg ekkora overhead a CS) a szükséges váltások száma. Ha pl. az összes compute queue scene-előkészítési feladatokat végez, amik mind lefuthatnak a grafikai taskok előtt, akkor nyugodtan lehet több queue, először azokat hajtja végre a GPU - aztán vált, és jöhet a grafika (mellesleg ez nagy előnye a félig szoftveres megoldásnak). Ennek persze előfeltétele, hogy a frame-re vonatkozó összes feladat meglegyen, amikor elkezdi a számítást - ezt nem tudom, hogy így van-e, ill. ha nincs, akkor megoldható-e egyáltalán. Ez egy második, ellenkező irányú nagy HA.
Az önmagában nem gond, ha az adat ide-oda vándorol a compute és a grafikai queue-k között - miután ezek az architetktúrák erősen latency-állók, szerintem a GCN-en ez csak akkor gond, ha eszement mértéket ölt. Ami inkább kérdés, hogy a gyakorlatban mennyi értelme van ennek - nem vagyok grafikus programozó, úgyhogy erről inkább véleményt sem mondok.
(#9983) HSM: kicsit túlpörögted azt az egy mondatot, nem?
Nem a két szituációt hasonlítottam össze, csak annyit jegyeztem meg, hogy most már az AMD oldalon is van csodafegyver.Az, hogy a gyakorlatban mi lesz, attól még nagyon messze vagyunk. Egyrészt ott voltak sayinpety fórumtárs saját tapasztalatai, ahol a Maxwell is gyorsult az a-c hatására, tehát elvileg működésre lehet bírni a dolgot normálisan. Másrészt B megoldásként ott lesz a lehetőség, hogy mindent a gf queue-ba tesz a program, mint az AotS esetében - így az aszinkron sebességnyerés elmarad, de ez úgyis kisebb lett volna, mint a GCN esetében. Harmadrészt pedig, ki tudja, milyen meglepik jönnek még elő...
-
válasz
Petykemano
#9979
üzenetére
Jó kis írás, érthető, és nem utolsósorban magyarázza az összes eddigi jelenséget / állítást. Ha az "üzemmódváltás" tényleg up tp 1000 ciklust igényel a Maxwellen (ez azért egy elég súlyos állítás), akkor a gyakorlatban frame-enként nem lehet több 1-2 ilyen átkapcsolásnál (sőt, ALU-limitált esetben 1-nél sem nagyon), azaz a schedulernek nagyon komolyan rendezgetnie kell a feladatokat. Ezt meg lehet csinálni egészen addig, amíg a graf és a compute feladatok nem használják össze-vissza egymás eredményeit. Ezzel meg is van a recept, hogy hogyan lehet megcsinálni a földalatti óceán AMD-s megfelelőjét

-
válasz
Malibutomi
#9860
üzenetére
Pontosabban eredetileg is a 16-bites teljesítményről volt szó, csak a sajtó ügyes szalagcímeket kreált belőle. Pontosan, ahogy a Mantle esetében. Érdekes megfigyelni, hogy melyik cég hogy kezelte a szituációt, tanulságos.
-
-
válasz
FollowTheORI
#9688
üzenetére
A queue-kat nem kell csomagokra bontani, ott jönnek be a feladatok, és onnan "viszi el" őket a scheduler. Azt mondjuk nem tudom pontosan, mit jelent fizikailag a 31-es limitáció átlépése (talán csak annyit, hogy vmi contex switch kell, ha több van, talán többet).
Könnyen lehet, hogy az AOTS 1 grafikai és 1-2 compute queue-t használ - többnek csak akkor van értelme, ha valamiért foghíjas mind a gfx, mind az összes compute queue. -
válasz
FollowTheORI
#9659
üzenetére
Egy időben több ezer feladat fut egy GPU-n. Abban szinte biztos vagyok, hogy nem a 31+1 a probléma a Maxwellnél, mert az Oxide "mérsékeltként" aposztrofálta a saját a-c használatát. De amúgy csak az a biztos, hogy az AOTS csinált valamit, amire a Maxwell + driver kombó nincs felkészülve. A jelenségből én olyan problémára gyanakszom, ami vagy driver oldali hiba, vagy driver oldalon kezelhető - ha az előbbi, akkor vihar a biliben, ha az utóbbi, akkor az lehet komolyabb gondok előfutára is.
Nem volna rossz, ha sayinpety kolléga erre járna, mert ő már programozott ilyesmit, és ha jól rémlik, volt valami szívás náluk is...
-
válasz
tibcsi0407
#9649
üzenetére
Igazából bármennyi is lehet - ha előtte sorosan hajtott végre a GPU, és utána ők megerőszakolták a kódot, hogy mindenképpen sorosan hajtson végre nVidia GPU-n, akkor nem kellene nagyon különbségnek lenni...
-
válasz
tibcsi0407
#9641
üzenetére
Azért érdekes ez a műsor, mert ha az nVidia valóban csak sorosan képes végrehajtani, az nem magyarázza, hogy miért ment le a teljesítmény a béka segge alá az Oxide-nál.
-
válasz
Dr. Bubó
#9621
üzenetére
Lehetne kicsit visszaolvasni

Jelenleg senki nem tudja megmondani, mennyi az igazságtartalma a clickbaiter híreknek. Egyelőre annyi biztos, hogy jelenleg van probléma, és nincs rá kapásból válasza az nVidiának (ha lenne, akkor nem így festene a kommunikációjuk). A probléma mértéke terjedhet egy szar drivertől egészen bizonyos hardware-képességek hiányáig, és azért jó, hogy ez felszínre került, mert számos lelkes (és valamennyire hozzáértő) programozó most azt kutatja, mi is a helyzet, ill. az nVidia sem ülhet a babérokon, muszáj cselekedniük.
Egyébként az nVidia simán van annyira "szar" cég, hogy egy ilyen scamet előadjanak, de ettől még egyáltalán nem biztos, hogy ez a helyzet. A következő 2 hónapban sok popcorn fog fogyni

-
Le lett írva az elmúlt 24 órában két realisztikus magyarázat is. Nyilván nem tudjuk biztosan, mennyire pontosak, de mindkettő magyarázza a jelenséget, és mindkettő kezelhető programozói oldalról. Igazából elvileg a driver is megfoghatja ezeket az eseteket - afelett is van kontrollja, hogy egy GPC akar-e feladatot adni egy másiknak, és afelett is, hogy compute feladatokat összegereblyézzen egybe, és a következő ciklusban azok menjenek.
De az is lehet, hogy a fejlesztőknek is oda kell figyelni erre - too early to tell. -
válasz
daveoff
#9543
üzenetére
Azt azért ne felejtsétek el, hogy ha a 2048 ALU-val rendelkező 980 gyorsabb, mint a 2816-os 290X, akkor ott ALU kihasználtságban komoly különbség lehetnek (még órajellel kompenzálva is). Ha ezen segít az a-c (márpedig ha ezen nem, akkor semmin), akkor abból valóban kovácsolhat előnyt az AMD.
-
válasz
Malibutomi
#9524
üzenetére
Aha. Ebből nekem az jön le (amit aztán Abu85 postja részben meg is erősít), hogy nem univerzálisan tiszta, mit is értünk aszinkron compute alatt. Eszerint lehetnek olyan fizikai leképződései, amit az nVidia kártyák a felépítésük miatt (és itt most nem a spórolásról van szó, hanem arról a koncepcióról, amit a Fermi óta visznek) nem tudnak normális sebességgel futtatni.
(#9531) Abu85: Köszi, ez informatív volt
De még mindig kérdés, hogy miért nem hozott gyorsulást az a-c a GCN kártyákról. Volt már szó arról, hogy a driver sorosít, de akkor mitől dőltek be a Maxwellek? 
Összességében azt tudom mondani, hogy 3 csomag popcorn és két Nuka-Cola rendel

-
válasz
Malibutomi
#9505
üzenetére
Na ez egy érdekes műsor. Kérdések:
- Honnan került elő hirtelen egy olyan mondás, hogy a Maxwell nem támogat aszikron compute-ot? Eddig arról volt szó, hogy támogat, csak bizonyos korlátokkal.
- Ha az nVidia kártyákon nem ment az a-c, és ezzel együtt a Radeonok alig lettek gyorsabbak, akkor mire jó az a-c? Vagy, ha a Radeonokon nem ment volt az a-c, akkor jelentősen lassabbak lettek volna?Sokat segítene, ha a benchmarkban lehetne kapcsolgatni, hogy használjon-e a-c-t vagy ne...
-
Validátorral kontextusfüggő (adatfüggő) hibát nem fogsz elkapni, a maximum, amit elvárhatsz tőle, hogy jelez kockázatot egyes programszakaszoknál erre. A többi, amit leírtál, meg tovább cizellálja a dolgokat.
Nincs ebben amúgy semmi extra, drasztikus változások meglépése mindig sok kiegészítő problémával jár. Végig kell szenvedni őket, aztán néhány év múlva napfény lesz és tengerpart
-
válasz
Petykemano
#9385
üzenetére
Úgy tűnik, a cikk írója nem látta a tesztek eredményeit

-
Nomenklatúrán sokat ne vitatkozzunk, de kompromisszum kb. = nem tökéletes megoldás.
Az Intel nem csinált semmit, úgyhogy az nem kompromisszum. Eleinte az AMD sem, aztán követte az nVidiát, mert röhej tárgyává vált volna.
De, fog BSOD-ozni. Látom a mostani játékok állapotát launchkor, ezen felül rengeteg szoftverfejlesztési projektben részt vettem (nem gaming) - mindkettő alapján nyilvánvaló, hogy lesz BSOD.
Yup, félreérted. A driver próbáljon indítani annyi szálat, amennyit csak szükségesnek érez, viszont a szoftver tehessen erre korlátot. Amit akár kipublikálhat a user felé is valamilyen formában. Ily módon a driver-játék közötti kompromisszumba bele tud szólni az IHV, aki ismeri a hardvert és a drivert, a fejlesztő, aki ismeri a játékot, és a user, aki ismeri a gépét és a saját elvárásait.
-
A gameplayt nem is kell skálázni. Azok az alap (ahogy a geometria is), és ahhoz kell(ene) hozzálőni a rendszer függvényében, hogy mennyit kaphat maximum a driver.
Az nVidiára fogni ezt a dolgot alsó hangon is hülyeség - nekik volt megoldásuk egy helyzetre, amire az AMD-nek nem. Nem volt jó megoldás, de a semminél jobb. Ha azt hiszed, hogy az nVidia aggresszíven multithreadelt drivere nélkül jelentősen jobb lenne bármi gameplay fronton, akkor igen naiv vagy.A BSOD-ban semmi gumicsont nincs - a játékok tele vannak hibákkal, és egyes hibák a nagy szabadság miatt meg fogják borítani a rendszert.
"Rendesen megírt programokat kell használni, és nincs gond."
Akkor innentől el lehet felejteni az AAA játékokat
Ha limitálom a szálak számát, akkor nem teszek nekik félre erőforrást, hanem maximálom, hogy mennyit vihetnek el. Ha ez nem elég a grafikára, akkor kevés lesz az FPS, és vissza kell venni a beállításokból.
-
Mivel a jelen CPU-oldali működésben az ILP extraction nem terjed ki több magra, a szabályozás egyszerűen mehetne lefojtással - kevesebb threadet kap a driver, aztán hello.
Abban persze igazad van, hogy a járt út egyszerűbb a járatlannál, de a PC-n uralkodó húszmillió variációs lehetőséget járt útnak tekinteni igen bátor dolog. De mindegy, mert most már úgyis erre haladunk - szerintem lesz ebből még mozgás visszafelé, szabályozottabb irányba, de ez biztosan nem lesz rövid folyamat.A PCI-E magyarázat a 6300 és a 8370 között sántít, de már jobb egy kicsit. Viszont így meg nagyon ciki, ha az egyik szűk keresztmetszet helyett behozunk egy másikat

(#9339) Malibutomi: azért azt ne felejtsd el, hogy a neten olvasott tesztek VGA-limites szituációkban készülnek. Gyengébb CPU-val, kevésbé VGA-orientált scene-nel és beállításokkal eléggé más a kép.
(#9347) cain69: a C2C teljesítmény annyival nem gyengébb az FX-ben, hogy az i3 így lenyomja egy olyan helyzetben, ahol 4 fizikai mag megy 2C/4T ellen. Nincs amúgy jobb elméletem, de szívesen látnék egy olyat, amin nem találok fél perc alatt egy hatalmas lyukat...
-
Az, hogy nem lehet szabályozni, az implementáció hibája, nem a modellé, ezért nem értem az első mondatot. Nekem pont az a véleményem, amit a végén írtál, hogy egy kicsit túltolták a szekeret ezzel a fene nagy szabadsággal, de láthatóan az inercia-törvények pont ugyanúgy működnek szabványok esetében, mint fizikai tömegekkel

Arra azért kíváncsi leszek, mit fog mondani Johnny C. Duty, amikor először szembesül a hosszú évek óta nem látott BSOD-dal játék közben...(#9318) Abu85: igen, ezt hallottam én is, de ez nem magyarázza, hogy mitől kétszer gyorsabb i7-6700K mind az i3-4330-nál, mind az FX8370-nél.
(#9316) cain69: A 4 magos elmélet is ugyanúgy beteg - az FX-i3-i7 relációkör közül az egyik párt magyarázza, de a másikat nem.
-
válasz
Televan74
#9262
üzenetére
Szerintem egyik sem jó. Userként az nVidia megoldása a legjobb, de akkor tudnám azt mondani rá, hogy jó, ha a játék tudná szabályozni, hogy hány mennyi fizikai erőforrást vihet el maximum a driver.
(#9263) HSM: a BF4 messze nem a legszélsőségesebb eset. A többit ld. fentebb.
-
válasz
sayinpety
#9250
üzenetére
Az remek, hogy tetszik az AotS, de ettől az alpha még nem alkalmas a DX12 előnyeinek demonstrálására

A második szakasz megosztását köszi
Ez viszont azt is jelenti, hogy a 3 IHV közvetetten kikényszerít egy olyan vizuális komplexitást, amire a DX11 nem alkalmas. Arra, hogy ez a vizuális komplexitás megfelelő sebességgel szaladjon CPU oldalon, az nVidiának van megoldása, a másik kettőnek nincs. Az nVidia megoldása miatt csökkentenetek kell a gameplay komplexitást - míg ha az nVidia megoldása nem lenne, akkor (esetleg) nem kellene csökkenteni a komplexitást, viszont bizonyos jelenetek akkor sem mennének 4GHz-es i7-nél gyengébb CPU-n 30 fps felett, ha megfeszültök. Kellemes dilemma, és nagyon szépen látszik belőle a 3 cég piaci hozzáállása:
"N" felhasználja a saját vásárlói bázisának erősítésére
"A" előhúz valami innovatívat, amiből egyszer majd lesz valami, de a jelenben csak a pénzüket viszi
"I" teljesen mást csinál, mint a többiek, és abból vagy nem lesz semmi, vagy ha igen, akkor az mindenkinek nagyon sokba fog kerülni -
válasz
sayinpety
#9235
üzenetére
Ezeknek mind nagyon tudok örülni, amikor éppen nem a "vásárló" feliratú sapka van rajtam. Vásárlóként viszont a jobb gameplay / fizika / stb., aminek amúgy nagyon örülnék, megint csak belógatott ígéret, amiből egy jó darabig semmit sem látok. Valamint az AotS alpha ezt egyáltalán nem demonstrálta - innen indult az egész téma.
Emellett még egy dolgot nem értek. Ha fontos a jobb gameplay, akkor miért nem csökkentik a stúdiók a grafika komplexitását annak érdekében, hogy több erőforrás maradjon más célokra?
-
Senki nem beszélt az iparágról. Felőlem azt csinálnak a színfalak mögött, amit akarnak - igen örvendetes, hogy ezután esetleg kevesebb pénzből megússzák a PC portot, de miután ettől nem fogják olcsóbban adni a játékokat, és a ritka kivételtől eltekintve a minőség sem lesz jobb, felhasználóként ez teljesen érdektelen. A felhasználók számára belengetett előnyökből pedig egyelőre annyit látunk, hogy az AMD már nem fog megtanulni DX11-es drivert írni. Képzelj ide egy tűzijátékot, annyira jó
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Tehát akkor foglaljuk össze:
- a DX12 megoldást kínál a), b) és c) problémákra (tetszés szerint bővíthető az ABC további betűivel)
- megjelent egy DX12 demo, ami az egyik gyártó kártyáin demonstrálja az a) probléma megoldását, a többit nem; a másik gyártó kártyáin pedig egyik probléma megoldása sem látszik
- ennek oka (a támogató megközelítésű kollégák szerint) az, hogy a kód még alpha állapotúKonklúzió - ez a demo jelen állapotában csaknem teljesen irreleváns, feleslegesen foglalkozunk vele. Oh my. A DX12 által hozott előnyök pedig a felhasználó szemszögéből továbbra is mítosz szintjén mozognak.
-
Nem akarom itt sokat rugdosni a döglött lovat, de mutasd már meg pls, hogy hol szabadultak fel a CPU-erőforrások, ahová befér az AI / fizika / bármi. Átlagos terhelés mellett egy i3 40FPS-ben limitálja a sebességet, míg egy FX-8370 37FPS-ben - ezt még lehetne szerinted csökkenteni?

-
Na, most ki fog törni a kollektív amnézia? Szívószál-sávszélességű Maxwell nincs meg? 130%-os Fury sebességnövekedés nincs meg? GCN-only kutatás nincs meg? Soroljam még?
Az, hogy az olló záródása az elvárás, az elmúlt napokban lett többször kihangsúlyozva. Azelőtt máson volt a hangsúly
Ez nekem nem tűnik egy nyitva hagyott mondatnak!
Az AotS-re vonatkozott. A DX12 előtt pontosan olyan rögös utat látok, mint eddig, aminek a végén nyugodtan lehet siker. De az első bomba mindenesetre bekukucskált a sarkon, halkan elrebegte, hogy "bumm", aztán udvariasan elköszönt.
-
Nem a fenét, csak olvasd vissza a fórumot március-áprilistól. Ami
ökörségcommunity tudás itt összegyűlt, az alapján a Fury X-nek rá kellett volna duplázni a Titan X-re, és az FX-8350-nek az i5-4670K-ra. De megmondom őszintén, az alapján, hogy 50.000-szer lett elmondva, hogy az Oxide GCN-re kutatott, mert evilgeci nVidia nem dokumentálja az architektúráit, még én is egy 20-30%-os Fury X előnyre számítottam. Az FX-ek szereplése pedig totál érthetetlen.Végkövetkeztetést amúgy hol olvastál?

-
Kerestem a megfelelő szót az AotS fps-eredményekre, és azt hiszem, a következőkkel kitűnően össze lehet foglalni: heavily underwhelming. Van ugyan javulás minden CPU / VGA kombinációban, de igazából komoly előrelépés csak az AMD VGA-tulajok számára jelentkezik - és ott is csak a gyorsabb CPU-k esetén, mert a lassú CPU-k DX12 alatt is lassúak. What a surprise (mondjuk annyiban igen, hogy 3-4 modulos FX-ektől többet vártam). A VGA-k között pedig minimálisan billeg az egyensúly, de itt sem történik semmi izgalmas.
Más szóval, felhasználói szempontból továbbra is az a helyzet, mint a Mantle esetében - az AMD megoldotta a driver-problémáit egy új API bevezetésével. Ez pozitív. A világmegváltás pedig szokás szerint elmaradt.
-
Nem, ezt a helyi AMD fan club magyarázta bele (aminek én nem vagyok a tagja), Te pedig adtad alájuk a lovat. Ilyen számokkal dobálóztál, nem is csoda...
Szóval akkor összegezve a nyarat: elmaradt a csodatétel a Fury X által, elmaradt a csodatétel a Win 10 által, és most úgy fest, hogy el fog maradni a csodatétel az AotS által is. Háromból nulla. Csodálkozik bárki, hogy sokan a "hiszem ha látom" hozzáállást képviseljük?

-
válasz
Ren Hoek
#8955
üzenetére
Elég szerencsétlen volt ezt a grafikont betenni, érdekesebb lett volna a 33.3-as és a 16.6-os együtt. Az a pár száz ms utalhat 1-2 akadásra is, folyamatos mikrolag nem következik belőle - ráadásul az bármelyik 0-s kártyánál is lehet, mert mikrolag lesz a 20ms - 40ms range-en belüli ugrálásból is.
Ami igazán érdekes, hogy a Radeonok hamarabb kifutnak a 4GB-ból, mint a GeForce-ok.
-
How much video memory is enough?
Hmm. Sőt, hmmmmmmmmmmmmmmmmmmmmmmmmm

-
Hogy a cikk hogy lett linkelve, az a linkelő dolga, ill. én pont nem is azt szűrtem le a cikkből, hogy bukott.
Legyen 1.5 év akkor (nincs kedvem 2013. novemberi cikkek után kutatni
), így is túl lassú a dolog, ha azt vesszük, hogy gyakorlatilag minden kész volt hozzá. A technológia pedig a szokott módon mászik belé a kommunikációs gödörbe 
(#8890) HSM: én sem, viszont nem értek a display technológia mélyebb perverzióihoz. Az LCD kezdettől fixed refresh volt, ki tudja, mik épülnek erre a feltételezésre. Lássunk egy FreeSync monitort, ami nem ghostol - de mintha ezt a beszélgetést már lefolytattuk volna 4 hónapja, és mintha azóta nem változott volna semmi.
Szörnyűséges az a G-Sync hiba, amit írsz - asszem Jensen már fontolgatja miatta az öngyilkosságot
![;]](//cdn.rios.hu/dl/s/v1.gif)
szerk. (#8898) Abu85: ugyanezeket mondtad tavaly ilyenkor is, csak számok nélkül. Hmmmm.
A notis G-Syncet ismerem, csak azt is le kellene tesztelni, nem-e-rendelkezik-e-esetleg-e ugyanazokkal a gondokkal, mint a FreeSync.
-
Emlékeim szerint 2013. októberben volt a G-Sync bejelentés, és utána igencsak gyorsan jött a válasz - szóval nem másfél év az. Másfél év majdnem az volt, mire az ígéretből termék lett - ezt még rá lehet fogni a szabványosdira, de több, mint 4 hónappal az első termékek megjelenése után is arra hivatkozni, hogy nincs megfelelő termék...
Az összevetés pedig természetesen releváns annak, aki most akar valamilyen Variable Sync monitort.(#8866) HSM: lehet tologatni a felelősséget, de az eredményen nem változtat. Arról nem beszélve, hogy még nem láttuk bizonyítva, hogy a G-Sync-kel azonos értékű megoldást lehet csinálni a bufferelés nélkül - szóval bizony lehet, hogy a FreeSync hibája.
-
Hát, nem hiszem, hogy ez már drámaian befolyásolná a dolgokat - a tesztben az egyik eleve olyan volt.
Nekem az a bajom, hogy lassan két éve lett bejelentve a G-Sync, és a választék továbbra is tendál a nullához. A FreeSync-ről pedig az a propaganda ment, hogy a nagy monitorgyártók mögötte állnak, és eljön a kánaán, ehhez képest a választék még a G-Sync-nél is gyengébb.
Értem én, hogy mindenki szeretné a népet átterelni WQHD-re, meg 4K-ra, de
a) nekem most erre állatira nincs igényem
b) nincs kedvem csak ezért megtriplázni a VGA-budgetemet
c) menjenek a p***ába a terelgetésükkel
(#8810) kovsol: nekem pont az a fontos takeaway, hogy nyugodtan elkötelezheted magad valamelyik gyártó mellett, mert a kapcsolódó ...Sync megoldással nem lesz gond. nVidia oldalon fizetsz kb. 50e prémiumot, ezt bele kell kalkulálni.
-
válasz
Locutus
#8800
üzenetére
Nagyon jó teszt, érdekes eredményekkel.
Először is, a 60%-os G-Sync fölény minden, csak nem döntő. Én az utánhúzás miatt többre számítottam, de úgy tűnik, hogy valódi játékhelyzetekben ez kevésbé zavaró.
Másodszor, a preferencia-ár korreláció miatt az agnosztikus csapat rögtön az AMD-irányba dől, és valószínűleg a kasszáknál még az nVidiás preferenciák közül is pár azt mondaná, hogy 150 dollár különbséget ekkora különbség nem ér meg. Szóval míg minőségben egyértelmű az nVidia győzelem, ár / értékben döntetlenszagú a dolog.
Harmadszor, nem derült ki, hogy a Battlefield teszt AMD-n DX-ben ment-e, vagy Mantle-n. Abban a játékban ugyanis (és kisebb mértékben a Crysis 3-ban szintén) igencsak jobb a DX11-es támogatás zöld oldalon, tehát valószínű, hogy ott nem (csak) a G-Sync nyert, hanem az nVidia HW / SW (is).Összességében, ez a teszt engem pont abba az irányba billent, hogy a G/Free kérdésben nincs is akkora különbség, és ha az ember talál magának megfelelő kártyát az egyik oldalon, akkor a hozzá kapcsolódó whatever-sync megoldással különösebb gondja nem lesz (értelemszerűen a monitor tudását figyelembe véve).
-
Lehet, hogy nem fogalmaztam egyértelműen - nem azt akartam írni, hogy a GameWorks örök időkre megmarad (merthogy csak addig fog, amíg az nVidia érdekeit a befektetett pénz arányában szolgálja), hanem azt, hogy az nVidiának ilyen lesz a mentalitása, amíg Jen-Hsun a Jen-Hsun.
-
Yep, így van, viszont - ha egy 2 éves megújulási ciklussal rendelkező iparágban felhozol egy problémát, és egy 4 éves példát hozol mellé, azzal Te magad sugallod, hogy a problémád már régen nem aktuális. Ezen még vitatkozni sem lehet, egyszerű szemantikai következmény.
A Crysis 2-t egyedül úgy lett volna szabad felhozni, hogy 2011-2015 között említ egy-egy játékot, ami ilyeneket tesz. -
válasz
schwartz
#8703
üzenetére
Még ennél is sokkal többen vannak (99+%), akiket már egyáltalán nem érdekel, hogy mi volt a Crysis 2-vel. Tárgyalástechnikában tanítják, hogy a gyenge érvek nemhogy nem tesznek hozzá a meggyőzőerőhöz, hanem még rontanak is rajta. Ez a nyilatkozat ennek a mintapéldája.
(#8702) NetTom: Huddy szerintem elég jól képben van, ez megintcsak kommunikációs fail. Rossz időben, nem a megfelelő információt...
Neked is, ill. mindenkinek, aki arra számít, hogy az nVidia változtatni fog a disznóságain: amíg Jen-Hsun a CEO, addig semmi ilyen nem lesz. Az egész marketing gépezet arra van felépítve, hogy nyerni akarnak, bármi áron. Legutóbb pont a 980Ti-vel bizonyították, hogy mennyire nem sajnálnak semmilyen áldozatot ennek érdekében - a GameWorks-szel kapcsolatos kritikákra meg már látjuk, milyen megközelítéssel reagálnak.
-
Elolvastam a cikket, és döbbenten pislogok. Teljesen hülye ez az ürge (Huddy)? Ha a Witcher 3 megjelenése után rögtön jönnek ezzel a dologgal, és telekürtölik vele a netet, akkor azt mondom, hogy kemény, de az nVidia ellen ezt kell csinálni, ez vezet eredményre. Ehhez képest az uborkaszezon közepén elkezdi a 4 éves Crysis 2-t emlegetni? OMGWTFDTIT?

-
-
Én továbbra sem értem, hogy 4K-ban miért csak maximum beállításokkal lehet játszani. Valaki felvilágosítana?

-
válasz
Yllgrim
#8512
üzenetére
A hsz-ed első és utolsó mondatát egymás mellé téve, elég vicces eredményt kapunk

Érdemben: hogy honnan veszed akár Te, akár bárki más, hogy az nVidia húzását (vagy általában a piacpolitikájukat) bárki védi, az rejtély számomra. Az nVidia egy közepesen mocskos kapitalista cég, erős sales / marketing fókusszal, akik szerencsések a diszkrét VGA piacon, mert nincs hasonló megközelítésű ellenfelük, és nagyon sok kétes húzást meg tudnak úszni. Persze, hogy nagyon csúnya dolognak látszik a Titan X-re ráengedni 3 hónappal később a 980Ti-t, de ahogy ezt többen írták már, a történelmi precedensből pontosan lehetett tudni, hogy ez fog történni, ráadásul a Fury ütemezése miatt még a dátum is közel egyértelmű volt. Azt pedig továbbra sem értem, hogy ez a húzás miért jelentené azt, hogy a cég a leghűségesebb vásárlóit szarnak nézi, a többi emelkedett hangvételű minősítésről az előző postodban már nem is beszélve.
Szerintem egyszerűen túlkomplikáljátok ezt a kérdést. A kapitalizmusban mindennek ára van, most éppen 350 dollárba került, hogy valaki a GM200-as GPU tudását 3 hónappal korábban élvezhesse. Tisztességes ez az ár? Szerintem nem. Más szerint meg vagy igen, vagy nem, de leszarja. Akkor meg mi a fenének ez a sátánozás?

-
-
Akkor már csak egy darabka információ: a tesszelátor nem egyben köpi ki a frame összes háromszögét, hanem sok csomagban. Ugyanígy dolgozik az összes többi részegység is. Azaz ez a pipeline-osítás nem annyi frame előredolgozást igényel, ahány lépcső van, hanem mondjuk időben egy frame 5-10%-át (hasraütés).
(#8420) miklosss2012: aha, teljesen. Én már régóta úgy nézem a pH! teszteket, hogy az nVidia eredményekre 5%-ot ráteszek, mert a játékmix / beállításmix annyival tér el attól, amit én ideálisnak tartok.
-
válasz
namaste
#8410
üzenetére
Anno a 970-es műsor kirobbanásakor volt róla szó, hogy minden SM-hez rendelve van egy kiemelt ROP blokk / MC, amihez 128-bites busszal van bekötve. A többi esetében 64-bites a busz.
(#8411) HSM: A kártyák versenyképességét hasonlítottuk össze - itt a lelkes hobbista szempont talán 0.01%-os súllyal fér be.
Async: igen, téves ez a feltevésed. Nem ok nélkül hívják a grafikai munkát futószalagnak vagy pipeline-nak - a tesszelátor kiköp egy adag háromszöget, a következő lépcső (mondjuk a scanline konverzió) elkezd rajtuk dolgozni, de közben a tesszelátor már a következő adag háromszöget rágcsálja. Mint minden kiszámíthatatlan inputú futószalagon, itt is folyamatosan előfordulnak kisebb-nagyobb megállások - az aszinkron compute egyrészt arra való, hogy ezeket az ALU oldalon csökkentse, másrészt új, eddig nem a GPU-n végzett számítási feladatokat is be lehet hozni ingyen vagy alacsony ALU-költséggel. A PhysX pl. kitűnően elfuthatna egy aszinkron compute pipeline-ban, GPU oldalon igen kevés sebességveszteséggel. Valószínűleg az nVidia már vadul dolgozik ennek a megvalósításán
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Még egyszer: piaci pozícióról beszélünk, irrelevánsak a sikeres kísérleteid. Írd meg az AMD-nek, és ha ennek hatására alacsonyabb feszültséggel fogják szállítani a 280-akat (vagy akár csak egy gyártónak lesz undervoltage editionje), akkor lehet erről beszélni. Addig hobbi-topik téma, piacilag nem játszik.
Async - másképp gondolod? De mégis hogyan?
Legalább írd le, mert gyanítom, hogy eleve téves alapfeltevésekből indulsz ki.Mem - a Te szemedben ez elfogadható kompromisszum, miközben a GM204 priorizált adatbuszai nem tetszenek. No offense, de ez a kettős mérce ékes példája...
@Valdez: kizárt dolog, hogy a magas Vcore hanyagság okán lenne. Én arra gyanakszom, hogy nagy a gyártási szórás, és van valami akadálya, hogy fesz szerint binneljék a chipeket.
-
Többször írtam én is, más is, hogy az egyéni sikeres kísérleteid a Tahitivel abszolút nem reprezentatívak - a 7900-asok ootb sokat fogyasztanak, pont. Egy termék versenyképességénél ez számít, nem pedig az, hogy valahol valaki lelkes ember jelentősen tudta módosítani a működési paramétereket. Örülünk a sikereidnek, de pls ne próbáld meg ezeket a termékekről szóló vitában érvként használni, mert állatira nem relevánsak.
Szerintem a Variable-Sync hiánya nagyon gáz. És a DX12_0 feature levellel mi lesz?
(nyilván nem számít semmit, csak emlékszem anno a hőbörgésre, amikor az nVidia nem tudott 11.1-et)Aszinkron cucc: amíg a ROP-ok dolgoznak, addig az ALU-k vígan dolgoznak máson - a GPU-n belül erős párhuzamosítás van most is. Az aszinkron compute-nak az a fontosabb feladata, hogy az ALU-k munkájában részt nem vevő "sejteket" ellássa feladattal. Nyilván szervezhet az inaktív ALU-ciklusokra is grafikai feladatot, csak ugye az inaktív ALU-ciklusok jellemzően azért inaktívak, mert egyik warp / wavefront / whatever sem tud haladni adat híján, és ha oda beteszel (állításod szerint) komoly memóriaigényű feladatokat, akkor pont nem haladtál semmit. Szóval maradjunk inkább a mostani merev szervezésből keletkező lyukak feltöltésénél.
Ill. ha ROP limites vagy, akkor alapvetően a ROP-ok átbocsátó képessége fogja meghatározni a framerate-edet.
Végül, új GPGPU feladatokat tehetsz be bármilyen típusú résbe, de ettől több FPS-ed nem lesz.A hub memóriavezérlő nyilván elég nagy mágia, nekem a ringbus is tetszett, de elég elolvasni a design filozófiát: jóval kevesebb tranzisztor minél kevesebb teljesítménybeli kompromisszum árán. Akár azt is mondhatnám, hogy az AMD lebutította a memóriavezérlőt a kevesebb fogyasztás érdekében. Köhhh, köhhh
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Akárhogy is nézem, de egy 7950 vs 960 az pont azokat hozza, amiket írsz - sokat fogyaszt, featurehiányos, és a fizikai erőforrásaihoz képest bizony igencsak lassú.
A GPU + sávszél fejtegetés természetesen igaz, csak extrém példaként hoztam az R600-at. De akkor már ne egyszerűsítsünk, ne tömbben beszéljünk a GPU-ról, hanem részegységenként. Az aszinkron ALU-kihasználásnak ui. mindenképpen lesz előnye, de jelentős csak ott, ahol a sebességet az ALU throughput limitálja. A jelenlegi játékokban ez sok esetben nem így van, jól lehet látni a teszteken, mennyi a backend limites motor. Ha meg eleve ROP / sávszél limit van, akkor a shader fázist fel tudod gyorsítani, de összességében sokkal több FPS-ed nem lesz.
Memóriavezérlő (nem csak Neked): sajnos ezt élő ember még nem mérte ki, úgyhogy csak az elméletre tudok támaszkodni. Egy teljes kiépítésű peer-to-peer crossbarnál elméletben nem tudsz gyorsabb általános célű megoldást csinálni (akkor igen, ha ismered előre az egyes adatutak terhelését, de ez egy GPU-nál nemigen jellemző).
A Maxwell PTP crossbar, viszont nem teljes kiépítésű, egy egység egyszerre nem tudja a teljes sávszélességet elérni. Az a feltételezés, hogy pl. egy SM-nek elég a 128-bites adatbusz a priorizált ROP / MC kombóhoz, és a 64-bites a nem priorizálthoz - tekintve, hogy a GM204-ben 4 SM jut egy backend blokkra, ez reálisnak tűnik. Viszont, mivel PTP, elméletileg egyidőben tetszőleges két fél között mehet az adat, azaz több párhuzamos transzfer is lehet.
A GCN hub-os vezérlője némileg talányos, mert nagyon kevés infot lehet olvasni róla. Én úgy értelmezem ezeket, hogy ez egy switched crossbar, ami egyidőben nagyon széles adatcsatornákat tud megnyitni két fél között, viszont a párhuzamos transzferek mennyisége limitált (nem merem állítani, hogy 1, de nagyon több nem lehet, mert elveszne a hub fő előnye, a kevés tranzisztor).Innentől csak következtetés - nagyon erős cache-eléssel és jó adatroutinggal a switched crossbar megközelítheti a PTP sebességét, speciális esetekben felül is múlhatja, de jellemzően lassabb lesz.
(#8377) Malibutomi: ez egy kitűnő példa az elmélet és a gyakorlat különbözőségére. Elméletben olcsó VGA + FreeSync / G-Sync = királyság. Gyakorlatban egyik Sync-hez sincs budget árú monitor...
-
A tuningot már megbeszéltétek, az nem játszik.
A 960 vs 280 szerintem egy klasszikus és sokszor látott összevetés - last-gen high end VS current-gen midrange. Meg amúgy is, ha ennyire számít a sávszél, akkor a 2900XT majdnem utol fogja érni a 960-at?

Végül, de nem utolsósorban, az nVidia továbbra is crossbar memóriavezérlőt használ, ami gyorsabb az AMD hubos cuccánál. Ennek a mértéke szituációról szituációra más, és fogalmam sincs, mennyi átlagosan, de nyilván ez is az egyik komponense annak, hogy az nVidia oldalon a sávszélesség kihasználása jobb.
-
Nem értem a gondolatmenetet. 3 közel ugyanolyan arányokkal rendelkező kártyáról van szó, mitől szenvedne az egyiknek többet a teljesítménye, mint a másiknak? Tudsz ilyen use case-t konstruálni? (első körben még a gyakorlatiasságot is elhagyhatjuk
).(#8307) daveoff: +2
(#8311) Ren Hoek: Ezt kezdettől fogva tudtuk. Baromi nagy kockázat van benne, és biztosan lesz jópár pofáraesés. A nagyobb cégek meg fogják tudni oldani, mert gondolom csinálnak uarch kompetencia központot, ahol tudják ki-/bemozgatni az aktuálisan érdekes architektúrákhoz értő emberkéket. A kisebbeknek meg ajánlott lesz motort licenszelni ahelyett, hogy írnának.
-
-
Arra gondolok, hogy azonos mértékű core és mem órajel húzásból mennyi +sebességet hoz a core. A Fiji esetében 66% volt a core, a 980Ti esetében az OC tesztek alapján 70-75% (arra sajnos nem találtam olyan jó egzakt tesztet, mint a Fijinél a hardware.fr tesztje). Vagyis, ha a "szívószálas" 980Ti-vel gond lesz sávszél terén, akkor minden bizonnyal a Fury X-szel is. Kivéve, ha a low-level magic ezt is megoldja

És persze ennek az okát érdekes lenne tudni, de az eredményen nem változtat. -
Azért ha már ennyit szívószálazol, akkor ugye az is megvan, hogy a 980Ti-nek magasabb a core:mem OC aránya, mint a Fury X-nek? Szóval jól mutat papíron az az 512GB / sec, de nagyon úgy fest, hogy az effektív sávszélesség terén a Fiji chipben nincs minden rendben. Érdekes kérdés, hogy ez az architektúra miatt van (mert akkor a Hawaii is érintett), vagy a HBM-hez kapcsolódik...
-
-
A sávszél egy technikai adat, ami az emberek 0.1%-át érdekli - valószínűleg felfelé kerekítettem. Memória ugyanannyi van rajtuk, oszt' az a fontos, nem?

Ár / teljesítményben hasonló a két kártya, és a 960 halkabb, hűvösebb, és sokkal jobban tuningolható. No contest.A 380X feltétlen szükséges lenne, mert a 290-et a kutya nem veszi 260 dollárért. Szar ügy, mert szerintem teljesen jó alternatíva egy normális hűtéssel, de ez a szomorú helyzet. Úgyhogy innentől kezdve a piacelemzésed borul, mert senkinek nincs a 250-es sávban életképes terméke. Lejjebb van 200-ért a 960 és a 380 - feljebb leírtam, hogy az hogy látszik. Feljebb van 330-ért 970 vs 290X vagy 390 - ennek ismerjük a történetét.
Innentől kezdve van az árazásban egy lyuk, aki lefelé mozdul, az valószínűleg nVidiát vesz, aki felfelé mozdul, az szintén valószínűleg nVidiát vesz. Tehát akkor lépnek, amikor kedvük tartja. Kellene egy ütős kártya az AMD-nek 250-ért, vagy a következő negyedéves jelentés is ezen a pályán fog mozogni.Ha novemberig el akarják húzni, akkor csináljanak két SKU-t. Kihoznak most egyet 240-250-ért, novemberben meg egy 10%-kal felclockolt DX12 editiont 260-270-ért.
Az új játékok pedig akkor fognak érdekelni > 1%-ot, amikor itt lesznek.
(#8129) Egon: a negyedéves jelentés nem hazudik. Sajnos.
-
válasz
Televan74
#8126
üzenetére
Ezt senki nem érti. A 380 nem túl versenyképes a 960 ellen, viszont a 380X-nek az operatív paraméterei várhatóan +20-25% perf mellett sem lennének sokkal rosszabbak, és annak már egy levagdalt GM204 ellen kellene küzdenie, sokkal kisebb lenne a kontraszt. Funkcionálisan modern GPU, lehetne belőle sikersztorit csinálni.
-
válasz
mcwolf79
#8114
üzenetére
Most éppen nem írtam (rocket írta), de az elmúlt 7 évben már sokszor
![;]](//cdn.rios.hu/dl/s/v1.gif)
Őszintén szólva amúgy nem értem, mi volt az AMD célja ezzel a szériával. Arra van elméletem, hogy miért hozták ki (személyes bónuszok and suchlike), de hogy a cégnek ebből mi haszna származik, azt nem tudom elképzelni. Ha legalább lenne rendes supply a Fiji-s cuccokból, az generálna pénzt és hírértéket, de így... És ugye sejethető, hogy a következő egy évben lesz még egy Nano meg egy dual-GPU monster, aztán várakozás a 14nm-re...
-
-
válasz
proci985
#8090
üzenetére
Valóban, viszont minden teszt kb. ugyanazt mutatja, ill. a megemelt core órajel + fesz és VRAM órajel + fesz (valószínűleg) alapján ez is a logikus.
Ja, emlékszem a sztorira. Irigylem a türelmedet, én kib***tam volna az utcára, és keresztülmegyek rajta néhányszor autóval. Utána beviszem garanciáztatni

-
válasz
proci985
#8044
üzenetére
Most hiretelen nincs meg, hogy hol laksz, de nemrég írta valaki, hogy a UK-ben lehet kapni, és nem dőlnek be a webshopok a vásárlók inváziójától.
Úgy tűnik, máshol vannak a tűréshatárok
Én a 290X-et nem érzem gázosnak fogyasztás terén, de a 390X már erősen meghaladja a küszöbömet, hűtéstől függetlenül.(#8041) rocket: Pozícionálásban sosem voltak erősek. A 290X-et is az első napon sikerült elb***ni a refhűtővel, most ugyanezt megcsinálták a Fury-val a teljesítmény-elvárások túlsrófolásával. A vevők 60-80%-ánál az első impulzust az életben nem változtatod meg.
(#8053) Abu85: persze, azért írtam, hogy kihegyezve, nyilván használja a GPU többi részét is (különben nem lenne kép), de a többi terhelés marhára nem releváns mix játék szemszögből - messze nem realworld erősorrend szerint sorakoznak fel benne a kártyák egy uarchon belül sem.
-
Nem, az AMD csak utalgat, aztán hagyják, hogy abból a felhasználó felépítse a saját elvárásait. Vannak piacok, ahol ez jó taktika, a VGA-piac nem ilyen.
(#8042) gollo91: és akkor mi a hiteles? A 3DM overhead tesztje, ami a GPU munkájának a legelső lépcsőjére van kihegyezve?

Amúgy sztem egyik DX12 teszt sem ér semmit. Majd ha lesz fél tucat piacra került, megvásárolható játék, akkor lehet egy első ítéletet mondani.
-
Ebben van valamennyi igazság, másrészt viszont a nincs rajta sapka tipikus esete. A 390X szerintem teljesen vállalhatatlan azzal a fogyasztással, és ha már 390X, akkor inkább 290X, és ha már 290X, akkor inkább már 290.
A gond sokkal inkább az, hogy a custom Fury Pro-k 550 helyett 570-580-ba kerülnek, miközben a 980 lejjebb kúszott 480 környékére. Kéne legalább 50 dollárt vágni az áron, de az is hogy néz ki, hogy ma jelent meg x áron, holnap meg árcsökkentenek rajta
(#8034) gollo91:
Pl. ezt?![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
Locutus
#7991
üzenetére
Ezekkel a hírekkel az a gond, hogy még akkor sem igazak, amikor igazak. Tegyük fel, hogy nem merő kitalálás az egész - sem peremfeltételeket, sem kivételeket nem látunk hozzá. Az ilyen szerződések általában nem 2-3 (de még csak nem is 8-10) oldalasak, egy fél sort kiragadni belőlük gyakorlatilag értelmetlen...
-
válasz
Venyera7
#7926
üzenetére
Most jelent meg egy komplett új (vagyis "új") szériájuk, és máris mindenki árcsökkentésről beszél. Ezenfelül a két legerősebb kártyából az ellátás a béka segge alatt. Miből lesz így pénze az AMD-nek?

(#7925) Abu85: Ez komoly? Mert mondjuk elég sok mindent megmagyaráz. De még akkor is nehezen hihető, hogy az AMD ilyen elképesztő dilettantizmussal áll a sajtóhoz...
-
OK, szuper, tehát (ebben a témában) nem az AMD beszél össze-vissza, hanem a sajtó. Következő lépés: ki kellene elemezni, hogy a sajtó miért beszél össze-vissza. Pl. mert nem kap elég infot? Vagy mert homályosak a mondások? Vagy szimplán csak g**iségből? Ezzel bizony dolgozni kellene.
Btw. ez a Fury Pro launch már megint egy kommunikációs katasztrófa volt - pedig a kártya egészen jó

-
Hagyjuk a rizsát
Lesz Mantle, vagy nem lesz Mantle?Igen, ismerem a low-level API-k ilyen rákfenéjét, és pl. ezért is csak mérsékelten vagyok lelkes irántuk. Meg amúgy is ömlik a sz** a játékpiacból, ellenben a Supergiant meg a Zachtronics következő játéka felelőem DX7 is lehet

(#7856) hpeter10: G1-gyel összemérte a hardware.fr, kb. egyforma gyorsak WQHD-ben.
-
válasz
Laja333
#7832
üzenetére
Itt az a fő probléma, hogy teljesen hiteltelen már a cég kommunikációja. Mondanak valamit, aztán nem úgy lesz. Egészen magas hitrate-tel. Ráadásul pont az a játékos teszi ezt, aki azzal próbál a vevők kedvében járni, hogy jövőbiztosként építi fel a termékeit. Nincs ez így jól

-
Szolgálati közlemény - az AMD eladásáról szóló találgatások nyugodtan mehetnek ON-ban

-
Ezek valós kockázatok, de ennyire tényszerűen kezelni őket azért túlzás. Igen, az AotS kirakatjáték lesz (főleg, hogy nyáron lesz belőle alpha - mikorra lesz gold?), de jelentősen több értéket fog tudni kihozni az alternatív API-ból, mint anno a SR a DX10.1-ből. A fő kérdés persze az, hogy ezt hogyan tudja az AMD kommunikálni, és ebben én sem vagyok túlzottan derűlátó - már azt sem értem, hogy a Fury launch mellé miért nem hoztak ki egy ütős techdemot, idő lett volna rá.
AAA fronton én sem hiszek az új API-k rohamos terjedésében, még a konzolos szinergiák katalizáló hatása mellett sem. Kisebb, rövidebb ciklusidejű játékok esetében jöhetnek innovatívkodások - és bár az a gyakorlatban mindegy, hogy 150 vagy 200 FPS-sel megy valami, ha rápakolnak egy DSR-t / VSR-t, akkor feleződik az FPS, és arról már legalább beszélni van értelme. És nem megint kilyukadtunk a rohadt kommunikációhoz?

-
válasz
sayinpety
#7744
üzenetére
Az első kérdésem az lett volna, hogy a konzolos motorok használják-e az aszinkron compute-ot, de a későbbiekből kiderült, hogy igen. A következő kérdés - mennyire elterjedten, és mennyire intenzíven? Van reális esély arra, hogy megborítja a Maxwellt vagy a GCN1.0-t?
Emellett kérdés, hogy a PC portoknál ki fog sok energiát beletenni, hogy megnövelje az aszinkron pipeline-ok arányát az extra teljesítmény miatt (a többi sürgősnek tűnő dolog nem tűnik differenciálónak), ill. hogy ezek az engine-ekre épülő játékok mikor jönnek. Ugye a Tiétek majd 2016-ban.A shader-fordítós okfejtés érdekes, köszi. A loading screen eliminációt nagyban támogatnám

(#7745) sayinpety: 700MB-ban már benne vannak a textúrák is? Meglepő...
Ill. nem értem, miért fáj a törlés, még ha sokáig is tart. Nem lehet aszinkron csinálni? -
Ez a teszt azt méri, hogy mennyi draw callt bír el az adott kártya egy másodperc alatt. Ha a jelenlegi draw call struktúra megmarad, akkor a 980Ti-nél látottak 30-40%-a bőven elég lesz, mert a kártya többi része nem fog tudni többet feldolgozni. Ha nagyon letekered a grafikai beállításokat, akkor egy környzet-intenzív játékban 150-200 fps-től kezdve lehet előnye a Radeonnak.
Érdekesebb a helyzet akkor, ha "soványabb" draw callokra térnek át a fejlesztők. Itt megint az a kérdés, hogy mikor - vélelmezem, hogy amíg a DX12 renderer a DX11 mellett egy extra lesz, addig ezt nem fogják sokan csinálni.(#7726) asdxv: pedig ennek éppenséggel van realitása, az más kérdés, a Fury X életciklusában ennek túl sok jelentősége nem lesz. A csökkentett csíkszélességes cuccuk jövőre minden bizonnyal jó lesz, hiszen régóta erre a paradigmaváltásra készülnek. Nagy kérdés, hogy az nVidia következő architektúrájában hogyan lesznek a hangsúlyok.
-
válasz
sayinpety
#7697
üzenetére
Világos. Magyarul, a DX12 felé való gyorsabb elmozdulásnak anyagi okai vannak - ebből nekem az következik, hogy a következő 6-12 hónapban érkező címek nagy része ezeknek az anyagi előnyöknek a realizálására lesz kihegyezve, nem pedig a DX12-es innovációra. Additional benefitként pedig bejön a CPU-limitáció erős mérséklődése.
A másodikkal biztosan nyer az AMD - nem teljesítményelőnyre fog szert tenni, hanem a jelenlegi esetenkénti teljesítményhátrány fog "elveszni".
A RRC vajon fog differenciáni az architektúrák között? -
Nem csak a ref, hanem a korai custom változatok is. Gondolom visszaütött az árazás. De ezzel nem volt gond, mert itt volt a vásárlónak valódi választási lehetősége (olcsó + igénytelen vs drágább + minőségi) - a 4870-nél ez meg is maradt, a 4850-et viszont "elb***ta" az nVidia. Aztán a GTS250, bár ugyanazt a GPU-t tartalmazta, termékként sokkal igénytelenebb lett.
(#7655) Abu85: ennyi kicsire az MS-en kívül senki sem számít. Sőt, valószínűleg ők se, csak muszáj volt valami ütős számot írni valamelyik slideware-be, aztán valakinek biztos annyira megtetszett odafenn, hogy félhivatalos álláspont lett belőle. Pont mint Hofinál a malacok, csak nagyobbak a szorzók

(#7660) rocket: ez a k**va történelem, csak a baj van vele

Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Samsung Galaxy A80 128GB, Kártyafüggetlen, 1 Év Garanciával
- LG 43NANO763QA 108 cm / 43 4K UHD NanoCell Smart TV 6 hó garancia Házhozszállítás
- Dell UltraSharp U2913WM 2560 1080 monitor + Dell Sound Bar AX510 10W
- Lenovo Thinkpad 13 G2 Intel i3-7100 laptop (hiányos, de működik)
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: BroadBit Hungary Kft.
Város: Budakeszi


![;]](http://cdn.rios.hu/dl/s/v1.gif)
De még mindig kérdés, hogy miért nem hozott gyorsulást az a-c a GCN kártyákról. Volt már szó arról, hogy a driver sorosít, de akkor mitől dőltek be a Maxwellek? 






