Hirdetés

2024. április 26., péntek

Gyorskeresés

Hozzászólások

(#1) -Solt-


-Solt-
veterán

A Microsoft valószínűleg azért döntött az apróbb szigorítás mellett, hogy a gyártókat az AMD GCN architektúrája hasonló hardverek kifejlesztésére sarkallja, annak érdekében, hogy a fejlesztők egyre több grafikai és compute futószalagot futtathassanak párhuzamosan.

Nem értek egyet a cikk címével... szerintem ez jó irány! :))

www.smart-bus.hu

(#2) CybonTom válasza -Solt- (#1) üzenetére


CybonTom
tag

Abu, ez miért nem jó irány? Értem én, hogy a mostani hardverek közül pár hoppon marad, de hosszú távon csak jót tesz a piacnak, ha rá vannak kényszerítve a fejlődésre/fejlesztésre... szóval egyet értek Solt-al.

[ Szerkesztve ]

(#3) Riddick77


Riddick77
tag

Rossz a cím. A Microsoft csak szigorítson az új AMD APU-k javára,mert így akkor az XONE is jobban tud gyorsulni. Ha,meg valamit fejleszteni akarunk,akkor csak a jobb felé haladjunk,ne a butább felé. :)

KL

(#4) Tigerclaw


Tigerclaw
nagyúr

Szerintem mire jön a DX12, meg az azt támogató játékok, ez már nem lesz akkora probléma, mert cserélik a játékosok a vasat pár évente. Én mondjuk nem de amivel játszok talán még mindig csak a DX9-et támogatja. Hiába jött/jön a DX10-11-12, ha sok fejlesztő nem tud vagy nem akar arra átállni. Ráadásul a sok playert vonzó MMO-k esetén nagyon ritkán cserélnek motort...amik gyakran a múltban ragadnak a technológiát tekintve.

Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.

(#5) Petyyyyy


Petyyyyy
addikt

Innen kicsit úgy tűnik, hogy valahányszor DX12-vel kapcsolatos hír lát napvilágot, annyiszor csapnak az nVidia fájának törzsébe egyet a fejszével és tesznek fel egy díszt az AMD fájára.
Nem fáj a dolog, sőt kifejezetten megnyugtató, hogy hw csere nélkül megkapunk szinte minden fícsört, csak már kezd kényelmetlenné válni a kiegyenlítetlenség.

[ Szerkesztve ]

Szemed az úton, pedál a padlón || Whatever, Im the star

(#6) Abu85 válasza CybonTom (#2) üzenetére


Abu85
HÁZIGAZDA

Mert igazából a módosítással csak annyi történt, hogy pár eddig jó hardvert kizártak. Előnye viszont igazából nincs. A GCN a korábbi modellben is stateless volt. Ugyanazt meg lehetett csinálni vele, mint amit most meg lehet. Effektíve csak becsukták az ajtót pár architektúra előtt. Persze lehet, hogy ezekre eleve nem jött volna támogatás, de az ajtó nyitva volt.
A másik gond, hogy könnyen lehet azt mondani, hogy másolják le a GCN-t a konkurensek. Csak a konkurensek nem azért élnek együtt a limitációkkal, mert az olyan jó dolog, hanem azért, mert olyan hardvert csinálni, mint a GCN piszok nehéz. Ebbe a szoftveres emberek nem gondolnak bele.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#7) Reggie0 válasza Abu85 (#6) üzenetére


Reggie0
félisten

Sot, tovabbmegyek: a piac ugyis a stateless fele iranyitotta volna a resztvevoket, mert azon nagyobb/egyenletesebb compute teljesitmenyre van lehetoseg, szemben azzal, ha csak meghatarozott allapotokban futhat.

[ Szerkesztve ]

(#8) Hiftu válasza -Solt- (#1) üzenetére


Hiftu
senior tag

A vásárlóknak részéről rossz irány -> új hardvert kell venni.
Az nVidia régi és az Intel összes termékének rossz -> még gyengébb hatásfokkal sem supportálhatnak egy funkciót. Ha szeretnék akkor sem.

A szoftverfejlesztőknek jó, mert várhatóan kicsit homogenizálja a piacon lévő hardverek tudását.

Tessék mondani, lehet itt hazudni? - Kaszt: Decker, Faj: Troll, Működési Terület: Prohardver

(#9) Abu85 válasza Reggie0 (#7) üzenetére


Abu85
HÁZIGAZDA

Ez meg a másik. A stateless tempóban előny, tehát ha valaki komolyan gondolja, akkor úgyis elmegy ebbe az irányba. És ez az eredeti koncepcióval is pont úgy jó, mint a mostanival.

Amúgy tudni kellene, hogy mi volt a háttérben, hogy az NV és az Intel mennyire tervezte az aszinkron compute támogatását. Az Intel a GDC-n azt mondta, hogy semennyire, mert bár technikailag működik, de a többi architektúrával ellentétben a Gen8 lassul tőle. Az NV gondolom a Maxwell V2-re tervezte. Elképzelhető, hogy a többire már nem, tehát effektíve az sem kizárt, hogy egy olyan ajtót csukott be az MS, amin eleve nem léptek volna be az említett architektúrák.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#10) Duree válasza -Solt- (#1) üzenetére


Duree
veterán

Szerintem is ez a jó irány.

duree54

(#11) Riddick77 válasza Abu85 (#6) üzenetére


Riddick77
tag

Olyan hardvert is nehéz gyártani,mint az INTEL új CPU-i,mégsem érdekelt senkit,hogy a konkurencia nem ér fel hozzá. Mindig a jobb terméket érdemes venni,márka függetlenül. Igen,meglehet,hogy a mostani generációs GPU-k közül pár nem fogja normálisan támogatni az új DX 12 minden újítását,de akkor majd tervezzenek olyat,ami fogja! Mint a konzolokon,mikor nem tudja normálisan futtatni az előző generáció játékait. Ha,ez az ára,hogy hosszú távon jobb legyen a végeredmény,akkor simán megéri. ;)

KL

(#12) lenox válasza Tigerclaw (#4) üzenetére


lenox
veterán

amik gyakran a múltban ragadnak a technológiát tekintve.

Nem a multban, hanem a valosagban. A valosagban sok regi hardware van a usereknel, azon kell futnia a szoftvereknek. Jo lesz biztos a DX12, de minel tobb dologgal szurik a user baset, annal lassabban fog terjedni. Persze az uj hw vasarlasat meg gyorsitja.

(#13) CybonTom válasza Abu85 (#6) üzenetére


CybonTom
tag

Igen, nem könnyű ilyet csinálni az biztos, viszont ennek egy szabványos api-nál nem feltétlenül kell meghatározó érvnek lennie, főleg úgy, ha te magad is azt mondod, hogy a stateless felé tolja a piac a fejlesztőket amúgy is... szóval én ebben nem érzem a nagy gondot, inkább azt, hogy a kivételesen az MS megpróbált a piacra hangolódva csinálni egy limitációt és nem annyira óvatosan hátsóba billenteni a fejlesztőket abba az irányba amerre elvárják tőle. Egyébként, ha még az is benne van a pakliban amit írtál, hogy az NV és az Intel amúgysem támogatta volna ezt a részt azokkal a hw-kkel, akkor meg még csak gond sincs belőle a részükről.

(#14) Tigerclaw


Tigerclaw
nagyúr

Az Intel-t tekintve ez szerintem nem oszt nem szoroz, mert nincs senki aki azt várná el, hogy majd DX12-es címekkel játszik majd Intel APU-n.

Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.

(#15) Petyyyyy válasza Tigerclaw (#14) üzenetére


Petyyyyy
addikt

Azért ezt így nem mondanám biztosan. Nem csak Thief kategóriás játékok jöhetnek szóba. APU-s gépen is játszható pl. egy jó kis stratégia egy mmorpg akár.

Szemed az úton, pedál a padlón || Whatever, Im the star

(#16) duc válasza Petyyyyy (#5) üzenetére


duc
aktív tag

Picikét várjunk már azzal a kényelmetlenséggel, lássuk először a gyakorlatban. ;)

[ Szerkesztve ]

üdvöske, redmondi óriás, tetszetős, rendre, légkavaró, akár, megoldás, kicsike, ipar.

(#17) Cifu


Cifu
nagyúr

Nekem olybá tűnik, hogy a DX12 is olyan lesz, mint anno pl. a PS2.0 megjelenése. Tök jó dolog, de mivel a hardverek egy jelentős részét kizárja a használata, így a programozóknak vagy kell külön támogatnia a régi és az új eljárásokat (így extra munkát jelentve), vagy inkább lemondanak az új technológia használatáról, cserébe a régi hardverek támogatásáért...

Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

(#18) velizare válasza Tigerclaw (#14) üzenetére


velizare
nagyúr

azért elindulhatni még elindulhatna. aztán majd én eldöntöm, megfelel-e az a minőség, amit nyújtani képes.

Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.

(#19) pkornel válasza velizare (#18) üzenetére


pkornel
aktív tag

Ennyi szenvedést a Dx12vel. Csak nehogy a végén a többi API járjon jól mert inkább azokat részesítik elönyben :)

[ Szerkesztve ]

(#20) eight


eight
senior tag

Pár hete még és is össze-vissza klikkelgettem a DirectX Caps Viewerben, de aztán kezdett ez a egész dx12 mizéria fárasztóvá válni a számomra. Az MS-nek az az érdeke hogy az xbox, PC-n meg a win10 és a dx12 legyen sikeres, az AMD-nek meg az hogy a GCN meg az APUi, szóval összefogtak és ezt az egészet meg megint mi PC-sek fogjuk megszívni, mert a procik IPC-je még annyira sem fog számítani mint eddig. Egyrészt mert majdnem minden játékot konzolokra is fejleszteni fognak, és már a Jaguár magok is elegek lesznek hozzájuk bőven, másrészt meg az új API is csökkenteni fogja a CPU terhelését. Szóval szvsz értelmetlen azon izgulni mi lesz majd támogatva és mi nem, mert ha valamit esetleg nem tud hardverből a (pl.) a Kepler vagy a Maxwell-1(stb.) - mert az MS úgy döntött, - akkor azt majd az Nvidia megcsinálja szépen driverből vagy shaderből. A procinak úgyis lesz elég "szabad" ideje, és ezek a "feature level" driver dolgok igazán nem kívánnak sokat, pláne akkor nem, ha majd minden még inkább GPU limitáltabb lesz mint eddig, azaz totálisan.

Hát ez lett volna az én két centem a témához :)

(#21) #06658560 válasza eight (#20) üzenetére


#06658560
törölt tag

" mert az MS úgy döntött, - akkor azt majd az Nvidia megcsinálja szépen driverből vagy shaderből. "

Apró probléma, hogy low Level API esetén a programozónak kell írnia a programhoz a drivert, nem a hardvergyártónak a hardverhez.

(#22) velizare válasza #06658560 (#21) üzenetére


velizare
nagyúr

majd kiadják rá a gameworks 2.0-t, és újra lehet driver/effekt köré írni a motort.

Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.

(#23) eight válasza #06658560 (#21) üzenetére


eight
senior tag

Szerintem nem mert DX12-es kártyákról beszélünk (tehát Fermitől felfele), csak a "feature level" kölönbségek vannak, azaz van ami hardver, és van ami szoftver (emulált) "feature" lesz, de mindkettő eset driver szinten elintézhető.

[ Szerkesztve ]

(#24) gbors


gbors
nagyúr

No, ez egy jó nagy marhaság. Amúgy sem lesz könnyű szülés a DX12, és a rohadt sok draw callon túl amúgy sem egyértelműek az előnyök felhasználói szemmel - most egy csomó kártyától elveszik a kevés maradék valódi előny egyikét. Zseniális.
Persze, az MS leszarja, hogy a Kepler / GM107 tulajok váltanak-e Win10-re ;]

[ Szerkesztve ]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#25) Duck663 válasza eight (#20) üzenetére


Duck663
őstag

Csökken a CPU-k terhelése valóban, de meg nem szűnik,

Itt egy teszt a 3DMark új tesztjéről. [link] Több CPU és több GPU-val, és elég jól látható, hogy kell bizony a CPU is. Az előny csak az lesz, hogy 8-10-12 vagy akár sokkal több mag és/vagy szál is kihasználható lesz. Ebben meg nem azért, de megint mintha az Intel lenne kicsit előbbre.

Az nv-nek meg talán idejében el kellett volna kezdenie fejleszteni!

[ Szerkesztve ]

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#26) eight válasza Duck663 (#25) üzenetére


eight
senior tag

Egyrészt az egy api overhead(!) teszt, másrészt meg szintetikus (ráadásul szvsz buggos is, legalább is minimum kérdéses mikor mekkora framebufferrel dolgozik) (elnézést hogy nem tudom mindennek a magyar megfelelőjét, kicsit szégyellem mert nagyon szeretem a nyelvünket, de nem szoktam lefordítgatni ezeket, és talán nem is szükséges egy szakmai oldalon).

Ha tippelnem kéne, akkor a dx12 kb. olyasmi lesz játékokban mint a bf4+mantle volt (persze azért jobb/erősebb hatású mivel a fejlesztői technikák is fejlődnek meg már eleve úgy fogják felépíteni), azaz APUknál meg Xbone szintű PC-knél segíteni fog sokat, de amint felmész "high"-ba vagy "ultra"-ba (és ugyebár a PC-t szerető embereknek nem kell elmagyaráznom miért is szeretjük mi aztatot olyan nagyon :)) ) ott már kb. csak az fog számítani hogy mit bír a GPU.

[ Szerkesztve ]

(#27) v_peter2012


v_peter2012
csendes tag

Nyugi gyerekek, ismét hatalmas ferdítés van a dologban. A microsoft semmi ilyesmit nem mondott, Abu egy mai AMD marketing nyilatkozatot tálalt félrevezető módon.

[link]

[link]

[link]

Illetve Abu tudod linkelni a microsoft-os forrást?

[ Szerkesztve ]

A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.

(#28) Abu85 válasza v_peter2012 (#27) üzenetére


Abu85
HÁZIGAZDA

Az AMD-nek az NDA-s anyagához ennek semmi köze. Az egy külön cikket kapott. [link]
Ez a módosítás a development logból származik, ahogy például ezt a módosítást is onnan vettem. [link]

Ha szerzel developer hozzáférést a Microsoftnál, akkor eléred a development logot. Ott megtalálod az early specifikációkat, annak a későbbi provisional specifikációkhoz meghirdetett részeit, illetve a módosításokat.

(#29) v_peter2012: Minden DX12-ről szóló cikkben benne volt, hogy ezek nem végleges specifikációk, és a Microsoft fenntartja a jogot, hogy módosítással éljen, ezekről a módosításokról írtam a legutóbb két hírt.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#29) v_peter2012 válasza Abu85 (#28) üzenetére


v_peter2012
csendes tag

Szóval semmi hivatalos, csak találgatás. Lesz cikk akkor is, ha mégse így lesz, vagy maradjon csak meg az emberek fejében hogy rossz, csúnya nvidia.

A heti fizetett hirdetést láttuk akkor csak. Oké.

[ Szerkesztve ]

A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.

(#30) stratova válasza gbors (#24) üzenetére


stratova
veterán

Itt tényleg "legfeljebb" a felhasználók faraghatnak rá, mivel mindhárom gyártó készül aszinkron compute képességű GPU-val (ha nem is feltétlenül a teljes termékpalettát lefedve):

AMD - GCN
Intel - Gen9 - Skylake-U / Skylake-S (15-65 W) elvileg 2015 Q3
Nvidia - Maxwell v2 GM206, GM204, GM200

v_peter2012: megértem, ha zavar Abu látásmódja, de ebben a cikkben egészen pontosan, hol került előtérbe, hogy csúnya Nvidia? Mindhárom gyártónál vannak GPU-k amik kiesnek ebből a körből:
AMD: Llano/Trinity/Richland APU-k
Nvidia: Pre-Maxwell v2 GPU-k
Intel: Gen9 előtti GPU-k (Hasswell, Broadwell, Braswell és régebbiek)

Ez a cikk nem az Nvidiát állítja, be "szemétnek", hanem a Microsoftot, ha a te megközelítésedet nézzük.

[ Szerkesztve ]

(#31) Duck663 válasza eight (#26) üzenetére


Duck663
őstag

Igen ez egy API Overhead teszt, de nem ez a lényeg, hanem a tesztben 6 CPU-t használnak, igen eltérőeket, és láthatod, hogy igenis számít és számítani fog a CPU teljesítménye. Jó ok, ez egy szintetikus teszt, de ott lehet legjobban kimutatni ezt.

A felhasználok nagy százaléka még a felbontást sem állítja be.

Az hogy felmész ultrára manapság csak annyit jelent, hogy kifekszik a GPU-d, de általában már egy közepes beállítás mellett is elérhető közel az a vizuális élmény, egyszerűen azért, mert mesterségesen vannak feltornázva a gépigények. Ráadásul a felhasználók vagy 2/3-a nem lát különbséget a PS4-es és a PC-s ultra között... nem csoda hogy a felhasználók elfordulnak a PC-től.

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#32) schawo válasza Duck663 (#31) üzenetére


schawo
titán

Nem. Azt látod, hogy az API overheadje egy jobb CPU-nak kisebb. Csakhogy ha a rajzolási parancsok száma a GPU egyéb terhelése miatt amúgy sem éri el a limitet, akkor nem kevés az adott CPU. Márpedig az óriási overheades DX11-ben eddig is általában GPU limit volt, tehát belefért a kért rajzolások száma a limitbe. Most, hogy a limit az égbe emelkedett, nem történik semmi csak még kevesebb CPU fog limiten futni. Ennyi. Nem kell ebbe túl sokat belelátni. Nem fognak a DX12 játékok hirtelen 4-8-16x nagyobb fps-t produkálni egy csapásra. Aki ilyenekkel álmodik, annak kellemetlen lesz az ébredés.

[ Szerkesztve ]

evDirect villanyautós töltőhálózat

(#33) Tyrel válasza v_peter2012 (#29) üzenetére


Tyrel
őstag

Ha valami egyértelműen korszerűbb és gyorsabb, és ezt Abu le meri írni akkor miért ő a fizetett reklám ember? Nem egy rossz dolgot próbál jóként eladni. :F Hosszú-hosszú évek óta folyamatosan, minden DirectX generációváltásnál ez ment: az nVidia nem volt hajlandó kellően korszerű GPU architektúrákkal előállni, aminek köszönhetően az új DirectX feature-ök csak évekkel később kezdtek megjelenni a játékokban, ha egyáltalán valaha is megjelentek...

nVidia most is ennek a stratégiájának köszönheti a helyzetét és ha végre egyszer ők fogják megszívni miatta, nem mi játékosok, azt bizony megérdemlik... ha már mindenképp akasztunk valakit, az ne a hírhozó legyen. :(((

[ Szerkesztve ]

Turenkarn

(#34) Duck663 válasza schawo (#32) üzenetére


Duck663
őstag

Igen ám, de épp az aszinkron compute miatt nehezebb lesz elérni a GPU limitet is.

Ismét egy teszt, BF Hardline: [link] ahogy folyamatosan növelik a CPU órajelét úgy nő folyamatosan a GPU teljesítménye, tehát korántsem beszélhetünk csak GPU limitről.

Ez az egész arról szól, hogy a lehető legtöbb limitáló tényezőt próbálják kiiktatni. A több magos processzorok mindegyik magját játékok alatt munkára fogni, a GPU-kban rejlő tartalékokat kiaknázni.

Nem várom én, hogy sokszoros legyen a teljesítményt, inkább kiegyensúlyozottságot várok...

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

(#35) eight válasza Duck663 (#31) üzenetére


eight
senior tag

schawo fórumtárs már elmondta mit értettél félre (amit köszönök szépen), szóval nem fogom én is leírni még egyszer.
Az ultra vs medium vitára meg csak annyit mondanék, hogy én sem ma kezdtem és emlékszem még azokra az időkre, amikor a 640x480-as felbontástól meg a 16k színtől eldobtunk a hajunkat, szóval megy az a különbség észrevétel " a felhasználok nagy százalékának" is, csak esetleg egy kicsit később mint a lelkes (enthusiast) közönségnek :K

szerk.: de a linkelt tesztben az i3 108fps az i7 meg 115:D

[ Szerkesztve ]

(#36) schawo válasza Duck663 (#34) üzenetére


schawo
titán

Ugye megvan, hogy egy Titan X tesztjét látod. Majd ha Titan X méretű problémám lesz, akkor nem fogok a GPU limiten aggódni. De a tesztben a Titan X-szel sikerült GPU limiten táncolni még sima fullhádén is, hiszen a 4 magos Haswell 2,5GHz és 4,5GHz között (80%-kal emelt órajelen) nyert 6 kemény százalékot.

Az FX nem ér, az nem CPU, az egy vicc. Az persze, hogy limites, de azért 4GHz-től már képes kihajtani a Titan X-et is.

A Titan X sem árban, sem sem teljesítményben nem egy kategória az FX-szel. Nem normál párosítás, ilyet senki emberfia nem hoz össze éles rendszeren, csak a vicces tesztek kedvéért.

[ Szerkesztve ]

evDirect villanyautós töltőhálózat

(#37) RECSKA válasza Duck663 (#34) üzenetére


RECSKA
veterán

Ez igen. Cpu limit??? 80% cpu ero noveles 7% fps novekedes??? Tudod mi az, hogy limit???

Esz osztod az eszt. Az a kemeny... egy szakmai forumon. Szep ;)

No offensive, de birom, mikor olyan okoskodik, aki... ;)

Nézd meg a hirdetéseim. Finomságok!!!

(#38) Tyrel válasza schawo (#36) üzenetére


Tyrel
őstag

A lényeg pont az a DX12 esetén hogy a linkelt teszten látott TitanX eredményei csak egy bizonyos értelemben GPU limitesek. A DX11 renderelő futószalagjával nem tud ennél több feldogozást végezni azon a GPU-n, de ettől még egy csomó erőforrása marad kihasználatlan, mert nem tud nekik munkát adni - többnyire azért, mert az egyes képkockákon elvégzendő feladatok egymás függőségei így lehetetlenné válik a párhuzamos feldolgozás.

Kicsit úgy képzeld el mint ha lenne egy festőd aki először ceruzával megrajzolja a körvonalat, aztán szépen körbefesti, aztán kiszíneszi a végleges képet, meg egy másik a Marsról akinek 3 keze van meg 6 szeme és full egyszerre csinálja meg ugyan ezt a 3 műveletet, így harmad annyi idő alatt végez. :P

Ez a fajta, feladat-párhuzamosítás lehetetlenségéből eredő GPU limit egy TitanX-nél gyengébb videokártyán nyilván sokkal korábban előjön, így fontosabb is a feloldása. Dióhélyban erre való a DirectX 12.

[ Szerkesztve ]

Turenkarn

(#39) #06658560 válasza Tyrel (#33) üzenetére


#06658560
törölt tag

Nem fizetett reklámember, magától nyomja ész nélkül az AMD marketinget. Ennek rendre bizonyítékát adja a cikkeiben.

(#40) kila25


kila25
csendes tag

Nem vagyok szaki úgyhogy ne kövezzetek meg ha nem így van...

Szerintem a vitátok pusztán csak elméleti, mert mire ebből a gyakorlatban is lesz (kész játékra gondolok) valami, addigra, aki rendesen játszik pc-n már rendelezni fog olyan vassal ami támogatja ezeket a funkciókat, csak a koca játékosok szívják meg esetleg a dolgot, akik úgy vannak vele, hogy nem baj ha kissebb a felbontás, meg közepes a grafika, de fut... Vagy mégsem, mert a cpu limit pont ott jön elő...

Amúgy meg ez csak a kis hazánkban, vagy hasonló helyen élőknek probláma, tőlunk nyugatra nem hiszem, hogy gond lenne kiperkálni évente kb. 400 jóféle jurót, vagy dolcsit, vagy mit egy új vasért..

A másik meg, hogy gondolom (ez pusztán feltevés) az nvidia nem, hülye dx váltáskor mindig le voltak maradva egy lépéssel, és sajnálkoztak, hogy hát ez van de a következő szériát gond nélkül megoldották. Az nvidia fan meg mit csinált??? Megvette a dx váltás előtti szériát, majd mivel ő is akarta az új dolgokat, megvette a következő generációt is... Na ki járt jól? Az AMD meg a -mi szeretjük a gémereket- hozzáállásával már úgy adta ki a kártyáit, hogy dx váltáskor nem kellet a user-nek váltani, de mire mentek vele elestek az eladásoktól + a piaci részesedésük sem nyomta le az nvidiát. Szerintem a zöldek végig röhögtek a markukba :DDD

Ha az AMD viszont elkezdi megszüntetni a gpu limitet is, akkor kivágja maga alatt a GCN-el és konzolokkal maga alá ültetett fát rendesen, mert a procijai el fognak vérezni az intelekkel szemben. Legalább is szerintem mert játékok alatt csak a gpu limit miatt tartották eddig is a lépést.

lásd [link]

(#41) schawo válasza Tyrel (#38) üzenetére


schawo
titán

Én tökéletesen értem, miről szól, még ha nem is ilyen egyszerű, és főleg nem ilyen hatékony. Ugyanis amit te felvázoltál, az nem más mint egy buta szintetikus teszt működése, mint pl. a 3dmark overhead tesztje. Csakhogy a GPU ezer másik műveletet is végez, a kirajzoláson kívül, ami leköti a kezeit. Ha nincs kikevert festék, akkor mindegy, hogy hány kézzel nem rajzol éppen.

evDirect villanyautós töltőhálózat

(#42) lenox válasza Tyrel (#33) üzenetére


lenox
veterán

az nVidia nem volt hajlandó kellően korszerű GPU architektúrákkal előállni

Az nv uzleti vallalkozas, penzt akar keresni, ennek megfeleloen erdemes a korszerut definialni.

(#43) gbors válasza Tyrel (#33) üzenetére


gbors
nagyúr

Szerintem egy kicsit gondold át a tények szintjén is, amit leírtál, ne csak retorikában. Már a sokadik ember vagy, aki ezt a zöldséget szajkózza, hogy az nVidia fogja vissza a fejlődést - alá is tudjátok ezt valamivel támasztani? Az meg, hogy az nVidia architektúrája nem korszerű... inkább nem is mondok semmit.

Emellett a cikkben leírtakkal pont az nVidia nem jár rosszul - a 2-3 éves kártyák lecserélésére tudnak mondani egy újabb érvet. Bennem már az is felmerült, hogy az ő ötletük volt ;]

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#44) rocket válasza gbors (#43) üzenetére


rocket
nagyúr

"Emellett a cikkben leírtakkal pont az nVidia nem jár rosszul - a 2-3 éves kártyák lecserélésére tudnak mondani egy újabb érvet."

Pontosan, ezzel megint az NV jar jol.
A felhasznalok nagy resze nem Radeonra fog valtani, mert a brand erteke a markanak a beka hatsoja alatt van.

Nagyon unalmasak mar ezek az API hirek, lassan minden heten 5 ilyen nesze semmi fogd meg jol cikk van, amiben kiderul a GCN mekkora ultragigacsaszar lesz DX12 alatt, meg az AMD a megvaltoja a PC-s jatektarsadalomnak.
Elmeleti sikon folynak ezek a hirek allandoan, jo lenne mar egyszer latni, hogy az AMD profital valamit a szines grafikonon megalmodtakbol.
Fogadnom kene akkor nagy valoszinuseggel a tortenelem ismetli onmagat, es a konkurencia leaartja a baberokat, sot az se biztos, hogy lesz meg addigra AMD mar formajaban, mert nem gigantikus termekeket fejlesztenek, mint ahogy az egyik PHBlikk cikk cime sugalta nehany napja, gigantikus szot az AMD eseteben a negyedeves uzleti jelenteseknel kell kereni, a veszteseg kategorianal.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#45) sayinpety


sayinpety
tag

Teljesen mindegy van-e fine-grain async task scheduling 2nd gen Kepler es 1st gen Maxwell IPn. 2nd gen Maxwell IPn csak 10%ot nyerek. Ugyanaz a kod R9-290Xen 40%ot gyorsul. Pascal IPt tervezik fine-grain async task schedulingre.

[ Szerkesztve ]

(#46) kila25 válasza rocket (#44) üzenetére


kila25
csendes tag

Hát pedig bizony többet tett az AMD mint bárki. Az nvidia-nak az a lényeg meg legyen a profitja oszt csá, csak ülnek a megszerzett hírnév tetején... A microsoft-ot nem árdekli a pc-s játék neki ott a box... az intel meg nincs mivel beleszóljon.

Nem mellesleg semmi különbség az nvidia és a radeonok között játék alatt... Nekem senki ne mondja hogy a pár fps különbségtől bármelyik gamer falnak rohan, bár melyik gyrtó oldalán legyen is az.

(#47) RECSKA válasza kila25 (#46) üzenetére


RECSKA
veterán

így van, nem teljesítményben van brutális különbség. hanem driver téren ( ez dx12-vel kiesik... )

Én pl imádom a shadowplay-t, amdnél ilyen nem van...

Nézd meg a hirdetéseim. Finomságok!!!

(#48) Reggie0 válasza kila25 (#46) üzenetére


Reggie0
félisten

Miert szerinted AMD-nek mi a lenyeg? Ugyan ugy a profit. Csak annyi a kulonbseg, hogy ok "technologiailag" akartak elhuzni az nvidia mellett, csak eppen a jatekok es a piac nem mentek utanuk a nagy Nvidia tabor miatt, igy az utobbi tudasanak a korlatai lettek meghatarozoak a szoftverek fejlesztesekor es az AMD kartyak kepessegeinek folenyebol nem ervenyesult semmi. Erre fel az Nvidia a piacon levo szoftverek igenyeihez finomhangolta a kartyait, ugy hogy az AMD egy pazarlo kazannak minosult mellette. Nyilvan az optimalizaciot sok ember eszre sem veszi es nem tekinti komoly munkanak, pedig nagyon is az.
Az Nvidia pont annyit tett le technologiailag, mint az AMD, csak a celok voltak a masok. Uzletileg pedig talan most sikerul az AMD-nek bekuzdeni magat a ringbe.

[ Szerkesztve ]

(#49) rocket válasza kila25 (#46) üzenetére


rocket
nagyúr

Nem az a kerdes, hogy tobbet tett vagy nem, hanem, hogy mit profitalt ebbol?
A Vulcan vilagmegvaltasa se egyertelmu, mert az NV alelnoke a Khronos Group elnoke.

Ertem en ido kell az AMD-nek, de fogynak a lehetosegek, nem a jovot kene ilyen melyen fejlesztgetni, hanem profitot szerezni, 28nm-es tobb eves gyartastechnologian keszulo refresh GPU-kkal vannak jelenleg ~6.5 honap hatranyban az NV-hez kepest.

Nagy vilagmegvaltasok mindig elszoktak maradni, mert vannak cegek akik uzleti befolyasolassal eltudjak erni, hogy AAA cimet 2016-ban DX11-re fejlesszenek.

Ezen kivul van a jozan paraszti esz, amikor majd kiderul a Win10-rol, hogy nem terjed ugy ahogy kene, akkor visszafognak nyulni a jatekfejlesztok akik esetleg nem akartak es nem fizettek meg oket ezert a DX11-hez, mert profitot szeretnenek termelni a PC verzioval.

Kulfoldi hardver forumokon ahol van nehany nem kispalyas emberke kozelbe nincs ez a hype az uj API-k irant, mint ami itt megy, tenyleg mar csak mosolyogni lehet ezeken a cikkeken :)

"Nem mellesleg semmi különbség az nvidia és a radeonok között játék alatt... Nekem senki ne mondja hogy a pár fps különbségtől bármelyik gamer falnak rohan, bár melyik gyrtó oldalán legyen is az."

Errol kerdezzel meg par AMD usert mit gondol, de az is eleg ha ranezel a piaci reszsedesre, ami ugye 2014Q4-ben 76-24 volt.

Jo esetben 3 havonta szulnek egy drivert, sok jateknal hetekig sehol sincsenek teljesitmenyben.
A kozelmultbol sajat peldambol a Dying Light-ot tudom kiemelni, 3 hetbe telt amig a fejlesztok csinaltak nemi optimalizaciot (ami ugye az AMD dolga lett volna, hogy megjelenesre megadja a megfelelo supportot a jatekhoz) es azota se lett olyan, mint a konkurens kartyakon a megjelenes napjatol.

[ Szerkesztve ]

"A lower resolution generally means that there can be more quality per pixel."

(#50) Duck663 válasza schawo (#36) üzenetére


Duck663
őstag

Pontosan tudom, hogy mi az amit látok.

A lényeg, hogy mind a GPU-nál mind a CPU-nál keletkeznek limitációk, nem jelenthetjük ki egyértelműen, hogy ez vagy az limites! Csak akkor ha az órajel emelés már nem hoz több mérhető sebességnövekedést.

"Csakhogy ha a rajzolási parancsok száma a GPU egyéb terhelése miatt amúgy sem éri el a limitet" Most nézz meg egy AC játékot! AC3, AC4, Unity

Mi az hogy az FX nem ér? Már miért nem érne? DX 12 alatt azért nem is így fog muzsikálni majd. Itt jön elő az, amire a DX12 részben van, nem csak az egy szálas teljesítmény lesz a döntő, hanem az összteljesítmény is számítani fog és a 8 mag is kihasználásra kerül. Tudtommal nincs olyan DX11-es játék amely 8 magot használna. Az Intelnél a SMT-t is érdemesebb kikapcsolni, mert a legtöbb esetben játékok alatt az sem hoz teljesítményjavulást, de DX12 alatt fog.

(#37) RECSKA: Örülök, hogy eljutottál az i7-4770K-ig, de azért lejjebb is görgethettél volna.:)

Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.