Jöjjön... csak jöjjön az DX12
Jó lenne végre elégedett pc felhasználónak lenni,játékokat tekintve.
Az Amd a jövőbe mutat...De amikor az a jövő jelenné válna akkor az a jelen már régen a múlté... :DDD ....Na meg a horpadós ájemdééé
Jöjjön... csak jöjjön az DX12
Jó lenne végre elégedett pc felhasználónak lenni,játékokat tekintve.
Az Amd a jövőbe mutat...De amikor az a jövő jelenné válna akkor az a jelen már régen a múlté... :DDD ....Na meg a horpadós ájemdééé
A screenshotból nem igazán jön át, hogy mire kell ekkora gépigény...
Lehet, hogy csak én vagyok öreg, de szerintem messze nem csak grafikából áll egy játék, ha a többiben elvérzik, akkor lehet bármilyen csili-vili techdemó, nem fog túlzottan érdekelni.
/mondjuk nem mintha annyi időm lenne manapság játékokra... idén még szerintem nem is játszottam számítógépes játékkal
Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/
Nagy szavak ezek.
Vissza kell vinnem pár kazettát.
Meg is válaszoltad magadnak.
A gépigény sem csak a látványos grafikából áll.
Amúgy attól félek, lesz majd itt sok leégett VGA (a hűtésük nem ekkora terhelésre lett kitalálva),
vagy esni fog a teljesítmény, ha van önvédelem a kártyában, amikor visszavesz.
Még, hogy nem láttunk ilyet korábban...
Supreme Commander másolat kb. egy az egyben. Még az egységek is hasonló stílusúak
Egyébként ez az ürge sem tud rendesen videót felvenni mobillal.
Biztos még nem látta azt a videót: [link]
[ Szerkesztve ]
''The spice exists on only one planet in the entire universe. A desolate, dry planet with vast deserts. The planet is Arrakis, also known as DUNE.''
Igen, a furmark miatt külön profilozták a drivert hogy ne égjenek le a kártyák, most akkor majd minden külön játékhoz kell majd profil, azaz vissza fog esni a teljesítmény. Persze ami kártyákhoz nincs csak legacy driver, ami frissül kétévente, azok majd.. füstölnek.
És persze vga drivert nem mindenki frissít helyből (jó okkal sokszor) tehát új vga is füstölni fog...
Gondolom miután leégett vagy 5000 kártya, berakják az automatikus profilfrissítést a driverekbe... persze azt a drivert előbb fel is kell majd tenni
Tehát kezdődik az magyarázkodás, hogy miért nem lesz akkora sebességnövekedés az új DX/Mantléval. Szép. Lassan már nem is lesz előnye, ha így haladunk. Nekem elég annyi hogy ne lehessen élsimítást kapcsolni...ami sanszos, hiszen akkor "driverből" már nem lehet állítani.
A 90%-ban kihajtott gpu-t mennyire limitalja vajon a memoria szavszelessege? Alig megy felgozzel, mert mindig adatra var?
Pont az lesz a lényege az új API-knak, hogy nem driver vezérli majd a dolgokat nagyrészt. Így a program lesz felelős az ilyesmiért. Vagy tévedek?
https://utdetailing.hu/
"Tesztgépben dolgozó AMD Radeon R9 290X 90%-ot megközelítő kihasználást produkál, ami az aktuális hardverek esetében a legjobbnak számít, nem véletlenül demonstrálták ezzel a programot"
Természetesen ez csak Abu kitalációja, sehol egyik sajtó sem hozott le ilyet.
[ Szerkesztve ]
A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.
Kezdem érteni, hogy miért lesz vízhűtés az új Raedonon Az utóbbi években csökkent a procik és a VGA-k fogyasztása, és ezzel a hűtések is egyszerűbbekké váltak. Ebben nagy szerepe lehetett annak, hogy nem voltak a hardverek eléggé kihasználva. De most fordul a kocka
Nem szerencses megfogalmazas. A kozolt utilization a test scene terhelese. A problema complexebb. A scene complexity kerdeskent merult fel. A test scene terheles nem eros, egy R9-290X elviseli, am nagyobb scene tobb terheles, akar 100k batch es 900k particles, szerintuk. A GPU utilization ekkor esik. Keves lesz a memory bandwidth. Elkepzelheto olyan szamokat mondtak.
epp amdn fut a legjobban, es epp memsavszel hianyos, es epp a kov generacios amdn erre gyurnak - veletlen egybeeses?
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
Probaltam mar async terhelest. D3D12 Compute, DMA. Nem lettek forrobbak a GPUk. Hangosak lettek. Csokkent a core clock is.
Azóta csak raktak a gyártók a chip-be valami hardveres védelmet is.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
Async fine-grain computetal hiheto. Sajat tesztjeimben is Hawaii a legjobb. Sok gyors cache, sok register, gyors data path, sok compute queue.
Senki nem mondta, hogy véletlen. Épp ellenkezőleg. Szerintem az első tudatos és logikus fejlesztés(együttes) az utóbbi években.
- A GCN-t masszív párhuzamos compute-ra (is) tervezték. Nincs megnyirbálva, se a sávszélesség se egyéb feature-ők. A "rossz" fogyasztás/teljesítmény mutató is ebből ered. (Utóbbi mondjuk ilyen kihasználtságnövekedés mellett azért javulni fog erősen)
- A fejlesztés végre kihasználja a fenti előnyöket.
- A sávszélesség meg limitáció lesz... erre jön a következő logikus válasz az új fejlesztéssel.
Így kéne mindent fejleszteni, kár, hogy 10 éve kihasználatlan sz*rok és egy helyben toporgás van csak ehelyett.
Én arra lennék kíváncsi, ha sávszélesség kell és a kihasználtság is ennyire megugrik akkor DX12 alatt ebben egy 970, vagy 960 Maxwell hogy domborítana. Mi lesz a új teljesítmény/fogyasztás arány?
Ha 90% akkor nagyon nem limitálhatja. Persze kérdés, hogy mennyire esik be az a 90%. Vagyis max vagy mondjuk átlag.
Uristen mire nem jonnek ezek ra? Mindjart felfedezik, hogy ha kikapcsoljak a monitort, akkor fekete lesz a kepernyo, meg a harmas ikrek harman vannak...
[ Szerkesztve ]
Nincs semmi rendkívüli vagy véletlen ebben. Végre arra használnak valamit amire kéne.
El vagyunk tőle szokva.
Persze egy fecske nem csinál nyarat.
Igazabol ujat akartam irni, nem neked valaszt, bocsi.
De nem tudom mi az ujdonsag ebben az egeszben. Egyertelmu volt hogy a mem savszel mostan rossz shader kihasznalas mellett is kb. hataron van, nvidia a 256 bithez ujfajta, jobb tomoritest kellett, hogy fejlesszen. Tehat ha no a shaderek kihasznalhatosaga, akkor adatra lesz szukseguk. Evidens.
Szórol szóra ezt akartam én is írni!
Micsoda véletlen!
Tévedni emberi dolog, de állati kellemetlen.
Nnekem is a HBM ugrott be először erre a cikkre, nem véletlen a következő gen radeonoknál a memsávszél növelés
Ahogy az MS előadásán le lett írva a probléma az egész a nagyon jelenet komplexitáshoz köthető. Átlagos jelenetben nagyjából megvan a 90% a tesztgépen, de ha nő a komplexitás, akkor ez visszaesik. Elképzelhető olyan komplex jelenet ahol negyvenezer batch van, több mint negyedmillió látható részecskével. Ahogy növekszik az egész, úgy jönnek elő a limitek. Valamelyik GPU-n hamarabb, valamelyiken később. Nagyobb pályákon egyébként simán lehet százezer batch, több mint egymillió látható részecskével, ehhez nem elég jók a mai sávszél értékek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
És hol van az megszabva, hogy Abu nem teheti hozzá a saját véleményét és csak fordíthatja a külföldi híreket?!
[ Szerkesztve ]
https://www.coreinfinity.tech
Sehol, de akkor vélemény lenne a hír/cikk. Ezek információk a GDC-ről.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Annyit azért nem tettél hozzá, hogy vélemény legyen - szvsz.
https://www.coreinfinity.tech
A vélemény mindig szerény.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Az a baj hogy sehol nem hangzott el, amit Abu az általam kiemelt részben állít. Lehet megvolt az oka, hogy az adott kártyát használták, de nem lett indokolva sehol, és amit Abu írt csak találgatás, vagy vélemény, nevezzük akárhogy, de ő tényként közölte. És ez nem fedi a valóságot. Egyik gyártó termékét a másikkal szemben pozitívan állítja be. Hazudik.
Gondolom forrás nincs.
Abu: Az se baj ha hamis, mi?
[ Szerkesztve ]
A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.
Elmondom, hogy ez a Microsoft standján volt kiállítva, mellette volt egy röpke előadás is a Stardockkal. A GDC-ről így szerzem az adatokat. Kb. állandóan három emberrel vagyok kapcsolatban, akik beülnek az előadásokba és kérdezgetnek, ha van mit.
Azt is elmondom miért használták azt a kártyát. Egyrészt kell a sávszél, amiből van 320 GB/s-ja. Másrészt az aszinkron compute hatékony működéséhez stateless compute-ot támogató hardverre van szükségük, ami azt jelenti, hogy a compute nem csak más compute feladat mellett futhat, hanem akármilyen grafikai feladat mellett. A GCN architektúra jelenleg az egyetlen stateless compute-ot támogató rendszer a piacon. Abban a motorban, amit ők írtak a GCN működik jól.
A két aszinkron DX12-es funkcióról holnap írok, mert van róluk egy zárt előadás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Én meg elmondom, hogy azért használtak amd karit, mert amd támogatott játék.
[link] Meg lehet nézni a logót a lap alján.
A többi kamu. Ha meg nem az, nem kellett volna elrúgnod a pöttyöst, és akkor talán...
[ Szerkesztve ]
A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.
"..míg a leképzett grafikát egy AMD Radeon R9 290X biztosította.
Annyit sikerült megtudnunk, hogy olyan mértékben használják ki a hardvereket, amire még játékban nem volt példa. Többek között a VGA-k ventilátorai visítanak az Ashes of the Singularity futtatása közben.."
Én meg a nevetéstől visítottam amikor ezt elolvastam.
Play nice!
v_peter2012: nvidiának DX12 Tier3 szintű GPUja, így nehéz lenne rajta bármit is bemutatni.
Amióta a Nitrous ötlete megszületett azóta az AMD partnere ennek a kezdeményezésnek. Nyilván vezető szerepük volt abban, hogy ez a motor ma ilyen képességeket tud.
És igen nincsenek véletlenek, messze az AMD-nek kedvez a legjobban az, ha a mai játékok letérnek a pipeline-ok soros végrehajtásának ösvényéről, és a fejlesztők elkezdenék a compute és grafika pipeline-ok átlapolását. Egyszerűen erre tervezték a GCN-t, nem a soros végrehajtásra.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Aha, és nyilván a recover funkciót is beleírják a játékba ugye? Tehát amikor mondjuk túlhajtás miatt megszakad a kapcsolat a vga-val, majd minden egyes játék hozzáír egy rutint hogy ezt kezelje le, azaz resetelje a kártya órajeleit igaz?
Szerintem alapvető és védelmi funkciók megmaradnak a driverben, legalábbis ez lenne logikus. Nehogy már egy Indie játéktól függjön le fog-e égni egy kártya vagy sem
Mondjuk ebben igazad van, de a fejlesztők kezében nagyobb kontroll lesz, egy-egy architektúrára megírva, így szerintem simán megsüthetik ők is a kártyát. Bár nem kizárt, hogy ahogy írtad is a driver leállítja az egész történetet. (mindannyiunk kedvence, "driver has stopped responding and has recovered" üzenet )
https://utdetailing.hu/
Továbbra sem értem a rugózást a témán.
Mást kellett volna használniuk? Vagy másra optimalizálni? Vagy tök mást csinálniuk?
Mondjuk AMD támogatással Intel IGP mellett tejbegrízt főzni?
Vagy mi nem áll össze azon a képen, hogy olyan progit írnak ami adott hw-n jól megy... mert a hw-t is adott típusú programozásra fejlesztették. Plussz az api-t is. Kerek egész történet.
[ Szerkesztve ]
A kártya védelmeitől függ, hogy leég-e. Manapság nem valószínű.
Recovery helyett pedig jön a kékhalál. Ez az ára az alacsony szintű hozzáférésnek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Recovery helyett pedig jön a kékhalál. Ez az ára az alacsony szintű hozzáférésnek.
eeeeeegen. arra kíváncsi leszek, hogy ezt az árat hányan lesznek hajlandóak megfizetni - nem duma szintjén, hanem amikor szembesülnek vele, hogy a szokásos AAA launch minőség sorozatosan restartokat generál. aki csak játékra használja a gépet, annak talán nem olyan nagy gáz, de aki másra is...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Azért a Mantle játékok sem döntötték be a rendszert. Volt, hogy BF4-el teszteltem a tuningot, és ugyanúgy csak a játék omlott össze, meg kiírt egy hibaüzenetet.
Bezzeg mikor anno úgy 1.5 éve meg mertem kérdezni, hogy a mantle majd hogyan szedi elő (az akkor még szintén csak elméleti) világmegváltó plusz teljesítményt a GCN-ből, ami már eleve forró és hangos volt, akkor csak a maszatolás ment, meg a nagy hallgatás...
Most tessék itt van, többet hoz ki belőle, de 100%-os ventivel visít 90 fokon majd... tegye fel a kezét, aki így képzelte el a 290x "jövőbemutató" időtállóságát?
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
Na az oromteli lesz. En alapbol 2-3 havonta inditom ujra a gepet....
(#42) Locutus: Egy jol klimazott helyen azert le lehet nyomni 80...85 fokra.
[ Szerkesztve ]
Aham, ez aztán életszerű Tegye fel a kezét az a 290x tulaj, aki majd játék közben azért csücsül a 18 fokban, hogy VGA csak 80 fokon üvöltsön 3000RPM-en, és ne 90-en
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
Szerintem az is eleg, ha berakod a fagyasztoladaba fel kobmeter mirelit aru melle
De viccet felreteve: En mar gondoltam arra, hogy a szoba klimajanak a kifuvo nyilasa ele rakom a gepet es akkor nem a 4 fokos levego jon ram kozvetlen, a gep meg jobban erzi magat.
[ Szerkesztve ]
Továbbra is fogod ontani ezt a hülyeséget magadból vagy így 1.5 évvel a kiadás után felfogod hogy csak a ref kártya volt hangos és meleg?
[ Szerkesztve ]
viszont nem mindenki DICE. amúgy nem is a tuningtól lesz kék halál elsősorban (ezek a problémák vszleg driver szinten kezelhetők maradnak), hanem attól, ha a program rossz helyre nyúl a memóriában.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Nekem a 7970 OC húzva órákon keresztül bírja a voxeles planet explorer alatt, pedig ott semmi csilli villi dx12, meg egyéb uj eljárások nincsenek, de a vga full 99% on van hajtva és a hangján is hallani hogy, nagyon dolgoztatja a program. Szerintem egy jól szellöző gépházban nem lesz probléma a jövőben sem.
Én is azt hittem, hogy 2x kihasználtsággal majd termelni fogja az áramot és passzívan fog menni.
Meg kicsit világbékében is bíztam, hogy eljön a Mantle-el.
A 290 szerintem is egy kályha az amd fanok véleménye ellenére is. A Maxwellhez képest főleg. De ha több kraft jön ki belőle akkor ez érthető is. Én pl. mindig a 120W körüli vga-kat célzom meg, ezt kényelmes hűteni és még elfogadható a teljesítménye is általában. De quad SLI teljesítményt nem is várok tőle.
Nincs ingyenebéd.
Hír A Stardock szerint a memória-sávszélesség limitálja a VGA-kat