Tegyük hozzá, az sem igazán DX12-re lett tervezve!
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
Tegyük hozzá, az sem igazán DX12-re lett tervezve!
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
hát nem tudom a dobozán ott a dx12 felírat
Nem rossz, de nem is jó, de legalább nem rossz.
Az AMD-n is ott van, és hát az úgy tudom Tire3-ban támogatja, ami jelen pillanatban a teljes támogatás. Szóval lehet, nagyobb igazság lenne az hogy 2/3 Dx 12 támogatással rendelkezik minden Maxwell2-es kártya.
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
Egyik most piacon lévő kártya sem lett DX12-re tervezve. Az egy másik kérdés, hogy a DX12 az egyik mai piacon lévő architektúrához lett tervezve
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Tudtommal a Mantle szolgált a dx12 alapjául, ami kimondottan gcn-re lett tervezve, ezzel nem azt mondom, hogy a dx12 is gcn-re készült, de valószínűleg a Mantle rokonság miatt megy jobb a gcn-nel. Én nem mondtam sehol, hogy bármelyik dx12-re lett tervezve, de van némi alapja annak amit írtam SZERINTEM. Ha tévednék kérlek világosítsatok fel, hogy miben, illetve mekkorát tévedtem.
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
Mert amit az NV évek alatt kioptimalizált driverben, nem tudják egyből hozni a low level programok.
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Te magad is leírtad - előbb volt a GCN, utána a DX12. Azaz nem lehetett a uarch az API-hoz tervezve, csak fordítva.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Azért elég szépen átírták a motorstruktúrát, szóval ez már tekinthető D3D12-es dizájnnak. A pálya viszont nem az. Full statikus tele ugyanolyan fákkal és látható, hogy a rajzolás is kevés.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Azért a víz effekttel a vízesésnél komoly gondok voltak. Nem beszélve a házra ráközelítő kamera szeme láttára a tetősíktól elváló tetőelemek. Hiper gagyi.
Elfelejthetnék már, hogy tőlem 20-25 méterre töltődjenek be a textúrák és addig csak maszat legyen.
We test 15 graphics cards to find the best one for VR
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Az a baj, hogy a SteamVR teszt semmit sem ér, mert egy ősrégi SDK-ra épül, amiben semmi olyan dolog nincs, ami lesz például a játékokban. A gond itt az OpenVR, ami hozzávetőleg egy-másfél évvel van lemaradva az Oculus PC runtime mögött. Emiatt nincsenek olyan dolgok benne, mint TW/ATW/LL, és egy rakás egyéb tényező, amely szükséges ahhoz, hogy a VR jó sebességet adjon jó grafika mellett. Ezért nem az OpenVR-re épít egy csomó ma megjelent játék, mert technikailag képtelenek elérni azt a sebességet, ami szükséges. Persze majdnem egy évtizedes grafikai színvonalra így is jó, de pont ezért lesz előnyben az Oculus, mert ők modern grafikára is képesek.
Ha VR teszt kell, akkor a VRScore és a VRMark a mérvadó.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Kijöttek a VR-szemüvegek postán, lesz prohardveren VR es teszt ?
Mivel Mo nem volt az Oculus előrendelési országok listáján, max akkor ha kölcsönkérik valamelyik ismerőstől/olvasótól, aki külföldön él vagy külföldi ismerős révén rendelte. Szvsz az egyik VR-os magyar YT csatornán hamarabb lesz teszt/review, mint PH-n.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
TheVR csapatnak elvileg két héten belül lesz Oculus, és Vive is. De nekik NV kártyáik vannak, szóval az élmény közel sem lesz olyan, mint amit Te vársz...
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
Csak azt nem értem, hogy az i7-el hogy lehetnek alacsonyabbak a pontszámok, mint az i5-tel? Főleg, hogy még a magonkénti órajele is nagyobb a tesztben szereplő i7-nek.
(#15461) Abu85: Egyszer az életben szeretnék látni egy olyan VGA tesztet, ahol a körülmények mindkét fél kártyáinak ugyanannyira kedvezőek. Vagy ha ez nem valósítható meg ugye mert ez zöld az meg piros, akkor legyen egy teszt az egyik oldal előnyeiről és egy teszt a másikéról, de konkrétumokkal alátámasztva, hogy az ember a saját felhasználási céljához legjobban passzolót választhassa.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
Egyetlen dolog erdekes igazabol, hol ad olyan elmenyt ahol nem fog el szedules hasznalat kozben, illetve adja a kello FPS szamot is.
Ilyen teszt less erdekes, a tobbi a szokasos vakitas.
Az 2 Nano CF-ben eleg jol teljesit toredek aron a konkurenciahoz kepest (359£ darabja a legolcsobb 509£-os 980Ti-hez kepest - OCUK, a kulonbozetbol meg kijon egy VR szemuveg is majdnem )
Minden tesztben ugyanolyanok a körülmények. Ebben is, csak annyira régi a felhasznált runtime, hogy irreleváns, mert a piacra kerülő játékok nem ezt az ezer éves csomagot fogják használni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Egyébként szerintem is Jelen pillanatban VR-hez jónak hangzik két olcsón beszerzett Nanó.
980Tihez képest is és a Fury Duóhoz képest is. Főleg annak hatványában hogy a nyáron érkező kártyákon csak GDDR5 lesz. Lehet Augusztus végén mást fogok gondolni, de most szerintem is ez a Best Buy VR cucc.
Viszont VRből szerintem optimálisabb megvárni amikor Oculus majd valódi 3D kezelőt ad hozzájuk és nem ezt a Xbox konzolt, még akkor is ha azzal együtt majd 800 dollár lesz mert külön szerintem drágább lesz beszerezni.
Azt halottátok hogy A PS4 es VR szemüveget is gondolkoznak rajta hogy kiterjesztik majd PChez is ??? Az egy érdekes helyzetet teremtene.
[ Szerkesztve ]
A ma linkelt teszt alapján egy 970 SLI még jobb választás, csak ugye az nem került bele a tesztbe. Az jóval olcsóbb lennem, még a Nano CF-nél is.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
Miben nyilvánul ez meg? Teljesen más renderer van a DX12-höz, mint a DX11-hez?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
970 SLIvel én nagyon óvatos lennék magas felbontásra.
plusz másik probléma, hogy pár játéknál még mindig nincs multiGPU támogatás, pl Just Cause 3.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
VR nem magas felbontás, és a multiGPU támogatás mindkét oldalon rossz, sőt AMD-nél még talán rosszabb is. Igazából itt most nem is erről volt szó, én azt mondtam, hogy ha már Nano CF szóba jött költséghatékonyság szempontjából, akkor a 970 SLI-t is számításba vehetjük. Persze a Nano CF biztosan jobb, de drágább is jóval.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
Damien addig járt az nVidia nyakára, amíg többet nem mondtak az async compute-ról. Angolra fordítva egészen érthető.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Teljesen jó a magyar fordítás is:
"Összefoglalva, nVidia maradtak hűek mottója: sok Mhz és hangyokat "
persze, multiGPU tamogatast irtam es nem specifikusan CF / SLIt.
Oculus azert szerintem eleg magas hozza, hogy problemas legyen. 390(X) egyebkent nano koltseghatekonyabban, az a felbontassal kevesbe bajos, viszont nanohoz kepest par featuret meg nem tud es hutes szempontbol meg mindig maceras.
viszont remelhetoleg lassan jonnek a felhasznaloi tapasztalatok is. VR engem is erdekel es sajat reszrol mar megvan a 390X orajelen jaro 290X CF.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
Ez a cikk azt fogalmazza meg, hogy az nvidia kártyák annyival hatékonyabban hasznosítják a tranzisztorokat, egységeket, hogy nem alakul ki ún üres buborék a hardverben, amit mellékszálon (multithreading) hasznosítani lehetne. Burkoltan ez azt sugallja, hogy ahol ez megtörténik, az lényegében hiba. Vagy a hardverben, vagy a futtatott szoftverben.
Mit lehet vajon nyerni mégis olyan architektúrával, amelyben ilyen buborékok keletkeznek? Az egész async compute a buborék létére alapszik, ha az amd történetesen sikeresen csökkentené a buborékok méretét, akkor az egész még inkább veszítene a jelentőségéből. Mit nyerhet azzal, ha vannak buborékok?
Találgatunk, aztán majd úgyis kiderül..
(#15478) FollowTheORI válasza Petykemano (#15477) üzenetére
Azért ez ennél sokkal bonyolultabb és ne nyeld be a marketing választ.
Persze hogy azt mondja az NV amíg nem tudják, hogy nem jó semmire... aztán meg ők lesznek a legnagyobb úttörői a technológiának. Nem ez lenne az első ilyen eset.
Van abban ráció, hogy pl amíg a GPU compute kódot számol, addig pl mellette párhuzamosan a memóriába töltsd a következő képhez szükséges adatokat... mivel teljesen más részeit használják a GPU-nak.
Stb stb.
Tehát nem csak buborékokról van szó, hanem arról is azért hogy a GPU több részegységét egyszerre lehessen dolgoztatni "függetlenül", vagyis növekedjen a kihasználása a benne lévő képességeknek egyszerre egyidőben.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?
Itt két alapvetően eltérő irány van:
a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugallta
Én majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.
Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Az Nvidia kinyilatkozta hogy mégis múkodik az asyncron compute LINK
An odyssey through the realm of consciousness.
Ha ezt iszod, akkor 2 mérföldről kiszagolod és meglátod az összes AMD kártyát. Amiket persze piros aura vesz körül. A saját GeForce kártyád pedig +30%-al jobban teljesít.
AMD-m van és ezt iszom. Tikkel is a szemem
An odyssey through the realm of consciousness.
(#15484) FollowTheORI válasza m0h0senator (#15481) üzenetére
GTC-re április 4-7 jól jönne majd, hogy fent tudjunk maradni nézni a keynote-ot.
Jen-Hsun Huang
CEO & Co-Founder, NVIDIA
Tues, April 5
09:00 AM PT
Habár... 9+9 az csak 18 óra... akkor mégsem kell.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Az a spec leírás
AMD találgatósba beteszed simán elhiszik....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
Mért ott hiszik el ott több az elméleti fizikus ?:
Nekem tetszik az AMD cooler
látok, hallok, érzek és gondolkodom.
Tessék
[link]
Mondjuk nekem tetszik a 300-as széria coolere is
Ha nem elég a 495X vs. 1090Ti,akkor van Kitty 980
[link]
(#15493) FollowTheORI válasza Szeszkazán (#15492) üzenetére
Ahogy nézem ez még mindig egy nagyon kérdőjeles motor meg benchmark.
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
Egyet értek veled. Még egy kis optimalizálás és nőni fog az AMD előnye.
Phenom II X4 B97, 3200 MHz. ATI Radeon HD 4200
Nagyon durva lesz ez az új videókárya: 3 GPU-S
Gondolom a fogyasztás is lenne vagy 6-700W.
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
Az elmúlt hónapban ez már a második driverük ami tönkreteszi a gépeket
Nvidia Users Beware, Latest Driver May Harm Your PC – Allegedly Killing GPUs, Is Plagued With Issues
és még az AMD-nek vannak szar driver-ei.
\\Fx 8320@ 4,6 Ghz //XFX 480 RS 8gb \\
Ez a kép azt illusztrálja, hogy a 2014-es prezin hbm2, a 2015 évi prezin hbm1 van a kártyák mellett?
[ Szerkesztve ]
-
Kétszer nem mondom, hogy a DX12/Vulcan miatt vannak gondban a driverekkel. Legalábbis, amióta a Vulcan support bekerült a driverbe azóta vannak problémák. Nekem egyelőre egyik driverrel sem volt gondom, remélem így is marad...
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.