Hirdetés
- Real Racing 3 - Freemium csoda
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- urandom0: Száműztem az AI-t az életemből
- eBay-es kütyük kis pénzért
- Brogyi: CTEK akkumulátor töltő és másolatai
- Elektromos rásegítésű kerékpárok
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- hcl: Poco F2 Pro facepalm
Új hozzászólás Aktív témák
-
huskydog17
addikt
Átlagosan 30%-al gyorsabb játékokban, mint a 1080Ti
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#33897
üzenetére
A DXR esetében a Microsoft két lehetőséget kínál a működésre. Az egyik a fallback layer. Ez egy olyan univerzális réteg, amit a Microsoft ír, és minden olyan legalább shader modell 6.0-t támogató hardveren futni fog, ami nem kapott gyártói réteget. A gyártóknak azonban lehetőségük van arra, hogy írjanak maguk egy saját hardver fölötti réteget a DXR-hez, amivel nem a Microsoft univerzális rétegét fogják használni, hanem maguk határozhatják meg, hogy az egyes feladatok hogyan fussanak a hardveren. Az RTX egy ilyen réteg a Volta fölé. De nem biztos, hogy ez a réteg el lesz nevezve, gyakorlatilag ez egy driver, amit nem drivernek hívnak, de ettől még egy szimpla driver.

(#33898) TTomax: A tesszelláció tökéletes példa arra, hogy mennyire tönkretehet valamit, csak itt a tesszelláció jellegzetessége miatt nem játékról, hanem effektekről lehet szó. Viszont látható, hogy például se a Hairworks, se a God Rays effekt kód nem fejlődik az NV-nél, mert maga az alapkoncepció az indokolatlan mértékű tesszellálásra épít, és ezáltal a geometry shaderre épít, amik olyan mértékben lezabálják az effektre szánt időbüdzsét, hogy a fontosabb komponenseket, a minőséget biztosító komponenseket már nem tudják hozzáadni. És itt például a Hairworksnek alapvetően szüksége lenne valamilyen OIT megoldásra, sőt, specifikus élsimításra is, hogy a jobb ütközésdetektálásról már ne is beszéljünk, csak nincs rá több tervezett erőforrás, mert elment a hardveres kapacitás olyan dolgokra, amelyek a végső képen a végleges minőségbe alig szólnak bele, de vért izzad a vas, hogy megoldja ezeket. Ez nem lenne annyira kirívó, ha nem lenne a Hairworks mellett egy TressFX, ami például nem tesszellál, geometry shadert sem használ, és gyorsabban megcsinálja a feladatot OIT, analitikai élsimítás és ma már SDF kalkuláció mellett, mint a Hairworks ezek nélkül. És ez meghatározza egy effekt jövőjét is. Ha már az alap hibás, akkor nem fogják továbbfejleszteni, mert nem tudnak mit kezdeni az erőforrásigényével, ezért nem láttuk sosem a második generációs HairWorksöt, míg a TressFX már negyedik generációs kódnál tart.
És hasonló probléma merül fel a sugárkövetésnél is. Azt nem igazán lehet optimalizálni, túl egyszerű maga a feladat, maximum paraméterezhető, hogy pixelenként hány sugár legyen, és milyen messze legyen számolva. Hasonlóan a tesszellálásnál, meghatározhatod a formátumot és a részletességet. De ha elszámolják az egészet, akkor onnantól kezdve azon kell gondolkodni, hogy a raszterizálás szempontjából mi legyen visszavéve, vagy ha a memóriaigény jelent problémát, akkor csökkenteni kell a textúra- vagy a geometriai részlegességet, mert ugye a VGA-k esetében a memória eléggé kötött, és nem minden meghajtóban van egy csúszka, hogy oda igazítsd a visszajelzett memóriát, ahol jó a programnak.Önmagában viszont a tesszelláció nem hibás például a fentiekért. Nem az eljárással van probléma, ahogy a sugárkövetés is nagyon jó technika. A tesszelláció esetében például a fenti problémákat minden esetben az emberi hülyeség okozta. Még azt se mondom, hogy szándékos hülyeség, mert lehet, hogy fiatal volt aki a projektet vezette, látszólag jó ötletnek tűnt az egész, mára meg a tanulópénzként tekint rá (főleg úgy, hogy az NV pénzét égette el). A sugárkövetésnél is ez lesz. Lehet ezt jól használni, és lehet úgy is, hogy végeredményben úgy nézd a tükröződést, a GI-t és az AO-t, hogy szép-szép, de a játék többi része öt éves szintre lett butítva. És itt jön elő egyébként az állandó vita, ami tényleg egy aktuális vita, hogy mire érdemes ezt használni. Mert igen, a sugárkövetéssel biztosan jobb lesz mondjuk a tükröződés, de mondjuk egy trükkös SSR megoldás tízszer gyorsabban hoz egy megközelítőleg jó eredményt. És felmerül itt, hogy például a játékos a játék közben észreveszi-e, hogy éppen van egy olyan doboz a jelenetben, ami pont nincs rajta a képkockán, de pont látszódnia kellene a vizes padlón a sarkának. Az ultimate kérdés tehát az, hogy megéri-e ezért az előnyért tízszer több ALU kapacitással fizetni, és megéri-e bizonyos problémák esetén az alapvető minőséget adó raszterizálásból elvenni, ami kihatással van a teljes játék grafikájára is, sugárkövetés ide vagy oda.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#33895
üzenetére
Nagyon szép a marketing, csak ha megnézed a DXR-t, akkor az jelenleg csak 16 és 32 bites lebegőpontos formátumot támogat. A tensor magok 8 bites fixpontos ALU-k.

Eleve az AMD mondta, hogy ők is tudnak rá drivert csinálni, GCN3-tól felfelé van is már tesztcsomag. Egyébként egy olyan dologról vitázunk, aminél a Remedy elmondta, hogy 1920x1080 pixeles felbontáson, pixelenként egy sugarat, virtuálisan maximum 4 méteres távolságig kilőve a számítások nagyjából 5 ms-ig tartanak. Na most egy sugár az nem sok, és a 4 méteres távolság sem az, tehát iszonyatosan szűk térben alkalmazható technikáról van szó, ami a 60 fps-hez mért képszámítás harmadába kerül és akkor ez csak Full HD. 4K-n ez 20 ms, ami a 30 fps-hez mért képszámítás kétharmada. És akkor még nem számoltál semmit, amit ki tudnál rakni a kijelzőre.
A packing alkalmazható a DXR-en belül, hiszen támogatott a shader modell 6.2 16 bites lebegőpontos formátuma. Persze ettől az ég óvjon minket.

Elmondom neked, hogy miért csinálják ezt a sugárkövetést a gyártók. Az AMD-nek és az NV-nek is ugyanaz a koncepció mögötte. Mindegy, hogy DXR, vagy Vulkan-féle GPUOpen, vagy egy esetleges Vulkan szabvány, a probléma az, hogy a PC-s GPU-kat a jövőben nem igazán lehet úgy skálázni, hogy ne növekedjen meg a multiprocesszor:raszter arány. Viszont ahogy távolodsz a konzolok arányától, ami amúgy 8:1 körüli, úgy lesz egyre több idle lyukad az architektúrában. Tehát tök jó, hogy megvan a GPU-ban az ALU, csak a shadereket nem olyan multiprocesszor:raszterre optimalizálták, amilyen az új, erősebb GPU-ké. Viszont a sugárkövetés egy marhára függetleníthető folyamat a raszterizációtól, vagyis meg tudod azt csinálni, hogy ezt felhasználod az idle lyukak betömésére az aszinkron compute segítségével. Ettől még mondjuk egy újabb, mondjuk 16:1-es arányú GPU nem lesz jobb grafikára, de van egy rakás szabad ALU kapacitása sugárkövetést számolni.
Nagyjából ennyi a koncepció mögötte.Egyébként ez a sugárkövetéses dolog nem rossz, csak lesznek majd olyan árnyoldalai, hogy ha nem lesz meg a teljesítmény, akkor maga a sugárkövetéses rész a programon belül túl egyszerű, hogy bármit is elvegyél belőle, emellett a 32 bites lebegőpontos formátum eléggé zabálja a memóriát is (értem a 16 bit opció, csak aki látott már ilyet, az tudja, hogy nem éppen reális), miközben van erre sokkal jobb formátum is, ami pont nem támogatott. Tehát iszonyatosan kell majd a memória, ami miatt félő, hogy kisebb textúrarészletességet szállít a fejlesztő, vagy rosszabb minőségű modelleket, mert azzal a sugárkövetés memóriaigényét is levágja. Vagyis összességében többet vesznek majd el a raszterizálás minőségéből, mint amennyit a sugárkövetés egyáltalán hozzá tud tenni az egészhez. Nézd meg a Metro Exodust sugárkövetéses trailerét.
-
Petykemano
veterán
"Nvidia noted today that, along with support for Microsoft DXR, the company’s RTX technology will enable real-time ray tracing in games utilizing its new Volta GPU architecture, that also has dedicated hardware on board to offload ray tracing workloads. Nvidia noted that RTX will also utilize the Tensor cores on board Volta for ray tracing, though these compute engines are typically utilized for machine learning applications."
Forbes"Until recently, we didn’t know that the Tensor cores could also possess usefulness outside of deep learning. Tensor cores are used in accelerating real-time ray-tracing in the recent demonstrations, which caught us off-guard: by definition, a Tensor core is deployable for dense data, as found in machine learning routines. Ray-tracing in real-time is inherently dealing with sparse data, particularly in these early days of limiting the amount of traced rays to a handful, leveraging denoising for cleaning-up the sparsely traced rays. We’re not sure if future gaming GPUs will host Tensor cores, particularly because the current consumer use case is a ray-tracing demo that hasn’t propagated to “real” games yet, but put us down for “maybe.” Maybe not next generation, but in some nebulously timed future"
GN"Meanwhile NVIDIA also mentioned that they have the ability to leverage Volta's tensor cores in an indirect manner, accelerating ray tracing by doing AI denoising, where a neural network could be trained to reconstruct an image using fewer rays, a technology the company has shown off in the past at GTC."
ATNekem ennyi pont elég ahhoz, hogy reálisnak tartsam, hogy ez egy olyan technológia lesz, amivel az nvidia pórázon akarja (fogja) tartani az amdt. Évek óta ez az első technógia, amit az nvidia propagál, aminek mögé áll. Gondolod, hogy nem ugyanaz lesz, mint a tesszelációval?
Lehet, hogy neked mást súgnak az amds kontaktjaid és hogy szerintük a rapid packed math sokkal jobb, csak hát a tensornak jó esélye van eljutni mondjuk alsó hangon 20% gpuba, addig a rapid packed math <1%
Ha a tensor semmi mást nem csinál, csak Machine learning módszerekkel csökkenti a számítandó sugarak számát, már nyerhet az nvidia, miközben a gameworksbe beépítve izzaszthatja majd az amds kártyákat.
- Hello, az nvidiától jöttem. Adok pár tippet és akkor az igazgató úr emgedélyével itthagyhatom ezt a táskát
Na kezdjük:
- növeljük atesszeláció sűrűségeta sugarak mennyiségét.
- de hát már nem is fog látszani. 8k felbontás kéne, hogy látszódjon!
- nem baj, csináld, amit mondok, jó lesz.
-okké
- ott avíz alatt is a tengerfenék felszínét is tesszeláldfal mögötti fényeket is Kövesd le. Igen, a horizonton túl is!
- de hát az nem is látszik!
- nem baj, csináld, amit mondok, jó lesz
.... -
Abu85
HÁZIGAZDA
válasz
Petykemano
#33892
üzenetére
Nem alkalmasak. Maximum denoisingra jók.
-
válasz
Petykemano
#33892
üzenetére
Akkor jöhetnek a föld alatti fények.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Petykemano
veterán
Hát igen, kéne már valami új fícsör, ami jobban szivatja ah AMD hardvert..
De nem, szerintem nem a haj, meg a szőr lesz ez. Hanem....
................
...............
..............
.............
............
...........
..........
.........
........
.......
......
.....
....
...
..
.
.
.
.
A jockey ewing.. akarom mondani Ray krebbs, vagy izé, Ray tracing.
A minap mit olvastam, ha jól értettem? Tensor magok alkalmasak a raytracing számításra. Hoppá, a voltában van ilyen pont. -
Milka 78
nagyúr
Nektek halljak meg semmi sem jó! Pedig a hónaljkutyába csapódó srapnel szálankénti hullámzását semmi sem múlhatja felül

-
wjbhbdux
veterán
Battlefield V = NVIDIA
-
huskydog17
addikt
Friss Kingdome Come Benchmark, az 1.4.2-es verzióval.
FullHD 60 fps-hez továbbra is kell a Geforce GTX 1070Ti/Vega64
-
Crytek
nagyúr
Ancestors Legacy GPU/CPU teszt
Min vs max képen: Nos igen ezt hívják szemmel látható különbségnek

-
cl.aci
aktív tag
válasz
Petykemano
#33877
üzenetére
Ő mindent is tud.
-
Abu85
HÁZIGAZDA
válasz
Raymond
#33873
üzenetére
Neked, aki nem hallott róla, de a Vulkanra való átállásnál problémába ütköztek abból a szempontból, hogy nem voltak jó profilozók, emellett az NV Vulkan drivere sem volt életbiztosítás 2016-ban, amikor a munkálatok kezdődtek. Erről itt is olvashatsz bővebben: [link]
Még az id Software is küzdött ezzel, nem véletlen, hogy a Doom Vulkan frissítése több memóriát kért a működéshez GeForce-on. Az early Vulkan adoptereknek egyszerűen nem volt más választásuk, mint Radeonra váltani. Ma már szerencsére sokkal jobb a helyzet, csak mivel korábban már berendezkedtek a Vulkanra, értelmetlen visszacsinálni mindent, főleg úgy, hogy 2017-ben hozott az AMD egy nyomkövetős profilozót, amit idén integráltak is a RenderDoc-ba. Egyszerűen sokkal jobb a fejlesztői környezet, amit kínálnak. A többiek nagyon lassan léptek, és ezt az időbeli a lemaradást hordozzák. Bár az Intel drivere veszettül jó lett idénre, ez azért nagyon pozitívum a számukra. -
Abu85
HÁZIGAZDA
válasz
Raymond
#33870
üzenetére
Már egy éve lehet tudni, hogy az Epic lecserélte a gépparkot AMD-re, de ettől ez nem akadályozza meg, hogy NV-vel is mérjenek. Az AMD-vel kötött szerződésük biztosan nem zárja ezt ki. Azt persze el tudom képzelni, hogy a Vulkan kód még nem végleges, így csak az AMD-re van optimalizálva, és később veszik elő az NV-t és az Intelt. Ebben az esetben érthető, hogy miért nem közölte Vulkan eredményt a többi gyártóról.
Egy szálra kényszerítve mértek, ott pedig nincs nagy különbség a DX11-es driverek között.
-
PuMbA
titán
válasz
FollowTheORI
#33869
üzenetére
Ahol nincs net ott EVGA alaplapot biztos nem vesznek

-
Raymond
titán
"Úgy látom egyelőre csak AMD-s eredmények vannak."
A linkelt filenev:
https://cdn2.unrealengine.com/Unreal+Engine%2Fresources%2FGDC-Talk-AMD-2018-Final-1cac12154df458e793df91804e9ad40bb32f50ec.pptx
A prezibol:
Thanks!
- AMD Immersive Technology team
- AMD Driver engineersTalan ezert

Amit latsz az az hogy az AMD VLK teljesitmeny jobb mint az AMD DX11 teljesitmeny es nem az UE4 Vulkan lekezpo allapotat. Az hogy ez mit jelent a konkurenciara nezve azt nem tudni, mert nem mindegy hogy peldaul az Infiltrator Editor tesztnel az NV DX11 az mondjuk 52.31ms vagy eppen 38.76ms.
-
-
Abu85
HÁZIGAZDA
Unreal Engine 4 update a Vulkan leképező állapotáról. [link]
Rolando Caloca (ő írja a Vulkan leképezőt) szerint a uniform buffer stratégiájukkal verik a DX11-et egy szálon is:
"Infiltrator Editor
D3D11: 46.83ms / 21.28fps
Vulkan: 36.75ms / 28.15fps
Infiltrator Demo, wide city view
D3D11: 30.36ms / 29.79fps
Vulkan: 13.62ms / 38.08fps"
(Úgy látom egyelőre csak AMD-s eredmények vannak.) -
Sonja
nagyúr
-
VTom
veterán
válasz
huskydog17
#33859
üzenetére
Biztos eladási rekordokat döntöget majd ez a csoda.
-
Televan74
nagyúr
válasz
huskydog17
#33859
üzenetére
Ezt a játékot is nyugodt szívvel engedem át az Nvidia tulajdonosoknak!
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#33858) Habugi Ha már nincs ellenfél akkor jó lesz az IGP is.

-
huskydog17
addikt
Újabb UE4 játék, újabb NV előny.
-
Venyera7
senior tag
-
Televan74
nagyúr
Azt nem tudják,hogy 1180/2080,de azt már igen hogy 40-50% gyorsabb az elődnél.Kevés darab lesz belőle,és a konkurencia hiányában meg is kérik majd az árát.

-
Abu85
HÁZIGAZDA
válasz
Dandris
#33847
üzenetére
A Hynix a beszállító. Velük van szerződése az NV-nek. A HBM2-t is tőlük veszik. A Hynix leplezte le amúgy az új sorozatot, még amikor bejelentették a GDDR6-ot. Elárulták, hogy az egyik GPU-gyártóval már exkluzív szerződésük van egy 384 bites memóriabuszú VGA-ra. Az, hogy a Samsung hogyan áll irreleváns. Ezekből a szerződésekből nem egyszerű kibújni, maximum büntetéssel, de nem valószínű, hogy a teljesítmény számít, mert a Hynix lehet, hogy ki tudja őket szolgálni, míg a Samsung lehet, hogy nem. Mint írtam korábban a tömeggyártás nem azt jelenti, hogy sokat gyártanak, hanem azt, hogy a gyártósor véglegesítve van. Attól még gyárthatnak 10-et vagy egymilliót is. Mindkettőt tömeggyártásnak értelmezik.
A TSMC 7 nm-es node-ja is tömeggyártás szintjén érhető el. Mégsem gyárt még senki 7 nm-es lapkát tömeges szinten. Egyszerűen csak annyi van, hogy a gyártósor végleges, készen áll a tömegtermelésre, de a megfelelő mennyiséget fizikailag is ki kell építeni, azt pedig a gyártók akkor teszik meg, ha van is igény.
-
Dandris
tag
Júliusban jön az új geforce sorozat
"Ugyancsak fontos újítás lehet, hogy a GDDR5X memóriákat az év elején tömegtermelésbe került GDDR6-ra cseréli az Nvidia. A chipeket beszállító gyártó személye egyelőre nem ismert, azonban a Samsung egyelőre mindenki előtt jár a GDDR6-os fejlesztés paramétereit tekintve."

Mivel az nvidia egyik fő terméke a geforce, amiből rekord eladásokat hoz össze folyamatosan évek óta, ezért valószínűsíthető bármennyi legyen a kezdő mennyiség elfogy mind. Mielőtt valaki a kevés ramra fogná amit év eleje óta gyártanak.

-
wjbhbdux
veterán
Az elmúlt években a Warframe volt az egyik fő játékom, és sokat számított videokártya választásnál hogy szép PhsyX effekteket kaptam Nvidián, annak idején részben emiatt váltottam HD5770 után 650Ti boostra majd 970-re. Sok játékban csak nyűg, de itt sokat adott hozzá az élményhez és nem sokat vett el a teljesítményből cserébe.
Most viszont azt mondták hogy az Nvidia abbahagyta a PhysX Apex particle rendszerük támogatását, a Warframe fejlesztők kaptak az alkalmon és minden GPUn meg konzolon is működő rendszerre cserélték:


úgyhogy megnyílt előttem a választás lehetősége ha egyszer majd upgrade kell

-
Loha
veterán
válasz
Dandris
#33842
üzenetére
Már előrendelésben elfogyott az összes GTX 1080. Ami persze egyáltalán nem azt jelenti, hogy a kártyára szerelt GDDR5X miatt nem tudtak eleget gyártani, ha csak a memória ellátással lett volna a gond, akkor nem vártak volna 1,5 évet a sima GDDR5-el szerelt GTX 1070 Ti piacra dobásával.
-
Abu85
HÁZIGAZDA
válasz
Dandris
#33842
üzenetére
Ne csak országosan gondolkozz, hanem globálisan.

A kísérleti gyártás fázisában egyébként nem ritka ez a jelenség. A gyártósorokat addig nem kezdik építeni, amíg nem véglegesítik azt. Ugye sokkal drágább lenne egy csomó gyártósort módosítani, mint megvárni a specifikálást, majd arra építve felhúzni a szükséges mennyiséget. A következőképpen zajlik ez. Lesz egy szűk számú gyártósor, ahol megy a kísérleti gyártás, majd onnan egyszer lesz egy véglegesítés. Innentől számít a tömeggyártás, még akkor is, ha baromira kevés a gyártósor. Ezután a leadott rendeléstől függően építik ki a többi gyártósort. Ezzel úgy 3-4 hónapos idő megy el a gyártást is beszámítva, és ekkorra lesz elég lapka. Ezt sehol senki nem tudja gyorsabban, mert ennyi időbe telik a bevezetés. Maximum arról dönthet a megrendelő, hogy piacra dobja-e a terméket korlátozott mennyiségű ellátással.
-
Dandris
tag
-
Dandris
tag
Abu, hagyjad, nv rekordokat döntöget negyed évről negyed évre... 90%-ban dvga-ból. Egy percre sem volt a gtx 1080 megjelenésekor hiány, kár a gőzért. Lehet 2017Q4-ben igen, a kisebb nv karikból a csákányosok miatt, de azért mindennek van határa.
Május közepén a micron már tömeggyártásról számolt be...
[link] -
Abu85
HÁZIGAZDA
válasz
Dandris
#33837
üzenetére
Mint írtam a kísérleti gyártás során kezdték el árulni. Őszre csak a szükséges mennyiségű készlet jött belőle, mert több GDDR5X-et gyártott a Micron.
A Cannon Lake-et is lehet már vásárolni, de olyan limitált a készlet, hogy alig épít rá valaki terméket. Azt hiszem, hogy az Intel az egyetlen, de ebben nem vagyok biztos. Az, hogy valamit elkezdesz árulni, az nem jelenti, hogy az igényeket is ki tudod szolgálni a készlettel.
-
Abu85
HÁZIGAZDA
válasz
Dandris
#33835
üzenetére
Nem volt az nagy jóslat. Az NV akkor kezdte el forgalmazni a GTX 1080-at, amikor a Micron még kísérleti gyártásban volt a GDDR5X-szel. Természetes volt, hogy őszre megnőtt a gyártott mennyiség száma, hiszen a gyártósor véglegesítése után jóval többet üzemelnek be, mint amennyit használtak a kísérleti gyártásban.
A GDDR6-tal sincs ilyen szempontból probléma. A Hynix a kísérleti gyártás fázisát viszi, és valószínűleg a nyárra a gyártósort véglegesítik is. A probléma sokkal inkább az, hogy GDDR6-ból nem fognak annál több gyártósort építeni, mint amennyiben megegyeztek a megrendelőkkel. Nagyobb az esély arra, hogy a legtöbb partner nem ilyen memóriát választ. És itt jön elő a kartelezés problémája, ugyanis a teljes gyártókapacitás szűkös, köszönhetően annak, hogy nem követték a memóriagyártók a piaci igényeket, így pedig nem is készültek fel arra, hogy optimálisan kiszolgáljanak mindenkit. Ez a fő oka annak, amiért az NV folyamatosan hozza azokat a VGA-kat, amelyekről spórolják le a GDDR5 lapkákat. Nincs elég, a lapkából már elég sok van, a GP104 hegyekben áll, de nem tudják eladni őket memória nélkül. Ott próbálnak GDDR5 lapkákat nyerni, hogy a legnagyobb felvásárlóknak butított termékeket szállítanak most. Négy butított GTX 1050-en megspórolnak négy GDDR5 lapkát, ami plusz egy GTX 1050 a retail piacra.
-
Dandris
tag
olvasva ezt a hiány van a memóriából és nem gyártanak GDDR6 ramot ergo ki tudja mikor jön a next nv sorozat... deja vu-m van
![;]](//cdn.rios.hu/dl/s/v1.gif)
Nem voltak ilyen jóslataid anno az gtx 1080 vga-val kapcsolatban? Csak akkor a GDDR5X fájt, belengetted a késő őszi rajtot, rá pár hétre május végén kiadták
![;]](//cdn.rios.hu/dl/s/v1.gif)
Törd össze azt a gömböt, mert megint úgy jársz mint a brüsszeli kapcagyár.

-
Crytek
nagyúr
válasz
FollowTheORI
#33832
üzenetére
Nem grafikon. Hanem a képek mozgatod a csuszkát min és max között és kb 0 különbség...
Ezt sok játék érdekesen oldja meg. Van ahol kb időutazás és ocsmány lesz a végeredmény sok helyen meg néz ki az ember a fejéből ,hogy akkor most mitől lett low a low mert 0 különbség..
-
válasz
Crytek
#33831
üzenetére
Mármint hogy a két grafikon egymásra van ragasztva?

Amúgy ahogy nézem jól fut majdnem mindenenen, ami egyedül érdekes, hogy a 4GB alatti kártyáknál szépen "kiswappel" a windows és megnő a rendszermemória használat. Szóval rendszermemóriából van kipótolva a 3GB 1060 például... lassabb is, mint a 6GB.
De ahogy nézem 4GB és felette okés...
Mondjuk ma már ebben semmi meglepő nincs, azis igaz.

(#33833) Crytek
Jah.. értem.
Azért van különbség ott, de tény játék közben ezt nem fogod észrevenni meg foglalkozni vele... főleg ha nem lehet "belezoomolni" sem. De azért sokminden jóval részletesebb lesz. Kivéve amit az AA mos el.

-
Crytek
nagyúr
Pillars of Eternity II Deadfire GPU/CPU teszt GameGPU
Azok a különbségek min és max között megint

-
Dtomka
veterán
válasz
keIdor
#33829
üzenetére
"Cuccok
Asus Maximus VIII Formula - Intel Core i7-6700K @ 4600MHz 1,3V - 16GB G.Skill TridentZ 3200MHz CL15 - Asus Strix GeForce GTX-1080Ti "
Mondod Te a fenti konfiggal

De a 980Ti=1070 karcsú még a 4k hoz...sőt a 1080Ti is. De ezt Te is tudod, ha nem keresek olyan gémet ahol az

-
Dtomka
veterán
válasz
Crytek
#33827
üzenetére
A 280x után 6700k igp-vel a GTA V & BF1 közben azt hittem\éreztem visszarepültem az időben ~20 évet. De a kényszer nagy úr, és legalább tudtam kockulni. Sosem fogom még1x elkövetni azt a hibát mint anno a p67 esetében. Csak olyan lapot fogok venni melynek van vga kimenete

Szóval tudom mit élsz át, csak annyit tudok mondani tarts ki!

-
olymind1
senior tag
Az 1060-nak mindig is 300 dolláros ára volt? Nem 250 körül volt valamikor? Mert emlékszem hogy a 480 4 GB volt 70 ezer forint, a 8 GB-os 80 párezer, és szintén 80 körül volt az 1060 6 GB-is, 110-120 körül már 1070-eseket lehett venni.
Szóval mintha drágítottak volna az 1060-on és ez lassan 2 éve volt nyáron. Simán 1.5x árak vannak.
-
Dtomka
veterán
válasz
Petykemano
#33820
üzenetére
Írtam én olyat, hogy az AMD béna? Nem azok, csak 1 másik úton indultak el és nem vált be.
Az áremelkedést a bányászláz okozta. Vagy szerinted más oka volt? Ők is éltek a lehetőséggel...jól tették. Kisebb cég, sokkal rosszabb helyzetben vannak.Az Nvidia valóban elhúzott, (Fermi után a jelenlegi sorozat előtt le a kalappal!) de erre írtam, hogy remélem az AMD összekapja magát.
-
Dtomka
veterán
válasz
Petykemano
#33818
üzenetére
Az egész regényedből csak erre reagálok.
"a jót meg kell fizetni." Akkor szerinted az normális dolog, h egy ~100 000 ft os vga majdnem 2x annyiba kerül?
ASUS STRIX-GTX1060-6G-GAMING GeForce GTX 1060Szerintem meg lehúzás...

A jót meg kell fizetni...
Igen én semleges vagyok, hisz sosem volt és nem is lesz rajtam 1ik féltől sem az a bizonyos szemüveg. Azt veszem ami a legjobb ár\teljesítmény nekem.

-
Petykemano
veterán
válasz
Dtomka
#33814
üzenetére
Elképeszt, amikor emberek (fórumozók) diadalittasan (valójában persze semlegesen) linkelnek a vs topikba nvidia sikereket - legyen az pénzügyi, vagy brutálisan magas teljesítményfölény. Egekbe magasztalják a céget, itt-ott milyen jó minden, mennyivel jobb minden. Időnként álnaív módon rácsodálkoznak arra, hogy a - kiérdemelt - piaci fölénnyel aztán hogy élnek - vissza - a vásárló felett. Aztán a kábulatból eszmélve - "jó hogy ****jó és magasana leg****jobb, de hát egyszersmint ***** drága is!! " - odafordulnak az AMD-hez: "EZ A TE HIBÁD, ***** MEG!
Pedig valójában az nvidia árai mögött valós teljesítmény van: fps, fogyasztás, stb Nézhetnénk úgy is: nem az AMD maradt le, hanem az nvidia húzott el. Ha ebből a perspektívából szemléljük, akkor máris nem "Azért lett drága, mert Te el****tad" keserű szájízt hagyó vádaskodás helyett "a jót meg kell fizetni." más tekintetben általános érvényű narratíva lép érvénybe.
-
Loha
veterán
válasz
huskydog17
#33815
üzenetére
Azóta a Titan Xp is elfogyott
, hát ez nem sejtet semmi jót a jövőre nézve... 
-
Dtomka
veterán
válasz
huskydog17
#33815
üzenetére
Nem okolok senkit csak leírtam valamit. De okolhatják azok akiknek magasabb áron kellett vga-t venniük.
A gyártóknak mind1, h bányász vagy "gamer" veszi meg a kártyát a lényeg, hogy eladják. De ha én lennék az nvidia vezetője, akkor biztosan tettem volna valamit. A 1070 -eket bios módosítással adtam volna ki (ha ez lehetséges, nem tudom nem értek hozzá), és 1 másik részleget létre hozattam volna kimondottan bányász vga-k fejlesztésére. És nem alakult volna ki ilyen helyzet.
-
Dtomka
veterán
válasz
Crytek
#33811
üzenetére
Nemsokára fogjuk!
Mennyi lesz a nyitóára szerinted? A ref 350k legalább, a jobbaké 400+
Ezért kellene az AMD-nek (vagy most, hogy az Intel is belép a vga piacra) kicsit összekapnia magát, h legyen verseny.(#33812) huskydog17
Most ezekkel a cikkekkel mit kezdjen az aki jelen pillanatban venne 1 jobb vga-t játékra? Az aktuális árak még mindig magasak. A többség nem külföldről vásárol, én sem tenném. A gariztatás problémásabb lehet. -
Loha
veterán
válasz
huskydog17
#33812
üzenetére
Azóta már újra el is fogyott minden a NVIDIA Store-ból a Titan Xp és a 1070 kivételével, de azokra is 1 hetet kell várni:
Szerk.: a hozzászólásom megírása alatt a 1070 is elfogyott...

-
huskydog17
addikt
válasz
Dtomka
#33810
üzenetére
Pont, hogy ők nem tehetnek róla és ők adják a legolcsóbban:
Nvidia's online store is back in stock with graphics cards at MSRP
-
Dtomka
veterán
REKORDOKKAL ZÁRULT AZ NVIDIA LEGUTÓBBI PÉNZÜGYI NEGYEDÉVE
Örülünk, hogy Ők is jól megszedték magukat, akkor ideje lenne a vga árak normalizálódásának!

ZOTAC ZT-P10810B-10P GeForce GTX 1080 Ti - volt 238k is...és most mennyi?
-
válasz
#45997568
#33808
üzenetére
Igaz, félreérthető voltam nagyon! Amikor a linuxos támogatást ígérték, akkor azt mondták, lesz Vulkan és linuxos támogatás is, de előbb a DX12; majd jöttek azzal, hogy only Vulkan, hagyjuk a DX12-t, a linuxos támogatásról viszont már nem sok szó esett, noha elvileg ez a DX12 -> Vulkan változtatás a lehető legjobb linuxos szempontból.
-
válasz
huskydog17
#33802
üzenetére
Ez állat jó! Remélem, a Star Citizen, ami alapból Vulkan-t kap, menni fog majd hasonló teljesítménnyel linuxon is; ígértek anno támogatást, csak úgy, hogy az nem elsődleges prioritású, a linux változat ráér még, előbb a DX12 legyen kész. Remélem, a jövőben többen gondolnak majd a játékuk linuxos támogatásra, ha már ott a Vulkan!
-
FLATRONW
őstag
válasz
Puma K
#33803
üzenetére
A Metro játék esetében volt ronda a Linux változat.
Ott még OGL-re csinálták meg. Lehet, hogy az OGL korlátozott képességei miatt volt rosszabb.
Itt viszont adott a Vulkan, ami hasonló képességekkel rendelkezik, mint a DX11-12, így nem hiszem hogy butítani kellett a grafikán. -
Puma K
nagyúr
válasz
huskydog17
#33802
üzenetére
Az jó hogy hozza Linux alatt is csak kérdés a játék hogy néz ki?
Korábban néztem Windows vs Linux összehasonlítást és Linux alatt ugyan az a játék (már meg nem mondom, hogy miket néztek...) rondábban nézett ki avagy helyesebben egyszerűbb volt más szóval hiányosabb, mert adott effektek hiányoztak.
-
huskydog17
addikt
-
Loha
veterán
GDDR5(X) chipenként 1-2W, egy 256bites kártyán van 8db az max. 20W, 384bites kártyán 12db az max. 30W és passzívan hűthető, ez nem tudom hol számít rendkívül soknak...
GDDR6 -ból azonos mennyiség olcsóbb lesz mint HBM2-ből, a drágaság relatív...
Leírom még1szer érthetőbben:
A 8GB-os konzolokon (PS4, Xbox One) kb. 3GB (V)RAM áll rendelkezésre a textúrák számára és a RotTR esetében a PC-s High textúrákat használják, mihez PC-n is elég egy 3GB-os VGA.
A 12GB RAMmal felszerelt Xbox One X -en kb. 6GB (V)RAM áll rendelkezésre a textúrák számára és a RotTR a PC-s Very High textúrákat használja, amihez PC-n is 6GB VRAMmal felszerelt kártya kell.
Tehát azonos textúra (és grafikai) minőséghez ugyan annyi (V)RAM kell a RotTR esetében a konzolokon is mint PC-n.
Ez SZVSZ teljes mértékben cáfolja a PC-s VRAM pazarló elméleted, amit te magad sem támasztotál alá soha semmi kézzel foghatóval...
Keldor papa: SZVSZ következő GeForce generáció még idén jön, a csúcs kártyákon GDDR6-al.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Milyen processzort vegyek?
- Real Racing 3 - Freemium csoda
- Call of Duty: Modern Warfare III (2023)
- Az SK Hynix elárulta, hogy meddig nem lesz elég memória
- SörcsaPH!
- EU-s vám vethet véget a nagyi temus vásárlási lázának
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- AMD Navi Radeon™ RX 9xxx sorozat
- További aktív témák...
- ASUS RTX 3080 TUF Gaming , dobozával
- MSI Radeon RX 6700 XT MECH 2X OC 12GB használt videókártya számlával és garanciával eladó!
- MSI GeForce RTX 3060 Ventus 2X OC 12GB használt videókártya számlával és garanciával eladó!
- Új, fóliás XFX Quicksilver RX 9070 XT White Magnetic Air Edition 16GB (3 év garancia) - Beszámítás
- Sapphire Pulse RX 6700 XT 12GB használt videókártya számlával és garanciával eladó!
- GYÖNYÖRŰ iPhone 12 Pro Max 128GB Pacific Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3938
- iKing.Hu - OnePlus Nord 4 5G 16/512 GB Használt, karcmentes 3 hónap garancia
- Bomba ár! Lenovo Miix 520-12IKB : i5-8G I 8GB I 256GB SSD I 12" 2K Touch I Cam I W11 I Garancia!
- Konzol felvásárlás!! Nintendo Switch
- Akciós! Lenovo ThinkPad P15 Gen 1 Intel i7-10875H 32GB 512GB Nvidia Quadro RTX 3000 1 év garancia
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: BroadBit Hungary Kft.
Város: Budakeszi



Nagyjából ennyi a koncepció mögötte.
![;]](http://cdn.rios.hu/dl/s/v1.gif)




, hát ez nem sejtet semmi jót a jövőre nézve...


