Hirdetés
-
LOGOUT.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
Raymond
félisten
A teszteket nezve a teljesitmenyel nincs problema es teljesen normalis alternativa lennenek igy ezek a kartyak de a hutes felejtos es a custom kartyakat mindenkepp meg kell varni. Csak az a kerdes megint hogy azok milyen aron jonnek mert konnyen borul az egyensuly most hogy igy ki van centizve a paletta ar es teljesitmeny szempontjabol mindket oldal alltal.
Privat velemeny - keretik nem megkovezni...
-
Z10N
veterán
Igy van, csak egyeterteni tudok. Ilyen arkategoriaban mar a komplett csomagot nezik a vasarlok. Az olcso kategoriaban ($100-200) meg elnezed ezeket az ar miatt (fogyasztas, hotermeles, zaj, hutes kialakitas, stb).
$200-300 kozott, mar szamitasba veszed ezeket a dolgokat. $300-400 kozott pedig mar elvarod. Felette meg...
Ahogy hallom a ref kialakitas az Nv-nel jol sikerult. Mig ez az AMD-nel nem mondhato el. Varni kell a custom-ra.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
De nem igy lett. Ezenkivul 2016 mar 3 eve volt. Azota 3. gen-nel tartanak. Volt ido a valaszra. A tobbi mar senkit nem erdekel. Az arversenyt illetoen: akkor lett volna az, ha az Intel beszall ebbe, de tul arrogans volt hozza. Igy inkabb csak maguk ellen versenyzik most az AMD price/perf, perf/watt es core count alapjan. Varom a valaszukat, hogy meg lentebb szoritsak az arakat es a GPU vonalukra is kivancsi vagyok. 3 szereplovel mar erdekes lesz a verseny (chiplet, RT).
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
nagyúr
Pont szoftverek kapcsán mondtak olyanokat kisebb cégek (még a 10-es évek elején), hogy azért jó a Steam, mert kézzelfoghatóan jobb üzlet volt az akkor meg nem nevezett, de azóta tudjuk, hogy 30%-os sarc, mint amit egy bolti értékesítésnél fizetnének. És persze, hogy nem árulta olcsóbban, de közben a kiadóknak vonzóbb volt, a Steam meg orbitálisat kaszált a 30%-kal.
Nem tudom, honnan jön a 25-30%, ha konkrét tapasztalat, akkor annyi kérdés merül fel, hogy minden benne van-e, ami a kiadó ajtaján való kilépéstől a kisker bolt polcra kerülésig felmerül?Két másik iparági példa:
- CD nagykeres ismerősöm világosított fel anno, hogy jó, ha a kiadónak több, mint 50% jut a 4000 FT-os CD árából. Azon akkor én is nagyokat pislogtam.
- Saját munkatapasztalat, hogy az újságlogisztikában még ennél is magasabb a költség, nem is kevéssel. Az újságok esetén persze az alacsonyabb termékár + napi drop kombinációja ezt alaposan megnyomja, de ugyanúgy igazak voltak a számok a heti és a havi lapokra is.Szóval összességében engem nagyon meglepne, hogy ha a lentebb említett 300e FT-os VGA-ból mondjuk az MSI-nél 180e-nél több landolna.
"... and with your wicked wishes we will rise again"
-
Raymond
félisten
A Steam elott a fizikai boltoknal sokkal tobb ment el, ezert volt jo uzlet a Steam 30%-a. Ezen kivul ha egy fejleszto vagy fejleszto csapat akart valamit kiadni akkor vegkepp problemas volt a dolog mert ahhoz elengedhetetlen volt egy kiado ugyanis a boltokba maskepp nem kerultel be igy fizethettek a kiadonak es a boltnak is aztan jo ha maradt 10-20% a brutto bevetelbol. Most meg ha ugy gondoljak hogy a jatekot tudjak maguk promotalni vagy van olcsobb megoldas mint egy nagy kiado durva szazalekai akkor mehetnek direkt a Steam-re.
(#42539) gbors
"Szóval összességében engem nagyon meglepne, hogy ha a lentebb említett 300e FT-os VGA-ból mondjuk az MSI-nél 180e-nél több landolna."
A hardver marzsok azert sokkal kisebbek mint a szoftver/jatekok, ott se az elado se a disztributor messze nem visz el annyit, ezert nem veheted a jatekok/szoftver/media marzsokat alapul.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
-
Kupszi
aktív tag
Ugye voltak erről pletykák korábban, hogy elvileg megoldható, de az AMD elvetette.
Ha lenne teszt a neten ami alátámasztja hogy működik, Akkor végül is lapcsere nélkül megoldható Az újabb generáció kiaknázása, mégha nem is hoz csak 1-2% gyorsulást.
Ha pedig mégis a Gigánál működik és jó is lenne , akkor a többi gyártónak is rá kell harapnia.Pipapapa strikes back again! Avagy újabb tégla a falba!
-
paprobert
senior tag
2009-es a videó, tehát más a piaci környezet. Alternatív memóriáról kérdezték a fickót, emiatt jött szóba a gyártási költség és a végfelhasználói ár viszonya. A komponensekről van csak szó.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
HÁZIGAZDA
Már megint a kettős mérce. Az 1660 Super az egy pletyka, semmi nincs róla, meg hát max egy gyárilag húzott 1660 Ti lenne csak. Eközben a Navi 14 az meg konkrétan biztos létezik és jön.
Leginkább az árazás fogja eldönteni, hogy jó lesz-e. Legalább olyan jó ár / érték aránnyal kéne adni, mint az RX 570-et. Ami eléggé bestbuy, s értelmetlenné teszi az 1650-et. Az RX 5600 feladata ugyanezt megtenni az 1660-akkal.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
-
Abu85
HÁZIGAZDA
A fixfunkcióval nincs gond, csak most ez az egész az aktuális DXR-nél úgy működik, hogy bemegy az adat, és kijön az eredmény. Az egész bejárás programozhatatlan, azt tudja, amit a hardver tud és kész. A következő DXR verzió a bejárást programozhatóvá teszi. Ettől még lesz fixfunkciós hardver a sugárkövetéshez, csak nem annyi lesz, hogy az adat bemegy és kijön, hanem programozható lesz, hogy mi jöjjön ki.
Ha a pipeline szintjén nézzük, akkor így néz ki az aktuális DXR:
sugárgenerálás -> ütemezés -> bejárás és ütközésvizsgálat -> ütemezés -> árnyalás
Ebből ma programozható a sugárgenerálás és az árnyalás, az ütemezés ugye egy vezérlőelem, míg a bejárás és ütközésvizsgálat fixfunkciós blokk. Ez lesz szétválasztva a következő DXR verziónál és lesz belőle egy programozható bejárás lépcső és egy fixfunkciós ütközésvizsgálat.
Valószínűleg a PC-s hardverek is erre mennek majd.
Az egésznek még nagyon az elején járunk, tehát ha valamikor, akkor most még megengedhető egy reset, mert érint kb. egy tucat játékot maximum, és végül sokkal jobb lesz maga a rendszer. Ráadásul a korábbi DXR ugyanúgy leemulálható az új DXR-en (a Microsoft leprogramozza majd rá a készülő WARP bejárását és kész), tehát a futtatás a jövőben garantált marad.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Semmi gond nem lesz. Jönnek az új konzolok, azokra a Sony és a Microsoft is olyan rendszert gondolt el, amilyet a fejlesztők visszajeleztek az első DXR próbája után. Sose állította a Microsoft, hogy ez ennek a vége, sőt, a GDC-n ki is hangsúlyozták, hogy az aktuális DXR csak a kezdet. Ugyanúgy fog fejlődni, ahogy a DirectX, csak magán az API-n belül. És ahogy a DirectX újításihoz is kellenek az új hardverek, úgy a DXR újításai esetében sem ússzuk majd meg ezt. Mivel az új DXR egy lépcsőhöz hozzáadja a programozhatóságot, így abban a lépcsőben le is lehet programozni egy korábbi DXR specifikációjának megfelelő bejárást. Tehát az új hardverek kompatibilisek maradnak a régi játékokkal. Viszont a mostani hardverek valószínűleg nem fognak működni az új DXR-rel. De ez sose volt másképp, ha új fícsőr jön, új hardver kell hozzá, abszolút nem újdonság, hogy így működik a piac. Akinek ez nem tetszik, vehet konzolt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
De a nem támogatott funkciókat minden esetben bukod. Ettől persze a játék futni fog, csak nem tudod majd bekapcsolni a nem támogatott funkcióhoz tartozó effekteket és eljárásokat.
Ezzel nehezen tudnak mit tenni a fejlesztők, de a játék ettől még futni fog, csak nem kapcsolható be minden a régebbi hardvereken, tehát igazából eladásokat nem vesztenek rajta.
Ha az NVIDIA kifizeti a fejlesztőknek a munkát, akkor nem lehetetlen a régi DXR-t is támogatni. Persze valószínűleg nem ugyanolyan minőség és sebesség mellett, tehát ha a legjobb kell, akkor úgyis új hardverre van szükség. Az NV-nek egyébként ugyanúgy lesz hardverük az új DXR-re, így az üzleti érdekük pont az, hogy a régi hardverről minél hamarabb újra válts.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
De lesz, csak ahhoz a régi DXR verzió kell. Az új DXR verziónál új hardver szükséges. Az már más kérdés, hogy ha beépíted az új verziót, akkor nem feltétlenül van kedved támogatást írni a régire, és az NV-nek sem túl nagy érdeke ez, ha itt vannak az új hardverek, mivel azok eladása a fontos.
Persze lehet azt mondani, hogy szemét mindenki, de sosem működött ez másképp. Attól, hogy egy effektet megírtak SM3-ra, még nem biztos, hogy csináltak neki SM2+ portot. Pedig lehetett volna valamit alkotni, ha nem is megegyező minőségűt. A PC mindig ilyen volt, ne lepődjünk meg ezen. A konzol a kiszámítható csak a fix hardver miatt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Tyrel
őstag
Simán rájöhet a Microsoft hogy nem azt az utat akarja járni amivel indult egy új tech, egy fecske nem csinál nyarat. Anno volt egy rakás Radeon a piacon xenos tesszelátorral ami végül az ég világon semmire nem lett jó, mert máshogy implementálták végül... és zavart valakit?
Egyébként nem kell félteni a mostani RTX-et, az nVidiának mindig nagyon jól ment a fejlesztők befolyásolása. Már persze addig a pillanatig amíg nem akarnak rásózni a népre egy új videokártya generációt, de ott már nem is a támogatott DXR verzió lesz a döntő, a jelenlegi RTX 20x0 így is úgy is elavul... nem lesz elég a teljesítménye hogy RT-vel futtassa amit kell, még akkor se ha amúgy futna rajta, szóval ez a probléma megoldja önmagát. Sztem kb. a Cyberpunk 2077 lesz a jelenlegi RTX generáció csúcsa, utána vagy kuka vagy DXR OFF.
[ Szerkesztve ]
Turenkarn
-
Abu85
HÁZIGAZDA
Kb. mindegyik? Itt tényleg egy funkcióról van szó. A program ettől még futni fog, csak egy-két effekt nem. De pokoli szerencse, hogy pont lesz pár új hardver, amin az az egy-két effekt is megy.
Ez nem cserbenhagyás. Ott a DLSS. Azt csak a Turing tudja. Úgy éreznéd, hogy cserben hagyott az NVIDIA egy Pascallal? Szerintem nem. Egyszerűen csak arról van szó, hogy az új funkciók új hardvert igényelnek. Ennyi erővel ne fejlesszünk semmit.
Rosszul emlékszel. A legtöbb játékban volt ugyan SM2 támogatás, de a minőség elmaradt az SM3-tól.
Gondolj erre úgy, mint a shader modell 1.x bevezetésére. Ott is fixfunkciós volt előtte a hardver, majd jöttek a programozható lépcsők. Az új technológiák mindig fixfunkciósan kezdenek, majd jön a programozhatóság, és utóbbi bizony új hardvert igényel. Ettől még nem hagyták cserben a T&L hardvereket anno, csak a vertex és pixel shader programokat nem tudták lefuttatni. De a játékot megjelenítették a shader programok kihagyásával. Én emlékszem még az első Splinter Cell harmadik pályájára, ahol egy marha nagy sárgaság volt a tenger, de amint vettem egy Radeon 8500-at, rögtön tengernek nézett ki. Viszont nem éreztem magam becsapva a korábbi GeForce 2-vel, ami ezt nem tudta megjeleníteni. Egyszerűen elfogadtam, hogy a programozhatósággal jobb az eredmény, és tök jót játszottam azzal a játékkal a GeForce 2-n. Na most a ray tracing esetében ennél sokkal kisebb különbségekről van szó. Ha pedig a fejlesztő nagyon akarja, akkor megcsinálja ray tracing nélkül is például a visszatükröződést. Ajánlom az INSIDE játékot. Nuku DXR, és olyan effektek vannak benne, amivel most a DXR-t reklámozzák.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
DudeHUN
senior tag
Nyilván ahogy öregszik a platform annál több trükk kell, hogy az optimalizáció mellett látványban folyamatos fejlődés legyen. Egy konzol sosem fog a PC-vel évekig szinten lenni. Nem tudsz beletuszkolni új GPU-t vagy több RAM-ot.
Azért anno a 360 1-2 évig eléggé odavert hardverben az akkori vasaknak.Gamer for Life
-
Z10N
veterán
Ehhez nekem mi kozom? A kollega konzolrol beszelt es erre valaszoltam. A gpu, pedig gpu legyen az barmibe is, szoval helyen valo. Amugy sokszor szoktunk itt konzol gpu-rol is beszelni, azaz nincs itt semmifele "csizma".
A ps3/360-t sose neztem 1080p konzolnak, hanem HD generaciosnak, azaz 720p-nek (az elotte levo pedig 480p). A mostani generacio elso fele 1080p, a masodik fele 1440p, a kovetkezo pedig 4K. Szoval semmi fajta csalodas nem ert. 360-n az arcade cimeknek kell szamomra 1080p-ben mennie. Tavaly peldaul a Child of Light-t toltam vegig rajta es meg voltam vele elegedve.
Milyen allitasod?
GTA5 (2013)
Crysis3 (2013)
COD:AW (2014)
DA: INQ (2014)
RotTR (2015)
BF: H (2015)Namarmost egy 2005 novembreben megjelent konzolrol beszelunk, amiben egy X1800XL/X1900 @ 500 hibrid van, melle 512MB GDDR3 @ 700 + 10MB eDRAM, mindezt DX9-cel megtamogatva.
Ezeknel a cimeknel nyilvan, ha komoly akciodus jelenet van robbanassal (foleg multiplayerben), akkor mar nyilvan nem birja a tempot. Es ezen semmi szegyelni valo nincs, hogy 7-9 (!!) evvel kesobb ezek igy futnak.
Csak erdekesseg keppen probalj mar meg elinditani az elobbi cimek kozul egy erosebb X1950 XTX-n (@650, 512MB GDDR4 @ 1000) 720p-ben low-on. Szerintem orulni fogsz ha elindul, nemhogy jatszhato legyen.
Szoval semmit sem erositettem meg...
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
-
Z10N
veterán
"Igen, konzolról beszélt, és arról, hogy láthatóan leskálázta a rendererlési felbontást."
Most ismetelgetsz masokat? Tudom, hogy mirol beszeltunk par oraja.Masodjara kerdezem, hogy mi kozom ehhez? Valaszoltam valakinek es ebbe belekotottel.
Amugy meg errol beszeltel:
1 "Adott esetben a PC témához a konzol. Két külön téma, külön tényezők." ergo pc vs. konzol
2 "Igen, konzolról beszélt, és arról, hogy láthatóan leskálázta a rendererlési felbontást." itt meg mar felbontasrolMar magad sem tudod mirol beszelsz...
"Attól, hogy nem nézted, a maga idejében PC-n már bevett volt az 1650x1200 pixeles felbontás is teszteknél és felhasználóknál..."
Hogyan jon ide a pc felbontasa?! Az a felbontas pedig inkabb 1650x1050 lesz. A konzol pedig sima HD-nek volt titulalva, szoval nem csak en neztem annak, hanem a fejlesztok is. Az 1080p extra volt akkoriban.
"a történet onnan indult, hogy PC-n milyen támogatás van / nincs a korábbi hardverekre."
Megint irrevelans. Egyebkent meg fps dropprol volt szo, most meg mar tamogatasrol beszelsz..."Robi Balboa pedig azt írta le, hogy konzolon a BF5 milyen rémesen alacsony felbontásra skáláz le..."
Ez most megint mi? Vagy most mar evidens dolgokat puffogtatsz? Hogyan jon ez ide megint?!
Igen es erre mondtam neki a 16 ROP miatt. Valaszoltam valakinek es beleszoltal...Ui: Szerintem hagyd a temat, mert mar kezd nagyon off lenni tenyleg.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
hokuszpk
nagyúr
"1650x1200 "
mostazonnal beperelem a Samut, a 214T monitoromrol hianyzik 50 sor.
"Az a felbontas pedig inkabb 1650x1050 lesz. "
@Zion : 1600x1200 ( 4:3 ) moncsi van elottem, maradhat ?* az aranyokra figyeljunk kollegak.
16:9 eseten 1600x900 16:10 eseten ugye 1600x1000 lenne, na ezt meg a 214T se tudja, 1400x1050 ( 4:3 ) oke, sajnos kivetelnek volt valami 1440x900 is.
[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
Z10N
veterán
Tul jo arnak nem mondanam, mert $139/169-t adnek ertuk. A tippem pedig mindket esetben +$30-ral felette van (ami itthon minden "finomsaggal" 11,6k) es az also kategoriarol van szo.
"Ez durva alávágás lenne a Zöld kártyáknak..."
Ez a lenyeg, ha el is akarnak adni belole. Van fejlodes, van ertelme valtani. Az 570 is hiaba gyorsabb meg is vesznek zoldet helyette. Az slideos teszteket meg tudjuk milyenek...[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
Tehat mindket esetben meg +$30-ral dragabban?! Ennyiert a hajukra is kenhetik, mert az egy-ket fanatikuson kivul senkinek nem fog kelleni. A mindshare-nek integethetnek es jovore jon az Intel is. Ezenkivul az ALSO kategoriarol beszelunk, ami $199-ral (XT) mar igy is KETSZER annyiba kerul, mint korabban es akkor meg erre raknal ra meg egy lapattal? Raadasul hova jon akkor az 5600/XT $279/299?! Ennyiert ep eszeu ember nem fogja megvenn. Vesznek zoldet.
Egyebkent az 590 newegg-n $199-ert (Sapphire/PowerColor) kaphato, annal egy centtel sem er tobbet az 5500XT.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
Nem megyek bele, mert par ora mulva ugy is eldol.
Miert mihez kene, a legdragabbhoz? Mi a baj a Sapphire/PowerColor-ral. Ok mindig a "mindenkori" msrp aron adjak a kartyakat jo minosegben. Nyilvan nem a $299-s XFX/Asus-t fogom berakni, mert annyiert mar Vega56-t kapni.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
-
Z10N
veterán
Miert mi a baj a Sapphire/PoweColor-ral mar masodjara kerdezem. Korrekt kartyat adnak korrekt aron es mindketto referencia gyarto is egyben. Ergo ezek szolgalnak alapul. Minden mas tularazott. Vagy extra, amiert kulon kell fizetni, de azt sosem kell a referenciaba bevenni.
Nem AsRock-t vagy Corn Electronics-t irtam, amik eppen csak ossze vannak rakva.
Amugy most neztem, hogy Rx 570:
-GigaByte 4G (refurbished) $108(!!)
-Asus ROG Strix OC 4G (open box) $130
Lentebb mar nem birjak nyomni az arat.# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Envo_
aktív tag
-
Z10N
veterán
Nem erted. Mondtad, hogy brutalisan arat kellene csokkenteniuk. Erre hoztam peldat, hogy mar kibontott/javitott kartyat sem tudnak olcsobban adni garanciaval boltbol. Miert az alatalad emlitett brutalis mit jelent, ha az ertekcsokkentett arat sem birjak $108 ala nyomni.
Sokadjara kerdezem ez hol also? Ezek szinte referencianak szamitanak. Debutalaskor meg lehet mediannal szamolni, de a termekciklus vege fele mar inkabb sulyozottan erdemes.
De zarjuk le, miert mindjart 16:00 ora es jonnek a hirek.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
nagyúr
A Keplerrel az NVIDIA megfordította a teljesítmény / fogyasztás szituációt, és azóta minden generációval nyílik az olló a párhuzamos architektúrák között. Ez mostanra akkorára nyílt, hogy a gyártástechnológiból fakadó előny éppencsak kompenzálja.
Ráadás, hogy úgy tűnik, a nem agyonhajszolt Navi chipek kb. úgy fogyasztanak hasonló chipméret mellett, mint az agyonhajszolt Polaris..."... and with your wicked wishes we will rise again"
-
Abu85
HÁZIGAZDA
Ezeket az architektúrákat évekre tervezik. Legalább 5-6 évre. Tehát ha most tervezel valamit, akkor az az optimális, ha a wave programozásra tervezed, hiszen ma már ott van a subgroup, illetve a wave intrinsics a Vulkan és DirectX 12 API-kban. 2010 környékén, amikor az RDNA-n kívüli architektúrák alapjai megszülettek, még nem volt meg ez a wave programozásra vonatkozó lehetőség az API-kban, így felesleges volt így tervezni a hardvereket. Viszont elég jelentős maga az előrelépés programozási szempontból. Itt a shader modell 6-ra a Microsoft leírása:
"Up until now, the HLSL programming model has exposed only a single thread of execution. As of v6.0, new wave-level operations are provided to explicitly take advantage of the fact that on current GPUs, many threads can be executing in lockstep on the same core simultaneously. For example, these intrinsics enable the elimination of barrier constructs when the scope of synchronization is within the width of the SIMD processor. These can also work in the case of some other grouping of threads that are known to be atomic relative to each other.
Potential use cases include performance improvements to: stream compaction, reductions, block transpose, bitonic sort or FFT, binning, stream de-duplication, etc."És ugye ez folyamatosan egészül ki, az SM6 például nemrég a variálható wave-hosszal, amit szintén támogat az RDNA, de csak ez a dizájn, az öregebbek nem, mivel azok alapjai 2010 környékiek, és komolyabb áttervezés a wave execution résznél egyiknél sem volt. Viszont ezek a képességek komplexebbé teszik a hardvert.
A Vulkan nem azért gyorsabb az AMD-n, mert a hardver jobb. De tényleg. Több szempontból a Vulkan hardverre vonatkozó igényei finomabbak a DirectX 12-höz képest. Persze ettől egy picit bonyolultabb a memóriamenedzsment, de alapvetően a két API ugyanúgy működik, tehát az a pár extra probléma nem túl lényeges, amire a Vulkan esetében még figyelni kell. Valószínűleg hosszabb lesz a leképező kódja Vulkánban, de a menedzsmentje rendkívül hasonló. Az ok, amiért a Vulkan játékok az első pár hónapban jobbak, hogy amíg a DirectX 12-re a Microsoftnak ott a PIX, és az tényleg egy bitang jó fejlesztőeszköz, széles hardvertámogatással, addig a Khronos a validációs rétegén kívül nem kínál sokkal többet. Az egyetlen igazán jó fejlesztőeszköz a Renderdoc+RGP, de ennek a PIX-szel szemben az a hátránya, hogy kizárólag Radeonokon működő kombináció. Tehát a fejlesztésnél a DirectX 12-re tudsz minden gyártónál ellenőrizni, de a Vulkan esetében a Renderdoc+RGP Radeonra korlátozza az egész munkát, és majd a végén érdemes az NV és az Intel hardvereihez igazítani. Na most utóbbi esetében az szokott lenni, hogy a felsőbb vezetés már sikít, hogy meg kéne jelenni, szóval valamennyire összecsapják a kódot, hogy legalább működjön, de jellemzően a sebesség az NV és az Intel hardvereken, 2-3 hónap múlva érkezik meg, amikor az NV és az Intel tud javasolni annyi változást a kódba, hogy a kiadáskori rossz hatásfokra vonatkozó hátrányt le tudják küzdeni. Viszont önmagában a hardver maga jó az NV és az Intel oldalán is, hiszen láthatod a World War Z-t, hogy kiadáskor köhögött mindkettőn, de 3 hónap múlva kapott egy patch-et, és sokkal jobban megy. A No Mans Sky esetében is ez van. Köhög nagyon NV-n és Intelen, de ugyanazért, amiért a World War Z köhögött. Nincs normális fejlesztőeszköz ezekre a hardverekre, így amikor bizonyos döntéseket kell hozni a kód szempontjából, akkor az történik, hogy a Radeonoknak optimális döntéseket hoznak, mert arra tudnak mérni. A többi hardvernél feltételezik, hogy ugyanúgy működik, de közben nem ugyanúgy megy, csak nincs semmi a fejlesztők kezében, hogy ezt meg tudják cáfolni. Szóval menni kell a hardver gyártójához, és kérdezni, hogy ezzel a kódrésszel mi legyen, jó-e, stb. A gyártó meg tudja mondani, csak jellemzően ezt már a kiadás után teszi meg, és kell 2-3 hónap, hogy az erre vonatkozó programkódbeli hátrányokat leküzdjék. Szóval ez a Vulkan esetében a probléma, és nem az AMD hardvere a jobb az API-hoz.
Nyilván egyébként a fentiek azt is eredményezték, hogy a Vulkanra portolók csak Radeont használnak, mert PIX-szintű fejlesztőeszköz nélkül a többi hardver szart sem ér a fejlesztés szempontjából. Nagyon ritka az, amikor egy stúdiónak van saját fejlesztőeszköze, például az id-nek, de ez sok stúdiónak nem éri meg, mert a Renderdoc működik, interoperabilitást ad az RGP-vel, minek ölnének egy rakás pénzt és erőforrást egy saját megoldásra? Olcsóbb Radeonra cserélni a gépparkot. Ezt csinálta az Epic is, pedig nekik lennének erőforrásaik saját eszközökre.
Ebből a szempontból egyébként a DirectX 12 sokkal jobb. A Microsoft nagyon jól felismerte, hogy a PIX egy kritikus komponens, és nagyon lényeges, hogy mindegyik gyártót maximálisan támogassák, amibe komoly erőforrást ölnek. A Renderdoc mögött viszont nincs egy mamutcég a kifogyhatatlan pénztárcájával. Sokkal limitáltabbak a lehetőségeik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Oda nem kell kijelzőmotor, csak encoder szükséges. Elvileg a felhőbe jó lehet, a Google-nek és a Microsoftnak úgyis ilyenekre van szüksége, hogy nagy legyen a szervernél az egy rackre levetített felhasználók aránya.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mármint mi? Hogy virtuálisan 2 mm-rel arrébb lesz az árnyék, mint kellene? Nem hinném, hogy bárki észre fogja venni. Azoknál a játékoknál sem dől senki a kardjába, ahol a víz hullámzásának szimulációját egy távoli szerveren számolják. Sokan nem is tudnak róla, hogy több frame lemaradásban vannak a hullámok, így virtuálisan 2 mm-rel arrébb kerülnek leképezésre.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
apatyas
Korrektor
Aha, és az Intel kártyája egyáltalán jó lesz, a drivere is rendben lesz, teljesítménye is okés, és még RT-t is támogasson?
Hány éves vagy, királyfi? És még hiszel a mesékben? Az nVidia persze ott lesz a szeren.pezo77 #5 2017.12.14. 13:29 Hmm. És ez az e-hajó akkor hol is tud kikötni? Az e-bay -ben? ;)
-
Tyrel
őstag
Igazából lényegtelen hányadikak lesznek a sorban, mert borítékolható hogy nVidia és Intel esetében már a megjelenést követő hétben lesz megvehető termék is, míg AMD-nél csak félinformációk és titkolózás. A 7.-én bejelentett 5500-ak hol vannak? Még a kanyarba se, és full ugyan ez volt az 5700-akkal is, előtte meg a Vegákkal is. Az 5900 és az RDNA2 se lesz különb...
Full el vannak tévedve, persze hogy nem megy jól az RTG (még így a Navi 10 viszonylagos sikere mellett sem), ha minden egyes átkozott terméküket legalább fél évvel a szükséges időpont után küldik piacra. Ezt így nem lehet... Már hajnali 2, mindenki a saját hányásában fetreng az asztal alatt, erre AMD betoppan pirospozsgás arccal és félénken megkérdezi, hogy "na akkor merre van az a buli?"...
[ Szerkesztve ]
Turenkarn
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Ukrajnai háború
- BMW topik
- Milyen egeret válasszak?
- Cyberpunk 2077
- Gondoskodik róla az EU, hogy az Apple felnyissa a rendszereit
- GC24 - Monster Hunter Wilds sem hiányozhatott a Gamescomról
- Orvosi kérdések
- Mobil flották
- Politika
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen