- gban: Ingyen kellene, de tegnapra
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Luck Dragon: Asszociációs játék. :)
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- VoidXs: Tényleg minden játék optimalizálatlan?
- hcl: MS Office365 Linuxon
- Mr Dini: Mindent a StreamSharkról!
- erkxt: A Roidmi becsődölt – és senki nem szól egy szót sem?
- Hieronymus: Három júniusi képem
Új hozzászólás Aktív témák
-
Loha
veterán
válasz
FLATRONW #37553 üzenetére
A G-Sync modullal szerelt monitoroknak nincs alsó frissítési határa (függetlenül a használt paneltől), tehát 1Hz - 240Hz (vagy a monitor által tudott max.) között működik, alacsony inputlaggal, adaptive overdrive-al, amit szintén nem alapértelmezett FreeSync-es monitorok esetén...
-
-
válasz
FLATRONW #35307 üzenetére
Most elég zűrös időszak jön sajnos, jön a nagy őszi friss Win frissítés is, Itt a Turing amiben elérhető lesz onnantól az RTX is hivatalosan. Szóval van mire csiszolniuk drivert. NV eddig is megoldotta ezeket a gondokat, Hitman és AOTS már lassan Maxwellen is gyorsabb mint radeonon dx 12 alatt
-
válasz
FLATRONW #35303 üzenetére
Nem csak az AMD kártyák hasítanak hanem az Nvidia kártyái limitbe ütköznek.980 TI vs 1070 hez . Memória limites, 4 GB lassabb ram.
. Turing alatt nincs különösebb hardveres elmaradás a Vegához képest még sem megy a dolog. Nem OK egyszerűen valami ott még, jönni fog rá javítás.
De egyébként vannak indítási összeomlások is Nvidia kártyákkal, szóval kell rajta csiszolni....FLATRONW : sajnos ez így nem igaz .
-
válasz
FLATRONW #35147 üzenetére
Jaj, itt van 720p meg 900p is, ami kb hagyjuk kategória. 1080p és 1440p az relevánsabb. Kb hangyafinngal, de a 7970 GHz gyorsabb. Nekünk (vagy csak nekem?
) nem, de az NV számára ez is nagyon számít.
Az adok kapok valahogy így volt:
2012 március: GTX 680 (GK104, 294 mm²)
2012 június: 7970 GE (Tahiti, 352 mm²)2012 november: Tesla K20 (GK110, 561 mm²)
2013 február: GTX Titan (drágáért ~92% GK110)
2013 május: GTX 780 (olcsóbban ~70% GK110)2013 október: 290X (Hawaii, 438 mm²)
2013 november: 780 Ti (drágáért 100% GK110)A GK110-ben van +87.5% számoló, ami a méretén látszik is, de ez nem fér bele 300 watt TDP-be, szóval jóval alacsonyabb órajeleken kell üzemelnie. Így 35-50% sikerült 1080-1440p felbontásokon. Ami amúgy jó, csak hát chipméret terén ez kurvára nem hatékony. Végül a Maxwell ezt megcsinálta, ráadásul vicc fogyasztással.
-
válasz
FLATRONW #35143 üzenetére
A 290X az a második e-penis sorvasztó kártya volt.
Aztán jött a Maxwell.
A HD 7970-et az elején picivel elverte a GTX 680, de aztán az idő haladtával a HD 7970 a driverek fejlődésével utolérte, s a GHz Edition pedig megadta a kegyelemdöfést. Kényszerből hozni kellett a GK110-et a GTX 780 személyében vágott VGA-ként, a 680-t meg átnevezték 770-re.
Jó kis verseny volt, hiányzik.
-
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #34048 üzenetére
Igazából ahhoz van köze, hogy az új konzolok is AVX-et támogatnak, és eleve egy minimum igénnyé kezd válni a négy mag, tehát az se számít, hogy sok újabb Celeron és Pentium nem támogatja. Emiatt egyszerűbb csak az AVX-re fejleszteni, mert ha már visszaportolod mondjuk SSE4.1-re, akkor azzal a tesztrészlegnek igen nagy extra munkát adsz, és minden egyes jövőbeli frissítésnél ezt az extra tesztelési munkát hordozod magaddal, ami összességében nem kevés pénz lesz ám. Emiatt ha már úgyis négy mag a minimum, akkor a stúdiók egyre inkább húznak az AVX-hez is egy vonalat, mert a kétmagos AVX-es nélküli gépek már a magszám miatt kiesnek. A régebbi, sokmagos gépek pedig túl régiek, hogy ezekkel törődjenek.
A másolásvédelem nem kifejezetten kötelezné az AVX-et, de persze ha már a motor eleve ezt igényli minimum, akkor nyilván kérhetnek olyan verziót, ami ehhez igazodik. De sose a másolásvédelem határozza meg az erre vonatkozó igényeket.
Tudom, hogy 4-6 magos AVX nélküli procival nem vígasz, de maga az AVX 7 éves, és mindkét nagy konzol támogatja, tehát alapvetően várható volt, hogy előbb-utóbb abszolút minimum igénnyé válik a PC-n belül.(#34045) Keldor papa: A Dunia limitál? Durva lenne, hiszen háromszor nagyobb terhelésre van felépítve, mint az összes korábbi motorja az Ubinak. Megközelítőleg sem jár most ott az aktuális AnvilNext vagy Snowdrop, ahol a Dunia jelenlegi verziója. Mondjuk az is igaz, hogy az AnvilNext és Snowdrop nem is alkalmaz GPGPU cullingot, míg az új Dunia igen, meg egy rakás más trükköt. Emiatt tud most részlegesebb világot megjeleníteni. Valószínűleg ezt a fejlesztést minden más motorjába beépíti majd az Ubi, csak ez azért időbe kerül.
-
-
Crytek
nagyúr
válasz
FLATRONW #33909 üzenetére
Még mindig nem értem... Aminél valami 30%-al gyorsabb hogy lehet ugyanaz a másiknál csak 22%-al lassabb? Ellentmondást érzek...
+ a játékok fps- értékeinél nagyon nincs meg ez a 30% amiről beszélve van..Ez amúgy mit jelent?
99th Percentile? ... Nekem van egy elképzelésem de nem biztos hogy helytálló.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #33392 üzenetére
Nem tudják a Titan V-t olcsóbban adni, mint 3000 dollár. Egyszerűen óriási a lapka. Kétszer akkora, mint a Vega 10. Ez így nem gazdaságos, mert túl nagy a selejtarány. Alapvetően a TSMC és a GloFo is 600 mm2-ben húzza meg a gazdaságosan gyártható lapka határát. Ami fölé megy, az egyszerűen csak úgy gyártható gazdaságosan, ha extrém drága. Emiatt lesz a Vega 20 is 7 nm-es, mert túl nagy lenne a 12/14/16 nm-es node-on, így úgy járna, mint a GV100.
Azzal számolj, hogy egy GV100-zal mindössze 55 lapkád lehet egy 300 mm-es waferen. És ez a maximum. Ha van egy tipikus szorás, akkor könnyen lehet, hogy csak 20 jó lapkád lesz. És eközben a szükséges wafer ugyanúgy 7000 dollár. Ezt nem realitás nagy mennyiségben gyártani. Ez jó 3000 dollár fölé, ahol egy termék eladásán behozol egy rakás selejtet.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #33374 üzenetére
Valahogy el kellene ezt érni a gyártóknál, mert az rendben, hogy az NV a gyártók felé specifikál egy tartományt, amit a gyártó alkalmaz. Viszont pont a végfelhasználó felé veszik el az infó, tehát lesz egy teljesítménykép a fejedben, aztán beugrik az apróbetűs rész, hogy "de lehet 30%-kal lassabb is". Aztán vásárolj bizalommal.
-
Raggie
őstag
válasz
FLATRONW #33276 üzenetére
Az is érdekes, hogy az állításod szerint mennyire "racionális" ember miért nem képes megérteni, hogy a BÁRMENNYIRE is a választási lehetőségeit korlátozó dolog nem jó neki.
Azt mondod erre, hogy az egyik csak csökkenti a választást a másik meg teljesen megszünteti. Nos ha értelmesen továbbgondolod ezt a gondolatmenetet, akkor az első eset is közelebb kerül ahhoz, hogy ugyan úgy teljesen elzárja a választás lehetőségét. Ha ebben az esetben további kis csökkenések lesznek előbb-utóbb ugyan ott lesz.
Egyszóval kötöd magad az első megalapozatlan állításodhoz. Ez lehet a "csakazértis" filozófia miatt, de lehet amiatt is, mert az nVidia-nak elnéznek a fogyasztói sok mindent. Nem tudom, de hogy nem racionális az biztos.
-
Petykemano
veterán
válasz
FLATRONW #33267 üzenetére
Nem értem az érvelésed.
Miért fájna neked jobban ha egy piac 70+%-át birtokló cég monopolisztikus törekvéseket foganatosít partnerein, mint ha egy a piac 90%-át birtokló cég teszi ugyanezt? Merthogy már úgysincs olyan nagy verseny?Nyílván egyébként az intel sem úgy túrná ki az nvidiát, hogy abba olyan nagyon bele lehetne kötni. Például ha a mobil processzorok esetén, amelyekhez mellékel megfelelő teljesítményű gput az intel, mondhatja, hogy ott már szükségtelen és káros a sok pcie csatorna. Persze ha neked pont nvidia (diszkrét) gpuval szerelt gépre van szokséged, nyugodtan vehetsz például ryzenes gépet, vagy minipc-t, nem vagy teljesen ellehetetlenítve. Hát mobilgépet pont nem. De milyen kár ért téged, amikor nem választhattad azt a márkát, amit szerettél volna?
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #33267 üzenetére
Ez azért gondolod így, mert a jog inkább a rációra hat, míg az erkölcsi kérdések az érzelmekre. És az érzelem kevésbé tudatos folyamatokat vált ki, mint a ráció. Ez minden olyan embernél így van, akit inkább az érzelmei irányítanak. És az emberek többsége ebbe a csoportba tartozik. Ilyen ez a kémia.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #33262 üzenetére
De igen. Alapvetően a te érdeked a választás lehetősége, mert ha nincs választás itt, akkor másban sem lesz. Például abban sem, hogy lesz-e egyáltalán HDMI VRR GeForce-on, vagy vehetsz kétszer annyiért BFGD-t G-Sync-kel. Vagy gondolod, hogy a HDMI VRR támogatását véletlenül nem jelentette még be az NV, amikor az AMD már rég megtette...
Ezek a törvények biztosítják a lehetőséget, hogy választhass, és ne tudjanak lehúzni a gyártók 200 dollárral egy FPGA-ért, aminek a funkciója 14 kódsorral kiváltható a firmware-ben.Nem arról van szó, hogy összedőlt a világ, az a gond, hogy ez törvénytelen, mivel hátrányba hozza a fogyasztót.
-
füles_
őstag
válasz
FLATRONW #33260 üzenetére
De ha valaki pont MSI Gaming-et szeretne venni Radeon oldalról, mert az alaplapja, a kutyája meg a mittugyaménmije is MSI Gaming? Vagy csak egyszerűen azért, mert tényleg kiválló hűtés és jó tapasztalatai vannak vele?
Azért ez már valahol az AMD hibája is, hogy a partnerek képesek bele menni egy ilyen NV-s ajánlatba.
Ugyan miért?
Itt lényegében egyetlen egy partneren múlt az egész. Ha egy belemegy akkor már megy a többi is, mert ha nem mennek bele akkor jelentős hátrányba kerülnének azzal egy egy konkurenciával szemben, és 10 eladott Voltából lehet, hogy 8 az az egy GPP partner kártyája lenne. AMD oldalon meg nem tudnak eladni annyi kártyát, hogy ezt a hátrányt kompenzálják. -
füles_
őstag
válasz
FLATRONW #33257 üzenetére
Csak az a helyzet, hogy ezek a gaming brandek hatalmas tömegeket mozgatnak maguk után. ROG Pista nem fogja megvenni az AMD kártyát, mert az nem ROG, inkább vesz NV-t.
Az lenne a minimum, ha ezek az AiB-ek csinálnának egy külön brandet az AMD-nek, de ez nem fog megtörténni, mert óriási kölcségekkel járna felhúzni arra a szintre, mint az (már) NV-s brandjük, amibe már rengeteg pénzt öltek.
Szerintem a legvalószínűbb az, hogy az AMD-sek kapnak majd ilyen MSI Gaming (és megfelelői) féleségű óccsójános-tákolmányokat a GPP partnerektől:
Az Asus majd nyomja a Dual-t, a Gigabyte-nál meg lényegében nem igazán lesz változás, tényleg csak eltűnik az Auros jelzés. Gigabyte-ék eddig is fos, szándékosan elcseszett hűtéseket raktak az AMD kártyákra az NV ekvivalenseikhez képest lásd: kétventillátoros Vega kártyák, kétventillátoros 390-ek stb... -
HSM
félisten
válasz
FLATRONW #32302 üzenetére
Persze, hogy nem engedhetik meg maguknak, amikor mindent meg kell még csinálni a DX11-re is pénzügyi okokból. Igazából DX12-t normálisan kihasználó programeól nem is tudok, hogy egyáltalán létezne...
(#32304) lezso6: Amennyire tudom, ez az újabb generációkra is igaz, csak nem ilyen szélsőséges mértékben.
Egyébként a GCN-re is igaz, hogy direkt optimalizálással (async compute pl.) gyorsabbak. Ilyen téren ami hatalmas előrelépés, az a Polaris/Vega generáció az utasítás előbetöltéssel, ami bizonyos shadereknél óriási előny lehet. -
HSM
félisten
válasz
FLATRONW #31107 üzenetére
Azért tegyük gyorsan hozzá, hogy először csak a sima 780 volt, ami jobban meg volt vágva, mint az eredeti Titan. Utána mikor jött az R9 290 sorozat, azokra válaszul adták ki a fullos 780Ti-t és fullos Titan-t, asszem Black néven. Ott nem kellett vágni a 780-ból, mert a 3GB memória alapból adott neki némi korlátot a 6GB Titanhoz képest.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #30641 üzenetére
Meggyőződésem, hogy most nem erre kutatják a választ, mert ezt könnyen el lehet érni a shaderekkel. Ezek viszont kicserélhetők, akár egy későbbi patch-ben, akár a driverben.
Én azért remélem, hogy ez az eredmény nem a bindless általános hatását mutatja, mert akkor csúnya lesz itt az AC: Origins és a Far Cry 5. Esetleg ha meghajtóban van a gond, akkor addigra megtalálják a probléma forrását. De elméletben nem kellene esnie a hardverek teljesítményének ennyit a bindlesstől. Kb. úgy kellene viselkedniük, mint a Vegának és a Polarisnek. A sample-ök sem mutattak eddig problémát, na persze az is igaz, hogy egy sample és egy játék között hatalmas a különbség.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #30631 üzenetére
Tudtommal a Warhammer 2-t egyik cég sem támogatja. Amolyan árva játék ilyen szempontból.
Igazából a DX12-ben nem kellene ekkorát esnie az 1070-nek. Elvégre a bindless egy sebességnövelő funkció, aminek +1-3%-ot kellene hoznia. Ez megkérdőjelezi a bindless használhatóságát, és akkor tudjuk, hogy az Ubisoft is erre áll át a következő körben. Lehet, hogy korai még. Az is kérdés, hogy az NV jól tette-e, hogy a 384.76-os meghajtónál bindless emulációra váltott át. Nem-e jobban jártak volna, ha marad az eredeti megoldásuk? Esetleg arról van csak szó, hogy még kevés erről a tapasztalatuk és lehet, hogy úgy egy éves távlatban mégis ez a jó megközelítés.
Azért vártam az első bindless játékot, mert sok kérdést tisztázott volna, de mondjuk úgy, hogy csak még több kérdés merült fel. A Polaris és a Vega működik ez megállapítható, viszont más szempontból csak pislogni lehet az eredményeken.
-
X Factor
addikt
válasz
FLATRONW #30631 üzenetére
Azzal, hogy az rx 480 egy 80k-s kártya volt, amíg a bányászok előtt lehetett kapni, az 1070 megy egy 130-140k-s ársávban mozgó vga?
Szaby59 Az első rész jól ment az AMD-ken (Fury-m volt amikor sokat játsozttam vele), az engine ugyanaz, majd az okosok megmondják az okát.
-
Loha
veterán
válasz
FLATRONW #30171 üzenetére
SZVSZ a BF1 irreálisan magas CPU terheléséhez jelentősen hozzájárul a játékon lévő Denuvo másolásvédelem (DRM), így fölösleges messzemenő következtetéseket levonni a BF1 alapján a DX11 / DX12 viszonyáról.
Szerintem semmi nem indokolja a BF1 jelentősen nagyobb CPU igényét a BF3/BF4-nél, és a BF1 Open Beta is lazán hozta min. fpsben a 60-at egy i5-2500k -n, mert azon még nem volt rajta a Denuvo.
A fejlesztők a Doomról utólag levették a Denuvot, így kaphatunk egy kis ízelítőt, hogy mennyivel növeli meg a CPU terhelését:
Doom szerintem nem egy prociigényes játék, főleg nem Vulkan alatt, mégis ebben a tesztben úgy néz ki, hogy procilimit van 1080p -ben az i7-5820k (6 mag / 12 szál) mellett, egy GTX 1060 6GB-al.
Sorolhatnék még pár játékot amiknél szintén irreálisan magas a proci használat, és véletlenül mind Denuvo védelemmel rendelkeznek...
-
->Raizen<-
veterán
válasz
FLATRONW #30171 üzenetére
Ez tökéletesen mutatja a helyzetet, miszerint az fx procik megjelenéskor is egy rakás
jóságsz@r volt... és most is az. Nem ért be a technika hanem inkább lassult!Ennél fejlettebb grafikus motor jelenleg nincs is a piacon. Szóval viszonyítani máshoz is nehéz. Szóval intelhez képest dx11-ben is elég gyászos az fx de dx12-ben ez még jobban igaz.
-
válasz
FLATRONW #30133 üzenetére
Hát ha nem g*nyózás, amit a sráccal csináltatok a 30114-től kezdve, akkor elnézést kívánok, mert csak vérszívás volt. Viszont akkor meg vámpírok vagytok, így fokhagymát és fakarót belétek!
(#30135) ÁdiBá: Nem, dehogy vagy g*nyó, te vámpír vagy! Ezért fokhagymát és fakarót beléd is!
-
-
emmm
őstag
válasz
FLATRONW #29953 üzenetére
Ugyanarról beszélünk, csak másképp fogalmaztuk meg.
Én is úgy gondolom, ha már teli van ez a Vega csilivili fícsörökkel, meg új kártya és agyonhájpolt, az a legnagyobb égés vele, hogy a konkurencia egy éves termékét nem veri agyon. Az meg, hogy fél év múlva milyen lesz a talán sokkal jobb driver miatt...
Tudom, hogy a vörösök fejlődnek a driverekkel időről-időre, csak pont addigra jönnének fel, amikor már kint van az új generáció. Mindig mondom, hogy fordítva ülnek a lovon. Csak egyszer tanulnák már meg végre ezt az amúgy pofonegyszerű leckét...
-
-
pengwin
addikt
válasz
FLATRONW #29947 üzenetére
Mégis miért lenne generációs előnye a Pascallal szemben?
Csak azért nem lesz újabb generáció, mert az AMD elbaszta a dolgot és ennyire elhúzódott a fejlesztés...
Mondjuk ha egy árban lennének én biztos Vega 56-ot vennék és nem GTX 1070-et, de egyébként a Vegával tényleg nehéz lesz gémer tömegeket meggyőzni az AMD-re váltásról.
Főleg a V64 lett nagyon megkérdőjelezhető versenyképességű, egyszerűen jobb a konkurencia, amihez nagyban hozzájárul a V64 már-már kezelhetetlen fogyasztása.
De ettől még a "kicsi" Vega még egész tűrhető lett. ASUS Strix, Sapphire Nitro vagy TriX hűtéssel venném is MSRP (vagy ahhoz közeli közeli) áron. -
HSM
félisten
válasz
FLATRONW #29740 üzenetére
Miért okozna bajt az MSAA a Vega-nak?
Én csak azt mondtam, hogy ha olyan beállítást tesztelünk, ami memória sávszélesség limites(ebb), akár Vega-n, akár 1080Ti-n, akkor csökkenni fog a Vega előnye Dirt-ben, ami teljesen érthető, hiszen ezen paraméterükben igen hasonlóak.
Így nem fog kijönni az architekturális előny az regiszterigényes shadereknél, mert elmegy a szűk keresztmetszet más irányba.
-
HSM
félisten
válasz
FLATRONW #29734 üzenetére
A (nem OC) 1080Ti-nek ugyanaz a 480GB/s van, mint a nagy Vega-nak. Ha eltoljuk MSAA-val (lehetőleg 8X-ossal, mert minimum nagyítóval kell keresni a különbséget a mozgóképen, de legalább két pofára zabálja az erőforást) a szűk keresztmetszetet a memória sávszélesség felé, akkor apadni fog az előnye, mert itt tök egálban vannak.
Nekem megfelelőnek tűnik amúgy ez a 480GB/s, főleg a Vega architektúrális fejlesztéseivel, amit sosem tartottam szükségesnek, az a 8X-os MSAA. Szűk keresztmetszet mindig lesz valami, mivel minden programnak, beállításnak más az ideális, nem tudsz "tökéletes" arányú VGA-t alkotni. -
-
-
füles_
őstag
válasz
FLATRONW #29152 üzenetére
Az interposer ára nincs benne, de az abból adódó kölcségtöbbletet valamilyen szinten kompenzálja az egyszerűbb PCB.
Egy komplett HBM2-es videokártya biztos drágábban állítható elő, mintha GDDR5X-szel lenne felszerelve, de szerintem itt nem kell egetrengető különbségekre gondolni. A HBM és a GDDR5 között volt nagy az árkülönbség, HBM2 vs GDDR5X esetén ez jelentősen csökkent.(#29153) Szeszkazán
Egy biztos, hogy nagyon furcsán viselkedik az AMD, ha a Vegáról van szó. Az eddig látottak alapján én nem fűzök hozzá nagy reményeket. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #29111 üzenetére
Nem nekik kellene ezzel foglalkozni, hanem a Unity és az UE fejlesztőinek, de ott is nagyobb fókuszt kap az ultramobil, mint bármelyik másik rendszer.
(#29112) HSM: Arányaiban a rajzolási parancsok kiadása a legnagyobb munka, főleg a mai játékokban. A PC-t ne számítsd, mert ott a driver elvisz egy rakás szálat a saját feladataira. Persze, hogy skálázódik. Gyakorlatilag minden rajzolási parancsnál ellenőrzi a meghajtó, hogy a szükséges erőforrások megvannak-e. Ez azért nem kis meló. A konzolon ez nem így történik meg, ezért nem pontosan a meghajtó felel itt.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #29109 üzenetére
Azon, hogy az egyes stúdiók problémájára van megoldás, míg a komolyan optimalizáló, főleg first party stúdiókéra nem volt, tehát világos, hogy melyiket kellett orvosolni. Az, hogy ki él a megoldásokkal, nos mindenki eldöntheti maga, senkinek nincs pisztoly szorítva a fejéhez, hogy optimalizáljon.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #29105 üzenetére
De ez egyáltalán nem igaz. A köztes generációt a first party fejlesztők visszajelzései szerint tervezték, és világos volt az az elsődleges visszajelzés, hogy a GPU a kevés. Nem csak a Sony kapta ezt az üzenetet, hanem a Microsoft is, tehát nem egyedi az esetről van szó. Ha az lett volna a visszajelzés, hogy kevés a CPU, akkor kapott volna az Xbox One X és a PS4 Pro még nyolc magot. A lapka kiterjedését alig növelte volna, technikailag lehetséges, mert az AMD mondta korábban, hogy 16 magig lehet skálázni a Jaguárt, illetve a kompatibilitást sem érte volna hátrány, mert ezeket a magokat olyan módban lehet működtetni, ahogy akarják, tehát futna minden eddig megjelent program. Ellenben azt látta a Sony és a Microsoft is, hogy azok küzdenek CPU-limittel, akik a magasabb szintű hozzáférési felületeket használják, holott pont a CPU-limit leszorítása érdekében van mindkét konzolnál igencsak alacsony szintű hozzáférési szint is, amelyeket a first party stúdiók használnak, és az tőlük származó visszajelzések szerin GPU-limit van. Ergo mindenki, aki CPU-limittel küzd csupán a motorjának limitációit tapasztalja nem a hardverét, és bármikor tudnak rajta javítani, amint jóval hardverközelibb elérésre váltanak. Ellenben a GPU-limiten nem tudnak igazán javítani a first party stúdiók, hiszen assembly szintre azért nem célszerű már lemenni, így a Sony és a Microsoft is úgy döntött, hogy érdemes lenne a GPU erejét növelni ebben a köztes generációban.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #29092 üzenetére
De mit akarsz még átrakni a GPU-ra? A modernebb motorokban már rég ott van az összes GPU-val hatékonyan gyorsítható fizikai számítás. Ami nincs ott az azért nincs, mert nem hatékony a GPU-val való gyorsítása, vagy azért, mert egyéb limitációk miatt nem használható az eljárás egy játékban.
(#29094) FLATRONW: A legtöbb first party stúdió GPU-limittel küzd a konzoloknál. Azért kaptak erősebb GPU-t a köztes lapkák. A többi stúdiónak nem nagyon éri meg fejleszteni a hardveren, mert nekik ott az előrelépés lehetősége a legalacsonyabb szintű hozzáférési móddal. Nekik csak ez egy jelentős gyorsulási lehetőséggel kecsegtet anélkül, hogy a felhasználónak új verziójú, erősebbre tervezett konzolt kellene venni.
(#29095) #Morcosmedve: A motor fejlesztésének a gyártók nézőpontjából addig semmi értelme, amíg a fejlesztői igény nincs meg rá. Ott a Nitrous példának. Mindegyik gépen rendkívül jól skálázódik, rendkívül újszerű a leképezője, és mindegyik platformra a legalacsonyabb hozzáférési rétegre van optimalizálva. Ennél jobbat az AMD és az NV sem tudna csinálni, és ez licencelhető bárkinek, mégis a tömeg Unity-t vagy UE4-et választ, amelyek az ultramobil eszközökre optimalizált leképezője mérföldekre van a kiadók által finanszírozott, amúgy nem licencelhető motorokról.
-
#Morcosmedve
veterán
válasz
FLATRONW #29094 üzenetére
Egyébként én elég szánalmasnak tartom, hogy még mindig FHD 30fps (max) mellett vannak leragadva, hihetetlen gyenge... PS3 ugyan ez volt. Nyilván adott időszak grafikai színvonala mellett, de ez nem magyarázza, hogy "nyomi"-ezer verziós PC konfigurációkon jobban fut minden. Hovatovább mesterséges butításnak tartom. Az a másik kérdés, hogy mind a két gyártó, miért nem ad egy alap, de jó motort adott konzol mellé, hogy ki lehesen használni, legalább azon a szinten, amit tud. Kíváncsi lennék egy játékra kigyúrt intel/ryzenv2-amdvga platformra is. De mivel látszik, hogy nem 6-8 év, hanem 2-4 évre akarják eladogatni a konzolokat is (amig megtehetik), szépen bele fognak kakikálni a továbbiakban is ezekre a dolgokra.
-
HSM
félisten
válasz
FLATRONW #29092 üzenetére
Az lenne a sorsa, mint a PhysX-nek. Néhány játékmenetet nem érintő effektre be lehetne vetni, és ennyi. A lényeg, a játékok komplexitása érdemben nem változna, mert annak a kis gépen is ugyanúgy mennie kell.
Plusz ne felejtsük el, a nagygépnek 4K a célterülete, oda már a nagyobb GPU sem annyira izmos, mint elsőre tűnik. -
Locutus
veterán
-
nubreed
veterán
válasz
FLATRONW #28564 üzenetére
Ez egy tendencia szinte. Sok mai játék, sokkal szarabbul néz ki, mint néhány évvel ezelőtti címek.
Pl. Szerintem DA:I jobban néz ki, mint a ME:A. Sőt nekem a GTA 4 jobban tetszik grafikailag mint a GTA 5.
A Deus Ex Mankind Dividednál alig lehet észrevenni valami változást a Human Revolution -höz képest. Miközben a játékok hardverigénye folyamatosan növekszik... -
válasz
FLATRONW #28139 üzenetére
semmin. a 4 milliárd dodó az 4 milliárd dodó.
a kontextus viszont elég fontos. a softbank nagyban játszik, 50 milliárd dollárnyi befektetésről egyeztek meg közvetlenül trumppal, 30 milliárdnál is többet adtak múltkor az arm-ért, pár éve 10+ milliárdot tett a japán vodába, a jenki sprintbe 20+ot, stb.
az nv-s részesedésük valószínűleg egy több más nagybefektetővel közösen gründolt, 100milliárdos, ai/önvezető autós alapba megy. -
-
Raggie
őstag
válasz
FLATRONW #27287 üzenetére
Nem akarok a vitátokba avatkozni, mert nem néztem meg a konkrét videót, de pl ez a "tükröződő talaj" effektus engem rohadtul zavar/zavart. Én örülnék ha reálisabbak lennének ilyen szempontból a játékok.
A víz is pl sok játékban szinte tök átlátszó, miközben a valóságban gyakorlatilag alig látni bele a vízbe ha nappal kültéren van az ember, mert a felszíne annyira tükrözi a környezetet.
Ez a két grafikai logikátlanság már egy jó ideje zavar, most ki kellett írnom magamból. Sry, hogy beletrollkodtam a vitátokba!
-
válasz
FLATRONW #27285 üzenetére
Az fel sem merül, hogy a napfénynek a sima talajon nem is kellene így tükröződni? Egy eset van, ha éppen eső után vagyunk és a nedves felület miatt verődik így vissza a fény. Azonban nem láttam utalást a videóban arra, hogy éppen eső utáni helyszínen játszódik ez a jelenet.
Tehát valamiért NV-n jelenik meg rosszul a tükröződés.
Persze mindenkinek joga van a saját szemszögéből vélt igazát hangoztatni.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #27281 üzenetére
Az se lett volna erősebb igazából, hiszen a nagy látótávolságú jeleneteknél 20 fps különbség is volt. Itt azért erős a Radeon, mert a CI Games frissítette a CryEngine-t, és az újabb verziók PC-re kétféle módon oldanak meg bizonyos problémákat. A szabványos kóddal szimplán sok atomi műveletet használ a motor a préseléshez, míg a másik mbcnt és ballot függvényt. Utóbbi sokkal gyorsabb már a kód szintjén, de csak GCN-en fut le, tehát a GeForce rá van kényszerítve a lassú kódra. Ennyi a titok. Majd ha az egész szabvány lesz a shader modell 6-ban, akkor ezek a függvények általános szinten is használhatók, és valamennyit gyorsítanak a GeForce-on is.
-
#45997568
törölt tag
válasz
FLATRONW #27281 üzenetére
Nincs azzal gond ha egy jatek fekszik az egyik gyarto kartyajanak, amig X jatekra vetitve atlagolom az eredmenyeket es hasonloan szerepelnek. A gond az lenne ha csak az egyik gyarto kartyain mennenek a jatekok rendesen, a masikon meg ugy ahogy.
Ez a jatek az AMD kartyaknak fekszik, masik meg az NV-seknek.
A logikat sem ertem, miert kellene egy agyontuningolt kartyaval versenyezni, az igazan mervado az lenne, ha fognal ket hasonlo egyedi huteses kartyat, betenned a gepbe es ugy probalnad ki, leven a felhasznalok 90%-a amugy is igy hasznalja, nem allitgat semmit.
-
válasz
FLATRONW #27151 üzenetére
Létezett, az volt a HD7870 alacsonyabb órajelen. Ebben a PH tesztben pont szerepel a HD7870, R9 270 és R9 270X. Mindben 1280 shader van. A TPU valamit elírt szerintem, mert az R7 265-nél is olyan paramétereket írnak, mint amit linkeltél R9 270.
Amúgy toll az AMD fülébe, ezzel a kavarással a neveknél. Ezért is volt felháborító a GCN1-es HD7850 3. kiadása, magasabb számozással, mint a 2. átnevezésnél.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5800X 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Bomba ár! Fujitsu LifeBook U7310 - i5-10GEN I 16GB I 256SSD I 13,3" FHD I HDMI I Cam I W11 I Gari!
- AKCIÓ! MSI B450 R5 5500 16GB DDR4 512GB SSD RTX 2070 8GB GDDR6 Rampage Shiva Zalman 500W
- LG 48GQ900-B - 48" OLED - 4K 3840x2160 - 138Hz & 0.1ms - G-Sync - FreeSync - HDMI 2.1
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800 XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest