Hirdetés
- urandom0: Száműztem az AI-t az életemből
- eBay-es kütyük kis pénzért
- Brogyi: CTEK akkumulátor töltő és másolatai
- Elektromos rásegítésű kerékpárok
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Real Racing 3 - Freemium csoda
- hcl: Poco F2 Pro facepalm
Új hozzászólás Aktív témák
-
Hívjuk már magyarul.
Lánczos Kornél találta ki, magyar technológia. 
-
... és már ismét csúsztatás-országban vagyunk
Minden tesztben az AMD a jobb, ami konkrétan azt jelenti, hogy két tesztben nagyítóval kell keresni az eltéréseket, a harmadikban pedig az AMD jobban kezeli az aliasingot, viszont az nVidia ad élesebb képet. Hát ez meg hogy lehetséges? 
És miért is annyira jó, hogy az AMD a monitor hw-skálázóját használja? Annál nem lehet jobbat írni szoftveresen? Különösen, ha nem egy sokszázezres monitorról van szó? Ejjjj...Szóval megint ott tartunk, hogy az AMD jobb, mert AMD. Ezt eddig is tudtuk

-
#85552128
törölt tag
Pl. a Rise of The Tomb Raideré is, ez már kettő abból a "sokból" ami van. Egyedül az AOTS crashel, de ha az asztal is a DSR felbontásra van állítva már az is működik tehát inkább játék hiba... A lényegen pedig nem változtat, működnek ezek DX12 alatt is, ha a játék kicsit is normálisan van összerakva.
-
Egyrészt ez marhaság, én használtam egy csomószor a DSR-t, és ehhez még csak nem is közelít az eredménye. Még mindig egyrészt, az elmosást ki lehet kapcsolni. Azon persze meg sem vagyok lepve, hogy az AMD megoldása szokás szerint jobb - legalábbis elméletben

Másrészt, a HUD valóban lehet probléma, bár látni kellene hozzá, hogy véleményt tudjak mondani róla (én már csak ilyen földhözragadt vagyok
).
Harmadrészt - miért nem? Mondjuk személy szerint leszarom a DX12-t, de hogyan tudunk ilyet kijelenteni a még meg sem jelent DX12 rendererről?(#21787) proci985: ohshit...
-
mcwolf79
veterán
Hát tapasztalatom szerint az AMD VSR ugyanúgy mosotfos lesz ,mint az NV féle DSR-nel.
Sőt, míg AMD-vel hányingert kaptam a látványtól az elmosódás miatt NV-vel R6 Siege alatt és WoWs-nál is kielégítő a látvány, kevésbe érzem elmosottnak.
De persze tudom, mint mindenben ebben is az AMD a favorit
-
huskydog17
addikt
Tudtam, hogy el se olvastad a teszted csak a grafikonokat nézed és pont emiatt jelentesz ki bullshit dolgokat.
Esetleg a frissebb tesztjüket is sikerült megtalálni?Az utolsó bekezdést ajánlanám figyelmedbe, illetve ezeknél a teszteknél minden effekt be volt kapcsolva, vagyis a GPUOpen is!
Ez a Total War Warhammer egy nagy rakás fos, semmit nem ér, mert nem lehet vele normálisan tesztelni. Mindenhol - a PH-n is! - a beépített benchmark-ot használják mérésre, ami azért rossz, mert semmi köze a valósághoz! A beépített benchmarkhoz külön optimalizálásokat kaptak az AMD VGA-k, hogy magasabb számokat tudjanak a marketing anyagokban felmutatni, mint DX11-ben. Ez működik is. Amint azonban a valódi játékban mérjük a sebességet, az AMD kártyák - mily meglepő - DX11-hez képest sebességet vesztenek!
Nyugodtan nézd meg a grafikonokat, az adott grafikon felett olvasható, hogy pontosan hogyan történt a mérés. A PCGH már régóta, évek óta hangoztatja - nagyon helyesen -, hogy a a beépített benchmarkok semmit nem érnek, hiszen ezekhez általában külön optimalizálásokat vetnek be marketing célból, aztán a valós játékban meg gyökeresen eltér eredmények születnek. Ezért készít a PCGH mindig egyéni tesztet és elhatárolódnak a beépített szaroktól.
MSAA-hoz pedig jobb lett volna talán a Supersampling elnevezés és akkor talán jóval kevesebben kapcsolnák be azt ész nélkül, de ettől még tetű lassú. A játékosokat nem érdekli és nem is fogja érdekelni, hogy miért olyan a CHS amilyen, ők csak azt látják, hogy az effekt csúnya és lassú.
-
Addigra lehet lesz Deus Ex implant... ki tudja lehet AMD GPU-val.

(#21694) gbors
Akkor biztos én értem félre a "kvázi láthatatlan" szöveged... mindegy. Most sem értünk egyet. Nem új.

Nem is kell, te tudod mit akarsz. No meg végülis szubjektív valóban ki mit lát.
Elromlott az értemező rendszerem, mint mindig.
Igazából akkor nem azt kellet volna írni hogy nem azért veszel 460-at mert Deus Ex mediumra felesleges, hanem nem akarsz többet költeni. Máris érthetőbb a szitu-álláspontod.

-
Abu85
HÁZIGAZDA
Hozzátéve ehhez: Az AA egy másik probléma, és nincs köze az árnyékokhoz. Azzal ugyanakkor egyetértek, hogy a PC-s szabványos API képességei az AA-ra vonatkozó lehetőségek tekintetében messze elmaradnak a konzolos API-któl. Már rég szabványnak kellene lennie a manuális interpolációnak és a fedettségmintáknak. Ezzel hozható lenne PC-re egy csomó konzolos analitikai AA, ami gyorsan ad kiváló minőséget.
-
TTomax
félisten
"Egyrészt a CHS erőforrás-igénye még így is a fele PCSS-nek"
Persze csak akkor ha a 5m-en belül eltűnik...és igen pontosan az a gond,hogy nem létezik rá gyorsabb megoldás,nevetséges hogy DX9óta nincs pcre egy olyan élsimitási eljárás ami nem temporal és nem negyedeli az fpst ha megfelelő minőséget akarsz,brute force MSAA,ahh az kell a népnek...vicc....
A GameWorksöt is be lehet normálisan/paraméterezhetően építeni,és még jól is néz ki,lásd Dying Light,vagy Witcher,de hát beleh@nyni jóval egyszerűbb és olcsóbb lásd Batman...Azért gondolom az AMD ajánlása,az hogy ezeket kapcsold be tesztre valahol csak ki kell hozni a Tflops előnyt.
-
TTomax
félisten
Ide is eljutottunk az óceán alatti város tesszelálásától....ez a GPUOpen sem jobb semmivel mint a Gameworks,csak máshogy van csomagolva,hogy emészthetőbb legyen.Haszontalan hulladék effektek gyújtóhalmazai,amit értelmes játékos azonnal lekapcsol,és ez a halmaz évről-évre csak nő,hiába no ez kell a játékiparnak és a pc-s játékostársadalomnak....
-
-
Petykemano
veterán
Tehát tulajdonképpen a cél nem az, hogy lehetőséget nyissanak a fejlesztőknek, hogy az amd hardverét jobban megismerve jobb, gyorsabb kódot írjanak. Hanem az, hogy gyorsabban és jobban tudjanak dolgozni pc-re, de legalábbis amd hardverre mindenképp, amely mód az amd hardvernek feltehetőleg jobban vagy inkább kedvez. (Mint a gameworks esetén is, ugye)
-
Yutani
nagyúr
Értem. Tehát a nagy stúdiók motorjai tartalmazni fogják az AMD specifikus kódokat, és ezzel azok is jól járnak, akik azokat licenszelik. Emellett marad az NV sebességelőny a "sima" DX12 játékokban, nem is beszélve az esetleg korábbi API-kra érkező játékokról. Vagy hogy képzeljem ezt el?
-
Petykemano
veterán
Ez szép eredmény, vagyis hogy hardveres fejlesztés nélkül, a tavalyi kártyákat szoftveresen felfejlesztik arra a szintre, amihez a konkurenciának a hardveren is dolgoznia kell.
Csak ebből hogy lesz eladás, bevétel? Szép eredmény, csak nincs meg az a fajta átütő ereje, mint egy 1080-nak amit launchkor elképédve az eredményeken egyből mindenki meg akar venni -
Yutani
nagyúr
Már látom, hogy az NV tulajok és Abu-ellenesek, mikor ezt olvassák, a vudu babáikat (amelyre valamelyik Abu-féle AMD jós cikk van rátűzve) szurkálgatják sátánian kacagva, miközben legbelül a félelem jeges marka szorítja össze szívüket és vízipisztoly-szerű hasmenés előérzete mocorog beleikben...
-
huskydog17
addikt
Könnyű megszerezni hitelesítést egy nem létező tesztről. Bárki kaphat a PCI-SIG-től hitelesítést, ami szart sem ér, ugyanis a PCI-SIG NEM méri/ellenőrzi a PCI-E sín fogyasztását!
Tehát igen, az AMD verheti a mellét, hát hogy nekünk van erről papírunk, ez igaz, csak sajnos az a papír semmit nem ér, pontosabban a PCI-SIG intézet hitelesítése nem ér semmit.
Az előírt "szabványkövetelményeket" tehát nem kötelező betartani, mert nincs semmilyen ellenőrzés.A PCI-SIG ezen nem is szándékozik változtatni, mert a feleslegesnek tartják, ugyanis AZ AMD-n és NVIDIA-n kívül a többi tag csak alacsony fogyasztású terméket kínál, így két tag miatt nem akarják bevezetni.
Innen tehát a VGA-knál a PCI-E lógó totál értelmetlenné válik, úgyis mindegyik meg fogja kapni a hitelesítést. Ezen innentől kár rugózni. Ennyit a szabványokról és a PCI-SIG létjogosultságáról.Ezt mind a PCI-SIG vezérigazgatója közölte.
-
namaste
tag
A program elküldi a shadert a drivernek, hogy fordítsa le, ilyenkor nincs rajta semmi DRM, teljesen szabványos HLSL binárist ad át a drivernek. Itt jön a csere: ezt a shadert nem kell lefordítani natív GPU kódra, ha van a driverben előre lefordított, optimalizált változat.
A GameWorks-t nem kötelező használni, ha valaki tud jobbat, írjon jobbat, még a GW játékokban is lehet alternatív megoldások közül választani a játékosoknak. -
daveoff
veterán
Ezek alapján megint alulmarad az AMD az első teszteknél, hetek/hónapok múlva meg már senkit nem fog érdekelni mennyit javult a teljesítmény, az első benyomás számít. Akkor legalább halasztották volna el a megjelenést, ha tényleg pár hét, az már nem számított volna a féléves halasztás után.
NV-től meg már jött Game Ready WHQL driver a játékhoz.
-
Loha
veterán
A referencia RX 480 semmilyen formában nem mehetett át a PCI-SIG hitelesítésén, és nem is felel meg a szabványnak a szoftveres fixszel sem, mert a kártyán lévő 6 tűs PCIe tápcsati nem szabványos.
Hiányzik az ábrán kékkel jelölt Sense A tüske, helyette föld van:Tehát RX 480-on egy olyan PCIe 6 tápcsati van, ami valójában terhelhetőségben megfelel a 8 tűs PCIe tápcsatinak, mert 3db 12V és 3 föld van benne, de a 2 érzékelő tűt (Sense A, Sense B) lespórolták vmiért.
-
A szerecsenmosdatás innentől nem érdekel... majd next time erre is figyelnek.

Nyilván senki nem mondta hogy emiatt nem lehet használni megelégedéssel a kártyákat... itt a PH-n is amugyis sokan szénné húznak mindent, ami már önmagában kilép a szabványokból meg a specifikációkból gyakran.
Csak annyi hogy egy referencia kártyánál, ez ciki... minimum. Helyes is hogy vannak következményei.

Meg hogy vannak partnerek akik kimondottan ezzel reklámozzák a termékük, hogy "nézd mi tudunk VRM-et tervezni jól is, szabványokra figyelve", jobb a PCB-nk.

-
Ja igen, csak úgy rémlik hogy így meg a 6PIN-t terhelik szabványon felül... cseberből vederbe.
"You have to wonder why this wasn’t the direction taken by AMD engineers initially. As you will find in our results, the 6-pin connection is definitely drawing more than the 75 watts that it is rated at, but the 6-pin cabling and connectors are actually rated at 8-9A per pin, rather than 5.5A total for the PEG slot. If you are going to draw more power than rated over one of the two options, it’s clear that the over engineered and directly fed 6-pin connection is the way to go. I can only assume it was an oversight on the board team that allowed it to happen. (Also, let’s not forget that using an 8-pin connection and weighting it towards that would have prevented both issues.)"
Amugy igen, érdekes lehet hogy hogy ment át a certifikáción... de az még érdekesebb hogy hogy lehetett ilyet eleve tervezni...

-
-
mindig rá akartam kérdezni, hogy mi történik, amikor valami miatt (stutter, microlag, jelenetváltás) kiesik az fps a freesync működési tartományból. ha ez egy tranziens tüske, akkor annak nyilván van egy rövid ideig tartó direkt hatása, de hogy szinkronizál újra vissza a freesynces monitor, amikor alulról beér az fps a működési tartományába?
-
killer095
őstag
Ismerős kapott kulcsot, ott próbáltuk G-syncel adta ugyan azt mint más gamek esetén, nem csúszott a kép szét, nem volt semmi hiányosság, most akkor ez hogy van ?
Azt amúgy lehet tudni hogy a free syncnek mennyi a maximális, és a minimális határa? Van már 200Hz-es free monitor is ki tudja ezt a tartományt használni? Vagy még mindíg 90 a felső határ, úgty emlékszem egy időben ez volt a max!

-
Loha
veterán
No Man’s Skynak van offline módja (No Man’s Sky Offline Mode),
és játszható a Steamet offline -ba rakva is."A Partner alkalmazás" az AMD által adott, csak a benchmarkot tartalmazó Total War: WARHAMMER, amivel teszteltek is? Szerintem azon nincs Denuvo, vagy deaktiválva van a hardver ellenőrzése.
"Games protected by Denuvo require an online re-activation for every hardware upgrade. Denuvo limits activations at 4 hardware upgrades per 24 hours."
-
Valahogy kifelejtetted a Battlefieldeket, GTA5-öt... Amik ugye tesztelhetőek is, és még évek után is fényévekkel népszerűbbek egy AoTS-nél, vagy Sniper Elitenél...
A Doommal meg pl addig kéne tesztelni, amíg még érdekel valakit. Mégsincs benne az új 460X tesztben sem.
No mans Sky teszt lesz pl? -
daveoff
veterán
Ha a játék választásnál pusztán technológiai szempontok döntenek, akkor ezzel megint mi olvasók vagyunk pofán köpve. Ha technológiai blablát akarok olvasni elolvasom a hszeid, nekem az bőven elég, de ha egy videokártya teszt érdekel, akkor olyat akarok olvasni, amiben számomra(és a többség számára) érdekelt játékok vannak. Nem értem miért nem lehet külön választani ezt a két dolgot. Most gondolom jön a válasz, hogy kismillió teszt van a neten olvassam azokat....
-
Szerintem elsősorban a játékok népszerűsége alapján kellene a tesztbe besorolni őket (hogy aktuálisan mennyien játszanak még vele az adott időpontban), és maximum másodlagos szempont a technoblabla.
Egyrészt, a legtöbb singleplayer játék már 3-6 hónappal a megjelenés után se érdekel senkit, szemben egy onlinera kihegyezett valamivel, amivel évek után is sokan játszanak.
De azt minimum óriási hibának tartom, ha kivesztek egy népszerű online játékot csak azért, mert régi, vagy mert technikailag nem olyan mint az AMD vágyálmai...
-
-
mlinus
őstag
az átlagember általában akkor upgradel ha van valami olyan tömegjáték, ami már nem megy/gyengén megy az adott vga-n.
a sniper elite, thief és az aots annyira középszer és réteg, hogy szerintem ezeket a többség átugorja. a tech showcase és a popularitás között kéne egy jobb ellensúly. a witcher 3 pl szerintem alapvetés kéne hogy legyen, még ha a technikai megvalósítás unalmas is.
-
Gainka
őstag
Fú imádom az ilyen pofára eséseket
: Már le is tesztelték a srácok. Szerintem hétfőn megjelenik,
Igyál meg egy korsó sört helyettem is.
-----------------------------------------------------------
Angol tudósok, idén furcsa dolgot észleltek. Nem elég hogy a varjak idén korábban jöttek az interneten, de még a fekete tollukat is lecserélték zöldre. Hangos károgásuktól zeng az internet. Az új kinézetű madarakat Varjúvídiának nevezték el. Bocs,![;]](//cdn.rios.hu/dl/s/v1.gif)
-----------------------------------------------------------Szerintem el kéne már felejteni ezt a károgást, én más oldalakon sem látok több Nvidia tech hirt.

-
A TXAA és társai a lehetőségek szar kihasználása. Én konkrétan egyetlen olyan review-t nem láttam, ahol pozitív értékelést kapott volna. QB ua. Lehet, hogy a cél a filmes hatás, de még jobb lenne, ha az lenne a cél, hogy tetsszen az embereknek. Veszek qrvadrága VGA-t azért, hogy rondább legyen a játék - a hülyének is megéri
Ráadásul míg a TXAA kikapcsolható, a QB baromsága tudtommal nem.Még egyszer - a CPU-limit megoldásához nem kell low-level API. A DX11-ben a vonatkozó részt ki kellett volna cserélni, igen.
A fejlesztők mérései sokat nem érnek, mert érdekeltek abban, hogy valamilyennek mutassák. Független, in-game méréseket szeretnék látni, ilyenel csak az AotS kapcsán találkoztam.
Azzal amúgy nincs gondom, ha csak a GCN profitál belőle, mert ha ilyet tud az arch, és a fejlesztők beleteszik a munkát, akkor persze, hogy legyen gyorsabb. Ha tényleg érdemlegesen gyorsabb.Alternatív fordítókat írni és karbantartani persze, hogy teher. Nem is mindig éri meg - persze erre csak akkor jön rá az ember, amikor már belement a hegység méretű munka.
-
huskydog17
addikt
"Jó minőség még a Hitman, a Total War Warhammer, illetve a Quantum Break."

Persze, hogyne a Metacritic is téged igazol a kemény 3,4 pontjával (nem). A fejlesztők unalomból és hülyeségből csinálnak külön DX11-es leképzőt és a játékosok hülyeségből örülnek ennek.

#21011: "Azt elemeztem, mert gondolkozunk azon, hogy benne lesz a tesztekben."
Már ne haragudj, ha egy közutálatnak örvendő, pocsékul sikerült játékot agyon dicsérsz, majd lehetőséget látsz, hogy bekerüljön a VGA tesztekbe. Ezek után mégis mi alapon várod el (illetve a többi PH cikkíró), hogy függetlenként tekintsenek rád, illetve az oldalra? látod, pont az ilyen és ehhez hasonló lépéseitek miatt panaszkodnak olyan sokan, sőt ahogy látom egyre többen az írásaitok minőségére.
#21008: "A legjobb minőséget az Ashes of the Singularity jelenti"
Ne haragudj, de innentől az írásaidat nem fogom tudni komolyan venni! A kb. 10 éves lemaradásban lévő látvány valóban "zseniális" alkotás (nem).
-
Nem, a kulcskérdés az az, hogy a problémákat úgy oldjuk meg, hogy a megoldás által generált új problémák ne legyenek nagyobbak az eredetinél. Az nVidia is befürdott a TXAA-val (megérdemelten), és a Quantum Break "hangzatos f***ság" fantázianevű temporális projekcója is mellé való a szemetesbe.
Mással vitatkozol, mint amit állítottam
A CPU-limit kinyírása tényleg fontos, de nem kell hozzá low-level API. Ennyit mondtam, ezen szerintem sok rugóznivaló nincs.Az aszinkron compute-tól eddig hatalmas eredményeket nem láttam. Emellett az AMD a Polarisról mondta is, hogy ment bele olyan okosság, ami az a-c számára előnyös szituációk számát csökkenti, az nVidia eleve azt kommunikálja, hogy szerintük nem kell (jah, tudjuk, hogy miért, de nem tolják a szekeret), fejlesztők meg többen nyafogtak, hogy munkaigényes és ha kicsit elszúrnak valamit, akkor nemhogy nem gyorsul, de lassul a kód. Izolált eredményeket kéne látni 6-8 játékban, bármelyik AMD kártyával - az AotS-en kłvül hol van jelentős értéke?
Amit a Doomról írsz, azt nem fogom. Az én fejemben úgy él a dolog, hogy a shader intrinsics (hívjuk így) használata külön kódutat jelent a két gyártóra. Nem?
-
Tegyük fel, hogy amit leírtál, az az első betűtől az utolsóig 100%-ig megállja a helyét. Akkor ebből két dolog következik:
- A játék alatt futó motor technológiai érettségének csak erősen limitált hatása van a játék által nyújtott vizuális élményre - a felhasználói visszajelzések alapján néhány egyszerű dologra odafigyelve sokkal jobb lehetett volna
- Annyira technológiai szemmel nézed a játékokat, hogy egy átlagos játékos nagyon keveset tud profitálni a véleményedből - agyba-főbe dícsérsz egy olyan játékot, ami rendelkezik igencsak zavaró vizuális problémákkalIgazából az a gond a low-level API-kkal is, hogy jelenleg 80%-ban a technofétis szintjén vannak - szívesen elhiszem, hogy nyálcsorgatóan szép programozói megoldásokat lehet bennük csinálni, de egyelőre a gyakorlati hasznuk kimerül a CPU-limit kitolásában (amihez igazából nem kellene low-level API), valamint egy igen limitált aszinkron compute-ban, aminek még erősen (sőt egyre erősebben) kérdéses a jövője. Intel + nVidia userek számára még ez a kettő is alig-alig jelent valamit
És akkor ott a Doom, ami lehet, hogy az első lépés egy igencsak durva szegmentálódás felé. Ami nem baj, csak éppen minimális köze van a low-level fantáziálásokhoz.Szóval nagyon érdekes lesz ez a Deus Ex

-
cyberkind
félisten
Csak a játék működik rosszul, semelyik beállításon nem szép(finoman fogalmazva) de legalább fullon ha akció van a 60-at még picit se tudja tartani, ja és ez FHD-n, lejjebb véve meg undorító, kb bármi jobban nézne ki és ehhez kellett a DX12, na pont ez a vicc, meg az, hogy szerinted ez jó, használható és tesztben a helye.
(meg szerintem ha ez így annyira jól működne nem igazán készülne DX11-es kiadás, de ez már csak az én véleményem)
-
Petykemano
veterán
Nyugi, abu, maid ha lesz az nvidiának olyan hardvere, amelyik dx12/vulkan alatt (is) gyorsabb, mint az amdé, akkor majd ezek lesznek a világ legjobb apijai és az amd lesz a hülye, aki ment előre,.mint a felajzott bika, az nvidia meg a megfontolt óvatos duhaj, aki precízen hajtotta végre az apiváltást.
-
Dyingsoul
veterán
Ha ilyen jó a Liquid VR akkor miért nem minden VR tartalom csak azzal jön ki? Jó ez a kérdés ki van sarkítva, de úgy is kérdezhetem, hogy a játékok többsége miért nem Liquid VR-ral jön ki? Hány játék van amiben az AMD API-ját használják és mik ezek? Na erről kéne valami infó ami eldöntheti a vitát, azonban erről már nem elég a vélemény és a mellébeszélés, tények kellenének.
Persze sok az Early access game. Jól tudom mit jelent ez, de akkor is van jópár cím már ami elérhető, olyanok is amik fejlesztés alatt állnak és beengedik az embereket a kulisszák mögé is (pl Pollen) szóval nem lehet azt sem mondani, hogy erről semmi infó nincs.
Professzionális HW VR-ra: kit érdekel? Most elsősorban konzumer vizeken kellene eveznünk, érdekességen kívül nem igazán érdekel az sem, hogy melyik filmstúdió mit használ VR-hoz hw-ként. Engem az érdekel, hogy otthon mivel fogyaszthatom a tartalmat.
-
proci985
MODERÁTOR
Tetejében Oculusnál kb két éve ismerősök panaszkodtak, hogy kb minden egyes SDK update agyonvágta a kódjukat.
gollo91 : ez gyakorlatilag mar egy cave. egyebkent annyira nem uj a dolog, irodalomban es eloben is lattam mas hasonlot 20 eve (pl Nixdorfban volt egy latogathato varians a 90es evek vegen, igaz nekem kb instant hanyinger volt), igaz mas interakcioval.
repulokkel es autokkal megszokott pont amiatt, mert annyira nem kell mozogni. az ipari parkban ahol vagyok is van pl egy hasonlo cucc egy Volvo S80 kore epitve.
-
huskydog17
addikt
-
No igen, csak közben a legfájóbb hiányosságokat az nVidia kezelte a Pascalban, a többit pedig a frame rate overkill simán megoldja (igazából részben a Maxwellben legfájóbbakat is). Nyilván tekintettel kell lenni arra, hogy a játék Early Access, de amellett sem lehet elmenni, hogy itt és most ebben akkora FPS-előnye van az nVidiának, ami simán negálja az AMD technológiai előnyét, ráadásul bizonyos határok között nyers FPS-ből, timewarpok nélkül nyújt ugyanannyi megjelenített frame-et, ami azért akárhogy is nézzük, jobb vizuális élményt jelent.
-
Abu85
HÁZIGAZDA
Ehhez hozzátenném, hogy egy Early Access játékról van szó. Érdemes lenne az eltéréseket végleges játéknál megnézni. Ha ragaszkodunk az UE4-hez, akkor az Eve: Valkyrie alatt.
Nyilván a fragmentált piac nem jó, de még egyszer hangsúlyozom, hogy Early Access a tesztjáték. Nem várhatod el, hogy minden be legyen építve alpha készültségi szinten. Végleges játékokban azért olyanok nem igazán lesznek, hogy x vagy y sokkal jobb. Főleg az Oculus áruházában.A PH-n elég sokat írtunk az egészről, hogy az AMD rendszerének mi az előnye. És ezt nem én mondtam, hanem David Kanter az Oculusra hivatkozva. [link] - ettől függetlenül nyilván ez nem alpha programokra vonatkozik. Az egészet én csak megmagyaráztam. [link]
-
Dyingsoul
veterán
Szóval az UE4 motorja az elmaradott, miközben egyik motor sem fedi le az összes funkciót... Érdekes. Én ezt inkább úgy fogalmaznám meg, hogy mindegyik hiányos még, de mégis mind használható megoldásokat ad. Egyébként ha alapvető a timewarp UE4-ben akkor miért teljesít mégis jobban a Geforce? Nem úgy volt, hogy az ATI VR-ban mindenhol kenterbe veri majd az Nvidiát? csak mert egy éve ettől visszhangzanak a ph hasábjai, és én komolyan vártam volna ezt a világmegváltást - szívesen vissza is térnék ez esetben egy ATI kártyához de ez megint csak egy ügyes ígéret volt. Nem kell a kifogás, hogy ez azt használja az meg ezt. Ha ennyire fregmentált a VR funkciók támogatása akkor megint ott vagyunk ahol a part szakad: egyik játékban ez lesz jobb a másikban meg az. Ennek ellenére én egy éven keresztül csak azt olvastam a PH hasábjain belül, hogy az AMD lesz a VR ura. Amikor Nvidiás VR hírek jöttek, mindegyikben az volt a végszó, hogy "de mégsem olyan jó, mint az AMD megoldása". Ennek tükrében 1 játéknak sem kellene lennie amiben jobb eredményeket hoz egy Geforce, de még csak meg sem lenne szabad közelítenie az ATI teljesítményét. Ezt a véleményt teljesen az utóbbi 1 évben PH-n megjelent hírek olvasása után formálom.
-
Egon
nagyúr
Most te tényleg megmondod gollo helyett, hogy neki mi a véleménye?!?
Ha nem tűnt volna fel, arra kérdeztem rá... 
Egyébként meg szerintem mindkettő (legalábbis játékok vonatkozásában). Egyrészt mire megfelelő számú, normális VR tartalom (értsd: ami nem csak arról szól, hogy megyek a réten, és nézelődök) lesz elérhető, addigra jelenlegi kártyák kevesek lesznek teljesítményileg, másrészt az egész VR mint technológia nem igazán életképes a szórakoztatás területén (az ideírogató fejlesztő szerint, tesztelték és AMD-n is legalább az emberek 10-20%-a (nem emlékszem pontosan) számára fél órán belül jelentkezett a rosszullét. Én 10 fillért nem fizetnék egy ilyen megoldásért, ami igen komoly eséllyel rosszullétet okoz, nemhogy egy fél konfig árát...
). -
Dyingsoul
veterán
Na kipróbáltam hotfix előtt és után a latency mon-t és előtte nekem sokkal nagyobb latency-t írt, mint ami nálad szerepel a latency monitor régi driver screen-en. Hotfixet feltettem most már sokkal kisebb latencyt ír. Egyébként még mindig ír hibaüzit de már a bios-ra vonatkozóan hogy frissítsem... nem tudom az segítene-e, de már így is jobb lehet. A rendszeremen amúgy mindig vannak furcsaságok nem tudom miért, szóval inkább egy win reinstall lesz majd valamikor mintsem bios csere.
-
Pont ezt akartam írni, hogy a GCN4 igazából GCN 3.1 kéne hogy legyen, mivel maradt az ISA. De akkor ezek szerint a GFXIP-ben ez jól van jelezve. A GCN4-nek nagyon kéne egy patch, ami jelentősen javít fogyasztáson, esetleg még javítja a skálázhatóságot. Enélkül nem lesz jó a Vega.
-
Abu85
HÁZIGAZDA
Hozzátenném még, hogy vannak olyan vélemények is, hogy szoftveresen kell a problémát kezelni. Lásd az Intel, ahol igazából úgy tekintenek a problémára, hogy jobb kivágás kell, illetve jobb memóriavezérlés a szoftverben. A mobil piacon hasonló szemléletű az Imagination, ahol szintén úgy gondolják, hogy a TBDR nagyon jó és a gyengeségeit szoftverből kell kezelni.
Az alapproblémát az adja, hogy nincs univerzálisan jó konstrukció. De még csak nincs is egyetértés abban, hogy az egyes negatívumokat miképp lehet kezelni. Például a TBR felé azért indul el a legtöbb cég, mert nem tudják értékelhető formában kezelni a raszterizációt a sok nem látható háromszögnél. Ezeket pedig úgy lehet kivágni, ha felállítanak egy sorrendet és akkor már tudják, hogy melyik látszik. De ugye pont az AMD mutatott erre a Polarisban egy másik konstrukciót, ami IMR mellett még a raszterizálás előtt kivág egy rakás nem látható háromszöget. Tehát vannak problémák és számtalan, teljesen más előnyöket és hátrányokat biztosító félmegoldás ezekre.
-
TTomax
félisten
-
mcwolf79
veterán
Persze a szokásos Abu maszlag.
Most az AMD az Atyaisten hogy "engedi" a tuningot, bezzeg pár hónapja még azon ment a mosdatás, hogy az AMD nem vállal semmilyen felelősséget a tuningra. Nem emlékszem pontosan akkor miért volt épp más az álláspontod (valami a CCC-rel kapcsolatban rémlik), de ez már nem kicsit gáz.
Te egyébként nem érzed kellemetlennek, hogy házigazdaként ennyire elfogult vagy?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- AMD Navi Radeon™ RX 9xxx sorozat
- Vicces képek
- urandom0: Száműztem az AI-t az életemből
- GL.iNet Flint 2 (GL-MT6000) router
- Samsung Galaxy A17 5G – megint 16
- Az SK Hynix elárulta, hogy meddig nem lesz elég memória
- Call of Duty: Black Ops 6
- Anime filmek és sorozatok
- Polgári repülőgép-szimulátorok
- A Retro Games feltámaszt egy legendát
- További aktív témák...
- GIGABYTE GeForce RTX 2060 OC 6GB használt videókártya számlával és garanciával eladó!
- ELADÓ: Sapphire PULSE Radeon RX 7800XT Gaming 16G - Garanciával
- RX 6500 XT 8GB Eladó - Garancia
- ASUS RTX 3070 Ti 8GB GDDR6X TUF GAMING OC Eladó!
- Új, fóliás XFX Quicksilver RX 9070 XT White Magnetic Air Edition 16GB (3 év garancia) - Beszámítás
- HP EliteOne 800 G6 All-in-One i5-10500 16GB 512GB 24" Érintőkijelző!! 1 év garancia
- Keresünk iPhone 13/13 Mini/13 Pro/13 Pro Max
- Akció! Csere-Beszámítás! Sony PS VR 2 Headset.
- HIBÁTLAN iPhone 12 mini 64GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3818
- iPhone 17 Pro Max Silver - Bontatlan !! www.stylebolt.hu - Apple eszközök és tartozékok !!
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest

Minden tesztben az AMD a jobb, ami konkrétan azt jelenti, hogy két tesztben nagyítóval kell keresni az eltéréseket, a harmadikban pedig az AMD jobban kezeli az aliasingot, viszont az nVidia ad élesebb képet. Hát ez meg hogy lehetséges?

).

Csak azt nem értem akkor az én hsz-em amiben nem volt egyetlen "vulgáris" kifejezés sem miért ért valamelyik moderátornak 2 hét pihit.


![[/ IMG][/P] [/ IMG][/P]](http://cdn.rios.hu/dl/upc/2016-08/20/1957_jea80jr0vkg09bgy_hulk_crying.png/800)


: Már le is tesztelték a srácok. Szerintem hétfőn megjelenik,


Ha nem tűnt volna fel, arra kérdeztem rá...

