- Luck Dragon: Asszociációs játék. :)
- gban: Ingyen kellene, de tegnapra
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- LordAthis: Ismét egy "Idióta" A.I. Projekt, hogy meglovagolja az aktuális trendeket...
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Meggyi001: Nyilvános wc-k.....még mindig hiánypótló...
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Elektromos rásegítésű kerékpárok
- eBay-es kütyük kis pénzért
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #12895 üzenetére
Igen a WHQL-re is ugyanolyan béták mennek. Attól lesz WHQL, hogy az MS aláírja.
A teljes teszt ezeken a drivereken elég komplex. Egy gyártói aláírás a saját tesztekkel simán elvisz két hetet. Ha lesz WHQL is az megint két hét. Négy hét nagyon sok idő, így jellemző, hogy a WHQL-re küldött meghajtókon csak a WHQL tesztcsomagot futtatják le a gyártók is, és a többi tesztet hagyják, amelyeket az MS úgy sem néz, ezzel nyernek egy hetet időben. -
FLATRONW
őstag
válasz
jacint78 #12897 üzenetére
Tényleg nincs értelme. Vegyük például azt az esetet, hogy 4 havonta adnak ki egy WHQL-t. Két WHQL között pedig 2-3 betat. Ezek alapján a betakat agyon tesztelik, WHQL hitelesítésre pedig elküldenek egy teszteletlen alfát és még fizetnek is érte.
Ha jól tudom a betakat csak kísérletező kedvűeknek adják ki és nem vállalnak rá semmilyen felelősséget. -
jacint78
addikt
Ez elég hülyén hangzik. A WHQL-nél legfeljebb azt tudom elképzelni, hogy az amúgy is futtatott teszteken felül nem futtatnak le mindent. Az vicc, hogy WHQL-re készülő driver még annyi tesztet sem kap, mint a Béta, bár az AMD-ből ez is kinézem már, igazából sokmindent megmagyarázna, ha nem is közvetlenül.
-
Venyera7
senior tag
Amd Zen
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #12893 üzenetére
A WHQL-en sajnos nem biztos, hogy mindent lefuttatnak a gyártók. Csak azt, amit az MS kér. Ezt azért teszik, mert egy aláírás így is benne lesz három hétben.
Valójában a driver az eléggé speciális terület. Egyrészt egy meghajtó sosem lesz kész. Másrészt sosem lesz hibátlan. Viszont, ha azt nézzük, hogy melyik megy át több teszten, akkor a béták a WHQL előtt vannak.
-
-
Abu85
HÁZIGAZDA
A FutureMark régóta szokott reklámot biztosítani a gyártóknak. Úgy tudom, hogy most a Galax vásárolt magának felületet. Kb. annyira lényegtelen, mint az MSI vagy a Sapphire korábbi reklámjai. Ettől a Galax kártyák nem lesznek jobbak.
-
AMD-nél még mindig a kártyagyilkos első Crimson van kint, mint végeleges verzió?
Ne má', ezek idióták. Még mindig a féléves az egyetlen használható végleges dirver? Akkor még ma sem telepítek drivert. A bétákat meg dugja az AMD oda ahova akarja.
-
válasz
#85552128 #12877 üzenetére
Az aszinkron compute egy kitűnő ingyen sebességnyerési lehetőség - elméletben. Gyakorlatilag kell hozzá pár dolog:
- Stateless végrehajtási mód a VGA-n (ugye ekörül van gond a Maxwellben)
- Ütemező, ami komplex feladatcsomagok esetén is hatékonyan bepakolja az üres helyekre a compute feladatokat - anélkül, hogy a következő grafikai feladatokat hátráltatná
- Olyan szoftver, ami úgy "lövi el" a grafikai és compute programokat (itt már neccesnek érzem shaderről beszélni), hogy ténylegesen lehessen őket párhuzamosítani
- És végül, csak akkor van értelme az egésznek, ha a futási sebességben az ALU-limitáció dominánsAz 1. pontról van némi információ, a 2-esről nem tudunk semmit egyik gyártó esetében sem, a 3-asra és a 4-esre a válasz pedig az Oxide-nál van.
Szóval csak az látszik, ami szokott - új dolgokhoz hosszú tanulási folyamat tartozik. Ettől még az a-c lehet baromi jó.
-
rocket
nagyúr
válasz
#85552128 #12883 üzenetére
Mivel eddig nem tettek meg (idejuk volt boven), mar biztosan nem fogjak rendbe tenni a CPU overheadet DX11 alatt, mert a low level API-nal mar nem lesz ilyen gondjuk.
Most, hogy az ev vegi jatekdomping lecsengett egyertelmuen latszik nem ugy haladnak a dolgok a low level API-val ahogy azt ok gondoltak/szeretnek, es meg sokaig fognak jonni DX11 jatekok, nem csak ZS kategoriaban.Az AMD-nel termektamogatas oldalon egyre jobban meglatszik a ceg pocsek helyzete, amit teljesitmenyben mutattak az elmult masfel honapban megjelent jatekok nagy reszeben az katasztrofalis, jelenleg nagyon hinni kell valamiben, hogy az ember rabeszelje AMD VGA-ra magat az uj jatekokhoz.
-
#85552128
törölt tag
Ő meg Abu mindenre talál magyarázatot, ha az AMD/GW-ről van szó
(egyre jobban látszik a cikkekből, tesztekből az AMD irányába történő elfogultság, lassan már nV kártyát sem kell a tesztbe rakni csak kiírni, hogy az lassabb...)A Battlefrontnál mit barmolt szét az utolsó pillanatban a Dice, hogy a fél pálya nem/máshogy jelent meg az AMD-s "Gameready" meg az utána következő "forradalmi" driverrel ?
Ugyanúgy 1-2 hét kell nekik a saját címre is felkészülni megjelenés után mint egy GW-sre.
Tavaly ilyenkor is voltak problémák, de mostanra sokkal rosszabb lett a helyzet. -
#52815360
törölt tag
Teljesen felesleges a GW -re mutogatni, mert még mindig opcionális a használata. Amelyik fejlesztő nem akarja, az nem teszi be a játékába. Ennyi.
-
#85552128
törölt tag
válasz
nonsen5e #12882 üzenetére
Project Carsnál a driver overhead is erősen besegít, szóval előbb normális driver kéne aztán lehetne lemérni mennyit is vesz el a CPU-tól a Physx...
Kellett volna még pár ilyen játék hátha az AMD is veszi a fáradtságot és a nyomásra rendbe hozza a driverét, mert úgy látszik 1-2 ilyen kirívó eset nem érdekli őket. Az meg, hogy gyengébb CPU-val szarabb a helyzet a benchmarkokban úgysem látszik -
#85552128
törölt tag
válasz
nonsen5e #12880 üzenetére
A GW effekteket kilehet kapcsolni, ha úgyis gyenge a teljesítmény az már más dolog... Az MSAA is tönkre vágja a teljesítményt pedig sokszor még látszatja sincs mégsem fogjuk rá a gyártóra...
Érdekes módon nálam meg 10 hónap alatt nem volt annyi gond nV kártyával mint AMD-vel 1 hónap alatt
Persze, hogy vannak hibák, de az egyik gyártónál lényegesen gyakoribb és ehhez nem kell még a konkurencia "segítsége" sem.
Meglehet nézni, hogy mennyi AMD-vel kapcsolatos hiba üti fel a fejét még úgy is, hogy hónapról hónapra jóval kevesebbet adnak el mint a másik termékéből... -
nonsen5e
veterán
válasz
#85552128 #12879 üzenetére
Az egy dolog, hogy az AMD retardáltakkal van tele, akik nem tudnak drivert írni, de ennek ellenére a Gameworks effektek sem segítik a teljesítményt, és csak tetézik a problémát.
Szóval az, hogy az AMD nyomorék driver írásban nem jár automatikusan azzal, hogy a GW effektíve fel van jogosítva arra, hogy tönkrevágja a teljesítményt még jobban.Lehet ezt ragozni tovább, csak nem érdemes. A tényállás az az, hogy mindkét oldallal vannak problémák (más szempontokból), csak egyesek hibátlan dolognak akarják titulálni a GW effekteket és az NV által "szponzorált" programokat.
Mellékesen nekem GTX 950M mellett bármilyen drivert használok, bármilyen Win verzió mellett (friss telepítés), naponta összeomlik átlag 1x a csodadriver. Havernak meg a Witcher 3 lép ki magától 980 mellett 1-2 naponta.
-
#85552128
törölt tag
válasz
nonsen5e #12878 üzenetére
Már nem egyszer bebizonyosodott, hogy nem kell ahhoz Gameworks játék, hogy az AMD-nek gondja legyen valamivel...
Legutóbb 2 hét kellett normális driverhez a Battlefronthoz ami saját cím, bár CF support még mindig nincs...Enhanced rainnel játszottam a Batmant is AMD kártyával, pedig máskor kikapcsolom őket, nem a teljesítménnyel volt baj, hanem az időközönként történő crashekkel, ami érdekes módon egy újabb driverrel elmúlt
-
nonsen5e
veterán
válasz
#85552128 #12877 üzenetére
Csak akkora a terelgetés, ahogy az máshol is szokott lenni.
Ha az AMD ígérete nem jön be (és ugye nem tudhatjuk miért nem) akkor biztosan az AMD csinált valamit rosszul, és nem a szegény fejlesztő volt a barom.
Ha pedig a GameWorks játékban van rossz teljesítmény, akkor meg 23 indokot talál mindenki arra, hogy igazából a fejlesztők rontották el, és bizonyosan nem a GameWorks meg az Nvidia miatt van a katasztrofális teljesítmény.Én mint mezei játékos ezt látom a játékokban és a fórumokon is. Lehet, hogy ártatlan a szegény GameWorks (nem), de ha 10-ből 9 GW játéktól hangos a net hónapokig, mert kritikán alul fut, ha nincs az embernek 2 milliós gépe, az AMD-s címek meg pazarul futnak az NV kártyákon is, akkor ott van valami probléma.
VendorID-s kódokat azért nem tesznek bele, mert a hülye is kiszúrná, hogy két teljesen azonos kártya közül miért megy mondjuk a MSI 40%-kal jobban az Asus-nál az esetleges alacsonyabb órajelek ellenére is.
Viszont ha Nvidia és AMD között lenne ez a dolog, akkor mindenki csak betudná annak, hogy a rosszabbul teljesítő kártya a rosszabb, bármi is legyen a háttérbe, amit nem reklámoznak olyan hangosan. -
#85552128
törölt tag
válasz
Valdez #12876 üzenetére
Költői kérdés volt...
DX12 benchről volt szó. Más elérhető meg nincs. A Batman DX12-es ?
Ha pedig nincs bekapcsolva akkor miért nincs ? Miért csak a Maxwell volt kiemelve ? Honnan is vagyunk biztosak az AMD async teljesítményében/képességeiben vagy az ebből keletkező előnyökből ? Mert az AMD azt mondta ? Ha már részlehajlóságot kerestek azt nem a Futuremarknál kéne, hanem az Oxyde-nél...
Ha ezek az eredmények Async ON voltak AMD-vel akkor ennek is nagyobb a füstje mint a lángja
Ja és egy újabb verzióval AA-OFF jóval nagyobb különbségek vannak az nV javára... -
#85552128
törölt tag
válasz
Valdez #12873 üzenetére
Nem, az volt, hogy nV-vel nincs bekapcsolva arról nem volt szó, hogy mi van az AMD-vel... A Maxwell kártyáknál ebből "óriási" felháborodás lett, mert állítólag nem tudja (pedig valamilyen szinten igen), de a GCN-nél mindenki hallgat, azt sem tudni hogy be van e kapcsolva vagy nincs csak annyit szajkóznak, hogy "támogatja" - szóval érdekes lenne ha az AMD szponzorált játékban az Async hype után mégsem lenne bekapcsolva... Bár lehet ott sem olyan egyszerű a dolog ?
-
#85552128
törölt tag
-
#85552128
törölt tag
válasz
Valdez #12867 üzenetére
Miért az nVidia mivel ? Gameworksot benchmark programba nem fognak rakni tehát mi marad ?
Ha az lenne a cél, hogy valamelyik "szponzor" előnyre tegyen szert az megoldható egy szimpla vendorid checkkel és a háttérben (kevésbé feltűnő effektek egyszerűsítése) kedvezne az MSI kártyáknak... De nyilván ezt a Futuremark nem fogja kockáztatni. -
Valdez
őstag
válasz
#85552128 #12866 üzenetére
Az msi mégis mivel tudná biztosítani előnyét a mezőnnyel szemben, akármennyit is fizet?
Ha még Galaxyt írsz, még annak sincs értelme, mert az igaz, hogy csak nvidiá-t gyárt, de akkor sem fog kitűnni a mezőnyből a terméke az ugyanolyan gpu-val ellátott pl msi kártyával szemben.
-
Valdez
őstag
válasz
#35434496 #12864 üzenetére
Azért más az, ha egy nem gpu gyártó vesz reklámfelületet egy főként gpu tesztprogramban, vagy maga a gpu fejlesztő/gyártó. Jelen esetben pont az jön le, hogy az új tesztprogram az nvidia támogatását élvezi, és okulva az utóbbi idők gyakorlatából ez minimum kételkedésre ad okot a program hitelességével kapcsolatban.
De legyen igazatok és az nvidia logo semmit se jelent (volt már erre precedens?).
-
#35434496
törölt tag
Szerintem max reklámfelületet vett nvidia az új 3dmarkban. Mint pl: mark11-ben az MSi.
-
do3om
addikt
válasz
nonsen5e #12858 üzenetére
Az AMD nem alkalmazhat zárt forráskódot.
Nem azért mert k olyan rendesek, hanem mert lassan jelentéktelenek lesznek. Ha valamit el akarnak adni a fejlesztők akkor a piacot kel figyelembe venni azt meg tudjuk milyen CPU, és VGA fronton is.
De nyugodtan csináljon az AMD zárt forráskódot, fusson szarul minden máson, majd a rajongok megveszik 3-4 példányban így ellensúlyozva a veszteséget.Ez persze nem jó de fordított esetben pont ugyan ez lenne!
-
nonsen5e
veterán
válasz
FollowTheORI #12860 üzenetére
Legyen igazad
Én is arra gondoltam, hogy hiteltelenné válna a benchmark egy ilyen húzás után, de az elmúlt év játékai, és játékos botrányai után PTSD-m van az Nvidia logós szoftverektől, és félve nézek rá minden játékra, hogy vajon fog-e normálisan futni.daveoff: Milyen sok mindent? Egy dolgot állítottam / vetettem fel: azt, hogy az Nvidia logó ott van, és ha ott van az általában nem jelent jót az AMD tulajoknak. Minden további dolog automatikusan erre a feltevésre épül(ne).
-
válasz
nonsen5e #12855 üzenetére
Benned aztán benned van nem kicsit a parafaktor...
Egy Futuremark a nevével játszik, ha ilyesmi lenne a háttérben (hiteltelenné válnának).
Biztos lehetsz benne hogy semmi részrehajlás nem lesz (nem lehet) benne, különben kukázhatják a munkájukat.
Az hogy az nvidia ad pénzt (meg még sokan mások is, ahogy eddig is szinte minden markban volt valami reklám), semmit nem jelent. Közös marketing a közös célért (i.e. DX12 terjesztése pl).
Ráadásul ugye "special event with Galax and NVIDIA", szóval lehet nem is a programban van az a logó, hanem csak a prezentáción/videón egy vízjel, elvégre az ő rendezvényük.
-
#85552128
törölt tag
válasz
nonsen5e #12858 üzenetére
"Az API overhead tesztbe pedig került be dx12 is (de volt dx11 is), "
És ? Ti arról vontátok le a következtetést, hogy nV eseményen demózták (más dolog, hogy a programról semmit sem tudtok még). Ugyanúgy levonhatom én is ha egy gyártó saját API-ját rakják bele a programba - mert az legalább a tényleges programról van. Akkor érdekes módon nem jött senki azzal, hogy AMD pártiak.
A különbséget meg itt is megtudod majd állapítani, majd 2016-ban.Azért érdekes, hogy még egy tesztprogramot is ennyi idő összerakni egy erre dedikált cégnek, néhányan meg már 2015 végére DX12-es AAA játékokról vizionáltak...
"Lehet az AotS-nál és egyéb AMD oldali játékoknál is más lenne a helyzet, ha teljesen zárt forráskódú a konkurencia lassításán kívül másra nem jó effektekkel tömnék tele, a mostani nyílt és korrekt hozzáállás helyett."
Tehát akkor egyenlő (vagy inkább egyenlőbb - tekintve, hogy direkt GCN-re volt fejlesztve az egész motor) esélyek mellett sem tudd jobb lenni az AMD még DX12-ben sem - Async, Tier, okosGCN hype ide vagy oda. Értem, erről mondjuk egészen más következtetéseket lehet levonni.
-
nonsen5e
veterán
válasz
#85552128 #12857 üzenetére
Az, hogy Nvidia rendezvényen demózták az sok mindent jelenthet, mert általában nem az új Battlefieldet vagy Sniper Elitet (vagy hatalmas Gaming Evolved logós) címet szoktak demózni az Nvidia eseményeken.
Az API overhead tesztbe pedig került be dx12 is (de volt dx11 is), így mindenki meg tudta állapítani, hogy mennyi a különbség. Az a teszt pont az egyes API-k közti különbségre épült, elsődleges célja nem a kártyák egymáshoz hasonlítgatása volt.
Egy "rendes" benchmarknál, mint amilyen lesz, és amit minden tesztoldal le fog közölni minden egyes kártyával (az API overhead teszt nem éppen ilyen dolog volt) senki sem azzal fog törődni, hogy na most kapcsoljuk ki szépen egyesével lassító effekteket / benchmarkoljuk az AMD kártyát nélkülük (teljesítményben megelőzné az Nvidiát kikapcsolt effektekkel, amennyiben nem tesznek bele kikapcsolhatatlan kódokat is) hanem mindenki bekapcsolja az extreme presetet, aztán sokadjára is elkönyvelik, hogy az AMD "szar".
Lehet az AotS-nál és egyéb AMD oldali játékoknál is más lenne a helyzet, ha teljesen zárt forráskódú a konkurencia lassításán kívül másra nem jó effektekkel tömnék tele, a mostani nyílt és korrekt hozzáállás helyett.
-
#85552128
törölt tag
válasz
nonsen5e #12855 üzenetére
Érdekes, amikor a Mantle támogatást berakták az API overhead tesztbe nem jöttetek azzal, hogy "AMD partner" pedig az az API az AMD sajátja, senki más nem támogatja...
Ez még meg sem jelent, csak egy nV eseményen demózták, de már megy az, hogy "nV partner".
(Az AMD mostanában események helyett meg prezentációkattartad ki úgyhogy még ha akarnák se lenne más választásuk...)Ha az nV annyira szar DX12-re mint egyesek itt állítják már egy éve akkor mitől féltek ?
Az AMD "előnynek" ugyanúgy meg kell mutatkoznia mint ahogy AOTS-ben ( sem
)...
-
nonsen5e
veterán
válasz
Kicsimix #12854 üzenetére
Itt mi a mentségük az nvidia partnerségre? (a pénzeszsákon kívül
)
Egy szintetikus benchmarktól pont az objektív teljesítményképet várnám, amiktől a játékok majd úgyis eltérnek, mert jön beléjük mindenféle szeretetcsomag.
Erre a benchre sem fogok sokat adni, úgy látom.Bárki ír egy programot, amiben az ősrégi 3dfx kártyák jönnek ki "legjobb" kártyának, mert a mai gyártók kártyáit érzékelve a vízben tesszelálja a hajszálakat, és háromszor kiszámolja a végtelen ciklust, mielőtt kirenderelne egy 2*3 pixeles négyszöget és nyugtázná magát, hogy lefutott a program.
Kb. ennyire lesz objektív a teszt ha gameworks szarságokat fog tartalmazni, esetleg direkt 10x jobban optimalizáltak x cég kártyáira mint y cégéire. -
Kicsimix
őstag
válasz
Depression #12852 üzenetére
Hát hjamm.. Kicsit necces azért egy tesztprogramra is rányomni..
-
-
#45185024
törölt tag
DirectX 12 Benchmark ról beszélgettetek itt már?
-
imi123
őstag
Futuremark DX12 bench videón.
-
he7edik.
addikt
válasz
FollowTheORI #12838 üzenetére
Szegény. Elhitte a PH-s tesztet
-
-
proci985
MODERÁTOR
nem kell kimaxolni am. jellemzoen mindig van 1-2 effekt amik latvanyhoz nem raknak hozza sokat, viszont jelentosen novelik a tempot. ugy meg jol is fog kinezni, meg jol is fog futni.
ha meg ki akarod maxolni 5760/4Kn, akkor ket GPU kell. viszont nezzuk pozitivan, jelenleg mar ket gpuval elerheto 60fps ezekben a felbontasokban is ultran, olyan harom eve a csucs 4way setupok se voltak elegek a celra. Crysis 3 40 fpst tudott a 4way Titan SLIn amikor nezte nordicHW, ami setup akkoriban kb egy uj Yaris araban ment.
de egyebkent semmi ujdonsag nincs, 1440pben a 6950 2GB befogta a GTX570et, a 290X CF is kb a 980SLIvel volt egy szinten 4Kban. szep meg jo egyebkent az 1080p, csak mondjuk a telefonom kijelzojenek nagyobb a pixelsurusege. 4K kijelzok ara meg szepen nekiallt esni.
-
Petykemano
veterán
Akkor az fps eredmények mellé tenni kéne egy cpu util grafikont is, nem? És minden esetben odaírni, hogy hahó, van itt még tartalék! Ha ez igaz, akkor az amd értelmetlenül hagyja magát elverni. Ezzel ő lehet, hogy jófej a fejlesztők körében, egész addig, míg azok rá nem néznek a piaci részesedésre, s azt nem mondják, bocsi, de a 80% az 80%.
Ez nem saját érdekeik ellen való? Legalább lenne egy kapcsoló a driverben, maximum overdriver néven, ami engedi addig terpeszkedni a drivert, mint az nvidiáé. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #12826 üzenetére
Az egész DX11-es működési modellnek nincs semmi értelme. Ezt már a Microsoft is elmondta az idei GDC-n. Lassan egy évtizede rossz irányba fejlesztettek, mert azt hitték, hogy ezzel jót csinálnak. Nem baj egyébként, mert nyilván nem szándékosan vágták maguk alatt a fát, de ha megnézzük a mi történt a régi DX-ekben, akkor az állapotblokkok, a nagy állapotcsoportok és végül a deferred context is totális bukás. Az első kettő alig ér valamit, míg a harmadik opció implementálása olyan drága, hogy másfél évig kell kódolni a működését. Nagyon sok motor elindult a deferred context felé. Még a Frostbite is, csak fél év után ráhagyták, mert nem éri meg. Most képzeld, ha egy EA azt mondta, hogy nem finanszírozza tovább, akkor egy kisebb kiadó mit mond...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #12825 üzenetére
Igazából a Microsoft ajánlásait csak az Intel követi. Az NV nagyon nem, míg az AMD a kettő közötti vonalat akarja megtalálni. Mivel nem a gyártóknál van a hiba, hanem az API-ban, így egyik sem jó megoldás. Az Intelé és lényegében a Microsofté azért nem, mert bár sok szabad processzor erőforrást hagy a programnak, a többi driver miatt ezekhez a fejlesztők nem nyúlnak. Az AMD megoldása azért nem jó, mert az ideálisnak vélt balanszra való törekvéssel az Intel és az NV iránya közé esik, és ez igazából a kétmagos HT-s gépeken ideális. Az NV megoldása pedig azért rossz, mert nem veszi figyelembe a kétmagos procikat és a kétmagos gépeken csökkent a minimum fps-en.
A megoldás erre az, amit az MS javasolt. Aki skálázódást akar menjen DX12-re. Ott nincs kernel driver, ami elvegye az erőforrást. -
FLATRONW
őstag
Ennek akkor sincs semmi értelme DX11 alatt. Annak semmi értelme, hogy több processzoridőt kapjon a program, hogyha azokat nem használja fel semmire. Ha pedig kihasználatlan, akkor miért ne kapja meg azt a grafikus driver. Az AMD-nek ott vannak a sok "magos" CPU-i, azok a rendszerek tényleg profitálhatnának abból is, hogyha csak a rendelkezésre álló szálak felét a grafikus driver megkapná.
-
Petykemano
veterán
És az Amd inkább önként adja át a lehetőséget, hogy az nvidia driver zabálja föl a program elől a cpuidőt azáltal, hogy a vásárlók a benchmarkokat látva inkább a zöld kártyát vesznek, csak azért, hogy a microsoft megsimogassa a buksijukat?
Vagy ez azt jelenti, hogy az egyenlő mértékben rendelkezésre álló processzoridőt az nvidia driver tényleg jobban használja ki és ezen az amd az elmúlt fél-egy évben nem tudott az nvidiához képest érdemi előrelépéssel javítani? -
Abu85
HÁZIGAZDA
válasz
Petykemano #12823 üzenetére
Nem. Semmi köze az emulációhoz. Ahhoz van köze, hogy mennyi processzoridőtől érdemes megfosztani a programot. Le lehet programozni, hogy a driver elvegye az erőforrások többségét csak nem érdemes. Eleve azért nem, mert az MS arra kérte a fejlesztőket, hogy többet ne használják a deferred contextet. Azért hozták a DX12-t, hogy az elhibázott irányt kiváltsák vele.
-
Petykemano
veterán
válasz
huskydog17 #12820 üzenetére
Épp azon voltam, hogy elhőbörgöm magam, hogy ha ennyire nyilvánvalóan driver és cpu overhead limites, akkor nemigazhogynemtudjákmegcsinálni
De Ugye abu Ez azért van így, mert a gcn sok dx11 funkciót emulál és ez bármit csinálnak a driverrel megmarad. Ugye?
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #12820 üzenetére
Akkor az valami bug lesz. Nem így kellene működnie.
Ja igen, akkor már megjelent. Az első EGO sem sikerült jól a DiRT első részében. Ez ilyen tanulópénz szintű dolog. A nagy változások nagy kockázattal járnak. Majd lesz fejlesztett verzió jövőre.
Az EGO 3 stabilabb volt. A DiRT Rallyhoz jobban illett.
-
huskydog17
addikt
válasz
Laja333 #12814 üzenetére
Igen, a Crimson driver-ben elég CPU overhead van még, ezt több helyen is írta a CB.
1440p-ben azonban eltűnik a különbség és 4K alatt a FuryX átveszi a vezetést.
#12815 (Abu): Az Advanced Blending a gyakorlatban csak elmosást csinál a távoli objektumokon (mintha csa kegy DoF effekt lenne), ráadásul a sebesség a töredékére esik, ez így hasztalan és használhatatlan, valószínűleg a Codies is így látja, hiszen nem véletlen kapcsolták ki az összes profilban.
Az új EGO Engine (4.0) az F1 2015-ben debütált, ami nem igazán sikerült valami jól. Bár azt nem értem, hogy a Dirt Rally-t miért nem a 4.0-val csinálták.
-
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #12813 üzenetére
A legfontosabb kimaradt: GPU Particles
Az Advanced Blending az Intel effektje. Lehetővé teszi a korrekt megjelenítést az átlátszó felületekhez.
A program sokat változott, így meg kell várni az új drivereket, mert a mostaniakkal vannak benne hibák.
-
Laja333
őstag
válasz
huskydog17 #12813 üzenetére
És itt megint valami CPU limit van? A felsorakozott 390x-Nano-FuryX hármasból erre tudok következtetni.
-
huskydog17
addikt
Röviden, hogy mit kap a játékos
- Forward+ Render (EGO Engine 3.0)
- CMAA (Conservative Morphological Anti-Aliasing)
- MSAA (Multi-Sampling-AA)
- Contact Hardening Shadows (CHS)
- HDAO+A játék az AMD Gaming Evolved partnerprogramban szerepel.
Hibák:
AMD: Nem megfelelően jelennek meg a fák abban az esetben, ha nincs bekapcsolva az MSAA -> AMD tud a hibáról és lesz egy hotfix a Crimson-hoz, ami javítja
NV: több objektum egyszerűen nem jelenik megAmúgy a Codemasters mit a túrót akart ezzel a Advanced Blending nevű förtelemmel? Az égvilágon semmi értelme, rontja a képminőséget és cserébe a játéksebesség a töredékére esik. Egy újabb értelmetlen effekt, bár a Codies mentségére legyen mondva, egyetlen grafikai profil sem kapcsolja ezt be, még az Ultra sem, vagyis a tesztekbe ez nem szólhat bele, kivéve ha a tesztelő manuálisan bekapcsolja ezt a hülyeséget.
-
huskydog17
addikt
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
Petykemano #12807 üzenetére
Ha nincs spanja, hogy lezsírozzon neki egy cserét, akkor el kell adnia a 960-at. Azt pedig nem tudja olyan drágán eladni, hogy megérje.
-
Abu85
HÁZIGAZDA
válasz
arcsi84 #12805 üzenetére
Most már semmit. Sokat buksz ha eladod.
A 970-en 4 GB van, csak fél GB-ot nem lehet elérni a teljes sávszélességgel. De ez is Maxwell v2, mint a 960.
A 390-nek tuti elég egy 500 wattos FSP. Az elég jó táp. Igen ez csak a GCN2. Ennek az a hátránya, hogy nem támogatja az FP16-ot. De ettől futni fognak a programok, csak GCN3-on bizonyos puffereket kétszer gyorsabban és feleannyi sávszéllel is ki lehet majd számolni.
A 380/380X egyértelműen jó választás a GCN3 miatt. De a legjobb a 285, mert az már olcsó a neve miatt és ugyanaz.
A 960 4 GB biztosan nem éri meg a felárért.
A PBR az egy új lehetőség a fejlesztőknek. Mennek előre. Normálisan megcsinálni nagyon nem egyszerű, így csak a top cuccok használják tényleg erőteljesen. Frostbite, CryEngine, Dawn Engine.
-
arcsi84
aktív tag
Értem, amit írsz, de vegyünk pl az én példámat.
Néha elkap a VGA fejlesztés szele. Jó mondom eladom a GTX 960-t 50k-ért (lett volna már rá vevő nem is egy). Mit vegyek helyette?GTX 970 (nem vennék, mert 3,5GB ram van rajta, mert maxwell, ami később lehet nem lesz jó, valamint azért mert 2x annyiba kerül mint a mostani és csak 1,5x-s teljesítményt ad)
r9 390 (sokat zabál, sok hűt termel, lehet nem elég neki az FSP 500 HEXA+ táp, nem is előremutató, mert régi GCN van rajta. Szóval hiába a 8GB ram)
R9 380x (alig jobb, mint az R9 380 vagy mint a GTX 960, friss hardver, csak teljesítményben nem nagy előrelépés)
R9 380 (dettó, mint a nagytesója, többet eszik, mint a gtx 960 és néhol még el is veri a 960-as)
GTX 960 4GB (+2GB ram-ért és + 0,5-1,5 év garanciáért, nem adok ki 15-20k-t)
Szóval hiába járnék később jól egy AMD-vel, ha most csak a hátrányait látom.
Azonban ezek a PBR, meg ilyen dolgok elbizonytalanítanak. -
Abu85
HÁZIGAZDA
válasz
arcsi84 #12802 üzenetére
Itt az is nagyon fontos kérdés, hogy kit tekintünk játékfejlesztőnek. Aki szarik bele és áthozza az Xbox One kódot módosítás nélkül, vagy aki tényleg portolni fog.
Egyébként a DX12-nek nem lesz köze a sávszélhiányhoz. Sokkal inkább a PBR terjedésének. PBR-es motor például az új Frostbite. [link]
A DX12 maximum olyan dolgokat hoz csak be, mint az aszinkron compute, ami egy nagyon elterjedt funkció lesz a motorokban, hiszen kvázi ingyen lehet compute-ot futtatni. Ez nem jelenti azt, hogy a Maxwellel nem törődnek, csak az ingyen effekt az ingyen effekt.
Ha a Maxwell nagyon fontos megírják CUDA-ban is a kódot HyperQ-ra. -
arcsi84
aktív tag
Sziasztok, egy kérdésem lenne, ami nem közvetlenül egy konkrét ajánláshoz kapcsolódik, hanem közvetetten a melyik VGA lesz tartós a jövőben kérdéshez. Tudom, hogy senki nem lát a jövőbe, de kíváncsi lennék a véleményetekre.
Szóval arról lenne szó, hogy küszöbön a DX12 meg egy csomó új képjavító technológia vele együtt.
A jelenlegi játékok többsége jobban fut nvidia kártyán, mint AMD-n. Mégis Abu85 mester cikkeiben, folyamatosan azt lehet olvasni, hogy a maxwell kártyák a jövőben komoly hátrányban lesznek. Sávszélesség és egyéb okok miatt.Én elfogadom, hogy Abu mester sokkal többet tud erről, mint én, de azt marketing és logikai szempontból nehezen tudom elhinni, hogy egy játékfejlesztő, aki egy adott játékot készít, az olyan rendszerre programozzon, amiből kevesebb van a piacon.
Az Nvidia birtokolja a dgpu piac nagyjából 70%-át, ki lenne olyan hülye, hogy direkt a 30% lefedettségre fejleszt?
Tudom, hogy a konzolokban AMD APU van, de az teljesen más elven működik, mint egy PC-s processzor/Dgpu páros.Mi a véleményetek erről?
Hogy ne csak off legyek, ezt GTX 960 2GB tulajként kérdezem.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Microsoft Surface Pro 7 tablet
- Apple iPhone 14 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- Samsung Galaxy A50 128GB, Kártyafüggetlen, 1 Év Garanciával
- Bomba ár! Dell XPS 15 9550 - i7-HQ I 16GB I 512SSD I 15,6" FHD I M1200 4GB I Cam I W10 I Gari!
- iKing.hu - Samsung Galaxy Z Flip 7 Blue Shadow Újszerű, karcmentes állapotban 512 GB
Állásajánlatok
Cég: FOTC
Város: Budapest