- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- sellerbuyer: Milyen laptopot vegyek? Segítek: semmilyet!
- Gurulunk, WAZE?!
- MaxxDamage: Vizes Laptop Hűtés? Lehetséges? Igen!
- Argos: Az vagy, amit megeszel
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- sellerbuyer: HDMI vagy DisplayPort kábellel szebb a kép?
- skoda12: Webshopos átverések
Új hozzászólás Aktív témák
-
#85552128
törölt tag
válasz
velizare #9397 üzenetére
Ha komolyabb játékról/munkáról van szó a kék "szelettel" nem mész sokra, szóval nagyon is sokat ér...
dVGA fronton botrányosan állnak, de csak a GPU-kat nézve sem rózsás a helyzet mert az nV egyedül dGPU-kkal annyit hoz mint az AMD a dGPU + APU-kkal (bár ez főleg az APU-k CPU teljesítményének "köszönhető")... -
válasz
Malibutomi #9395 üzenetére
Mantle alatt.
-
Malibutomi
nagyúr
Ha a driver nem tudja, akkor hogy mukodik a Thief alatt?
Vagy ez csak DX12-re vonatkozik? -
Validátorral kontextusfüggő (adatfüggő) hibát nem fogsz elkapni, a maximum, amit elvárhatsz tőle, hogy jelez kockázatot egyes programszakaszoknál erre. A többi, amit leírtál, meg tovább cizellálja a dolgokat.
Nincs ebben amúgy semmi extra, drasztikus változások meglépése mindig sok kiegészítő problémával jár. Végig kell szenvedni őket, aztán néhány év múlva napfény lesz és tengerpart -
Abu85
HÁZIGAZDA
Nem az a baj, hanem, hogy egy hozzászólásra építi fel az egészet, ami ráadásul sok helyen nem is pontos.
Az async shaderre még mindig csak a Thief az egyetlen PC-s példa. Bár az AotS támogatja, mert a DirectX 12 alapból megköveteli a multi-engine működést, de a driver dolga, hogy ezeket felfűzze a különböző parancslistákba, majd időben futtassa. Egyetlen kiadott driver sem képes még erre, tehát a hardver előtt az elvben async DX12 kód mindenképp sorba lesz fűzve. Később majd lesznek persze olyan driverek, amelyekkel már ez a konstrukció működni fog.
Az async shader kapcsán két példa van előttünk. A konzolos játékok és a PC-ből a Thief. Tehát tulajdonképpen mondhatjuk, hogy működik a rendszer egy bizonyos hardverre, illetve architektúrára levetítve, és ezt nem csak én mondom (nyilván példa van rá), hanem Max McMullen is mondta a SIGGRAPH Q&A szekción, hogy egy architektúrára vonatkozóan az async shader tökéletes megoldás. De mi van több architektúrával? És itt jön elő az igazán nagy nehézség, mert két architektúra már másképp működik, illetve ahhoz, hogy tényleg nagy előnye legyen az async shadernek a mai korlátozott motorokban, nagyon kell bújni a dokumentációkat, hogy mi engedhető meg a hardveren és mi nem. Ebből a szempontból a DX12 multi-engine specifikációja legalább jól van összerakva. Minden programozó kötelezően multi-engine kódot ír, és majd a driver eldöntheti, akár egyéni profillal, hogy azt a kódot tényleg több motoron keresztül küldi rá a hardverre, vagy inkább korlátozza egy motorra. Ezért volt jó döntés az, hogy a copy motor kiterjesztése a compute motor és ennek a kiterjesztése a grafika. Ha a hardver nem tud async copy-t, akkor a driver ráküldheti a compute motorokra, ha ezt sem tudja, akkor végső esetben ott a grafikai feladatok parancsmotorja. És ez nyilván a gyártók felől úgy is elbírálható, hogy a hardver esetleg tudja ezeket a képességeket, de az async kód lassulást hozna, akkor inkább az adott játékra megszüntetik az async copy és compute lehetőséget, így minden parancs a grafikus parancslistába megy.
Ennek szerintem elég nagy jelentősége lesz, mert a legtöbben a kötelezően multi-engine kódot az Xbox One-hoz fogják szabni, tehát az időzítés, illetve a shaderek regiszterhasználata ehhez fog igazodni. Viszont ez nem mindegyik gyártónak jó. Például az Intelnek nagyon nem, és az eddigi adatok alapján az NVIDIA-nak sem, tehát nekik kell egy kerülőút, hogy legalább a programkód lassító hatását ki tudják ütni a driverekkel. Aztán később az Intel és az NV is hozni fog egy stateless compute architektúrát, out-of-order logikával dolgozó compute motorokkal. Ebből a szempontból a DirectX 12 működését érdemes lekövetni, ha már a Microsoft ennyire az Xbox One-ra szabta a rendszert.
-
Abu85
HÁZIGAZDA
A DirectX 12 és a Vulkan pontosan ugyanazt a validátort használja, amit az AMD a Mantle-re fejlesztett. Ez kiszűri ezeket a hibákat is, legalbbis a GCN-en biztosan. Itt majd az lesz a gond, hogy az AMD a validátor fejlesztését nem adta át a Microsoftnak és a Khronosnak, tehát magát a rendszert különállóan csatolják a DirectX 12 és a Vulkan API-hoz, vagyis a fejlesztést kizárólag az AMD végzi, és nem valószínű, hogy foglalkoznak majd azokkal a hibákkal, amelyek a GCN-t nem érintik. Ezért pörögnek nagyon az érintettek azon, hogy legyen egy nyílt forráskódú validátor is, aminek a fejlesztéséhez már hozzá is fogtak. Ennek majd sok előnye lesz, hiszen nem túl produktív az a piac, ahol a konkurensek validációs problémáira csak az AMD tud megoldást, ha akar persze. Az is hülye volt a Khronosnál és a Microsoftnál, aki ezt így elfogadta, mert az AMD simán mondhatja, hogy a validátor működik, mert GCN-en működik a program, még ha máson hibázik is. Ezzel senki sem tud majd mit kezdeni, mert a fejlesztőnek is nyűg lesz az egész program működését manuálisan lemodelleznie, hogy fényt derítsen a hibára. Az jó hír, hogy a Vulkan támogatni fog alternatív validátorokat, tehát az alapul szolgáló AMD-s rendszer mellé becsatolhatnak a programfejlesztők saját rendszereket.
-
válasz
Petykemano #9385 üzenetére
Úgy tűnik, a cikk írója nem látta a tesztek eredményeit
-
Petykemano
veterán
-
rocket
nagyúr
-
kovsol
titán
válasz
huskydog17 #9379 üzenetére
285-ben nem voltak ezek benn ugyan úgy?
-
huskydog17
addikt
válasz
gtamate2 #9378 üzenetére
Szerintem is nagyon jó vétel az R9 380, sőt szerintem az a legjobb, főleg az UVD 5 és VCE 3 egységek miatt, ezek már piszok erős fixfunkciós egységek, a 4kp60 sem gond ezeknek, míg az előző generációk nem tudnak mit kezdeni például a 4k-val.
Bár azokat én jelenleg úgysem használnám ki, a jelenlegi UVD 3 és VCE 1 is bőven tökéletes számomra. -
gtamate2
veterán
válasz
Malibutomi #9376 üzenetére
A 380 is egész korrekt, főleg a nitro hűtéssel.
-
imi123
őstag
válasz
Malibutomi #9376 üzenetére
Esetleg még egy 380X-el kicsit javíthatnak.
Gyanítom 28nm-en már nagy fordulat nem lesz.
2016 viszont érdekes lesz. -
gtamate2
veterán
válasz
Malibutomi #9365 üzenetére
Majd a következő negyedévben lehet látni a részesedés növekedést a Fury miatt,ugye?
-
Malibutomi
nagyúr
válasz
Erdei88 #9366 üzenetére
Ez a cim jo nagy betukkel. Belekotni sem kellett hisz nyilvanvaloan marhasag ugye
Ha belegondol a cikk iroja mielott elesiti o is rajott volna..de kellenek a kattintasokEttol meg csokkenhet tovabb is az AMD reszesedese, engem nem zavar, csak a nyilvanvalo hulyesegeket nem birom
-
Erdei88
veterán
válasz
Malibutomi #9365 üzenetére
Csak sikerült kiragadni egy darab mondatot ami bele tudtál kötni
-
Ren Hoek
veterán
válasz
huskydog17 #9356 üzenetére
Red Faction-ön kívül én nem nagyon tudnék példát mást. Úgy igazán. Talán BF. Meg FEAR...
Itt a lényeg, hogy ne 10-ből 1 játéknál legyenek ezek a fícsörök, amik komolyan szimulációval járnak, hanem 10-ből 9-nél. Kiegyeznék 5-el is.
Ahogy a fejlesztő kolléga is elmondta, nem tudod hogy miket kukáznak ki végül a játékból a brutál dx11 kernel szopatás miatt.Csak maga az érzés, mondjuk egy STALKER 2-őt képzeljünk el úgy, hogy teljes rombolható környezet van. Minden fát ki tudsz dönteni, minden ablakot ajtót falat be tudsz zúzni. Persze nem lenne fegyvered hozzá, nem Red Faction lenne a játék. Azzal a 4 RPG töltettel épphogy egy faházat bezúzol mondjuk. Nem a rombolás a cél,hanem rombolHATÓSÁG. Maga a szabadság egy ilyen foka. Persze ha találsz egy orosz harcihelikoptert, akkor egy egész zombikkal fertőzőtt labort porrá rombolhatsz. Élményen óriásit dobna, és talán nem kell majd sakkozni az erőforrásokon, mert ott figyel a motorban az implementáció.
Az is eléggé illúzióromboló tud lenni amikor otthagysz valamit egy játékban visszamész egy idő múlva és respawnolt, vagy eltűnt a kocsi/hulla stb. Akár kis mértékben folytatóthatna a szimulációja az AI-nak ott is.
A lényeg, hogy nem extraként rakod bele a rombolhatóságot, fizikát és AI-t a játékba, hogy erről szóljon, és szétverj mindent egy kalapáccsal, (és közben vért pisálva próbálod beletenni a szimulációt, hogy ne menjen a látványra) - hanem mert megteheted para nélkül. Lehet már a fejlesztésnél a motorban benne van eleve, csak a fal anyagát kell kiválasztania a művésznek. Egy Deus Ex-nek pl jót tenne taktikában, hogy mehetsz a szellőzőn is, de ha átrobbantod a falat ott is. stb...)
. -
HSM
félisten
Itt a jelentéssel volt gondom. A nem tökéletes megoldás azt sejteti, hogy egy problémának a megoldásáról van szó, miközben itt nem megoldják a problémát, csak odébbtolják, oldja meg a fejlesztő vagy vegyél alá húzott kórájszevönt.
Na, na... Az Intel nagyon is csinált. Egyszerű drivert, mint a faék. Nekik ugyanis a lehető legkisebb CPU munka árán kell teljesítmény, és az IGP-t se feltétlen kell nagyon megetetni optimálisan. Mindkettő oka, hogy a TDP keretben maradjon, és agresszíven turbózhasson a csip. Tehát ők szándékosan mentek erre a végletre.
Az AMD eredetileg egy köztes utat próbált tartani, de a friss drivernél ott is elmentek kissé az Nv driverének irányába, megjegyzem érthető okokból.
Ami a mostani játékok kiadáskori állapotát illeti, ebből kiindulni hiba lenne. Jelenleg azért lehet ilyen vacak kódot kiadni, mert nem komoly gond, ha lehal a játék. Ezt nem engedheted meg magadnak, ha BSOD a következmény, tehát nem ennyire tré játékok fognak jönni, mert a kiadó sem fog akarni bajt magának.
Én Mantle-vel toltam sok órát BF4-ben, és egyáltalán nem fagyogatott. Szóval amit eddig láttam, tetszett.Értem már az érvelésed. Van benne ráció, de rengeteg gyakorlati apróságon elvérezne szerintem a koncepció.
-
Nomenklatúrán sokat ne vitatkozzunk, de kompromisszum kb. = nem tökéletes megoldás.
Az Intel nem csinált semmit, úgyhogy az nem kompromisszum. Eleinte az AMD sem, aztán követte az nVidiát, mert röhej tárgyává vált volna.
De, fog BSOD-ozni. Látom a mostani játékok állapotát launchkor, ezen felül rengeteg szoftverfejlesztési projektben részt vettem (nem gaming) - mindkettő alapján nyilvánvaló, hogy lesz BSOD.
Yup, félreérted. A driver próbáljon indítani annyi szálat, amennyit csak szükségesnek érez, viszont a szoftver tehessen erre korlátot. Amit akár kipublikálhat a user felé is valamilyen formában. Ily módon a driver-játék közötti kompromisszumba bele tud szólni az IHV, aki ismeri a hardvert és a drivert, a fejlesztő, aki ismeri a játékot, és a user, aki ismeri a gépét és a saját elvárásait.
-
HSM
félisten
De ez nem megoldás! Éppen ez a lényeg! Ez egyfajta kompromisszum, az AMD egy másik, az Intel pedig egy harmadik. Mindegyiknek megvan a maga előnye és hátránya.
A BSOD-t okozó hibák szvsz igen hamar ki fognak bukni. Ha pedig kibuknak, ki lesznek javítva, amivel már játszani fogunk, nem nagyon fog BSOD-zni.
"Ha limitálom a szálak számát, akkor nem teszek nekik félre erőforrást, hanem maximálom, hogy mennyit vihetnek el. Ha ez nem elég a grafikára, akkor kevés lesz az FPS, és vissza kell venni a beállításokból."
Az AMD pontosan ezt csinálta, nem indított annyi szálat, mint az Nv drivere, és pontosan az is történik, pl. BF4-ben kicsit lejjebb kell venni a grafikát DX11 alatt (Ultra-->High), mert nem bír el a driver a sok repkedő szirszarral, amiket szétszór a játék Ultra-n.
Kicsit fura, hogy azt a megoldást írod rosszabbnak, amit magad is javasoltál megoldásnak egy másik hsz-ban. Most akkor hogy is van ez? Vagy én értettem félre valamit? -
huskydog17
addikt
"Esetleg egy PC-s port eljusson arra a szintre, amivel tele vannak a Sony exkluzív címek, hogy tényleg brutálisan szétverhető"
Red Faction széria
"az AI is olyan, hogy bekerít, meg dobálja vissza a gránátokat, vagy ketten folyamatosan lőnek, a harmadik meg dob egy gránátot, a negyedik a sziklafalon mászik mögéd, hogy kirobbantsa a menedéked, szóval ezek a tipikus Uncharted jelenetek."
Hm...ilyet már 2005-ben is láthattunk (F.E.A.R.), de az újabb címekben is van (Splinte Cell Blacklist).
Továbbra sem értem miért forradalmi a konzol exkluzív címek AI-ja, semmi különlegeset nem látok bennük.
-
A gameplayt nem is kell skálázni. Azok az alap (ahogy a geometria is), és ahhoz kell(ene) hozzálőni a rendszer függvényében, hogy mennyit kaphat maximum a driver.
Az nVidiára fogni ezt a dolgot alsó hangon is hülyeség - nekik volt megoldásuk egy helyzetre, amire az AMD-nek nem. Nem volt jó megoldás, de a semminél jobb. Ha azt hiszed, hogy az nVidia aggresszíven multithreadelt drivere nélkül jelentősen jobb lenne bármi gameplay fronton, akkor igen naiv vagy.A BSOD-ban semmi gumicsont nincs - a játékok tele vannak hibákkal, és egyes hibák a nagy szabadság miatt meg fogják borítani a rendszert.
"Rendesen megírt programokat kell használni, és nincs gond."
Akkor innentől el lehet felejteni az AAA játékokatHa limitálom a szálak számát, akkor nem teszek nekik félre erőforrást, hanem maximálom, hogy mennyit vihetnek el. Ha ez nem elég a grafikára, akkor kevés lesz az FPS, és vissza kell venni a beállításokból.
-
füles_
őstag
Bocs de ez kötelező
-
HSM
félisten
válasz
Ren Hoek #9311 üzenetére
Szerintem nem fog ehhez 5 év kelleni. Konzolokon már ki van taposva az út.
Az AoTS sebességéből pedig kár kiindulni, mivel még béta állapotú sincs.
Egy ilyen programot NEM SZABAD olyan kész programokhoz hasonlítani, amik a végletekig lettek optimalizálva kiadás előtt.(#9313) gbors: Ja, látom.
Igen, pontosan ez a gond, hogy a játék szimulációjához tartozó dolgokat elég nehézkes skálázni, mint pl. a fizika, vagy AI. Itt persze nem a particle-esőre gondolok amit pl. a GPU-PhysX tud, hanem a valódi, játékmenetre ható fizikára. Ha viszont nem tudod skálázni, akkor a megcélzott leggyengébb procin is futnia kell, amire a kiadó igényt tart, az összes egyéb folyamat mellett is, kiemelve a GPU driverét is. Ugyanez komolyabb gépeken, mivel ugye az is elvárás, hogy az aktuális gamer konfigokon is jól menjen.
Szval én arra akartam utalni, hogy userként, ha csak a most érdekelt, jobban jártál az Nv-vel, de ennek mindenki más itta a levét. Ami már a DX12-vel nyilván remélhetőleg csak a múlt, de ide tartozik, ha meg akarjuk ítélni az Nv és az AMD driverét.(#9321) sayinpety:
Mondjuk nekem a véleményem, hogy egyik gyártót sem kell félteni.(#9324) gbors: Remélem nem akarod a BSOD-s gumicsontot ismét előszedni... Rendesen megírt programokat kell használni, és nincs gond. Aki meg sz@rt akar majd eladni, annak úgyis híre megy majd.
(#9335) Abu85: Hát ez a forma hatalmas.... Azóta is ezen röhögök: [link]...
(#9350) gbors: Számtalan gondot vet fel ez a modell is. Pl. a szál nem feltétlen független egy másik száltól. Pl. 4 szál vs 4 szál egészen más egy i3 és egy i5 esetén, vagy egy FX4000-nél.
Azonkívül gond, hogyha fixen limitálod a driverek szálait, akkor vagy túl sok erőforrást teszel nekik félre, vagy más szituációkban a sok is kevés lehet. Szerintem ez nem lenne kellőképpen rugalmas.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #9349 üzenetére
Nagyrészt a programon múlik a működés, de például az allokációért, a shader fordításért, illetve a multi-engine esetében a fences kezeléséért még ma is a driver felel. A shader fordító az kb. ugyanaz, mint a DX11-es, szóval azon persze lehet javítgatni, de kvázi kész. Az allokáció viszont érdekes, mert a drivernek kell eldöntenie, hogy 64 kB-os, vagy 4 kB-os blokkokat használjon az adott pufferhez. Nem biztos, hogy ma jól döntenek a driverek, és ezen csak tapasztalattal lehet javítani. Végül a fences azért fontos, hogy az aszinkron feladatokat a driver tényleg jól időzítse, vagyis ténylegesen párhuzamosan fussanak a hardveren belül. Ma ez se feltétlenül működik jól.
A befolyás megszűnt, de ettől még pár dologról a driver dönt. De nyilván nem lehet a program hibáit driverből korrigálni.
-
Mivel a jelen CPU-oldali működésben az ILP extraction nem terjed ki több magra, a szabályozás egyszerűen mehetne lefojtással - kevesebb threadet kap a driver, aztán hello.
Abban persze igazad van, hogy a járt út egyszerűbb a járatlannál, de a PC-n uralkodó húszmillió variációs lehetőséget járt útnak tekinteni igen bátor dolog. De mindegy, mert most már úgyis erre haladunk - szerintem lesz ebből még mozgás visszafelé, szabályozottabb irányba, de ez biztosan nem lesz rövid folyamat.A PCI-E magyarázat a 6300 és a 8370 között sántít, de már jobb egy kicsit. Viszont így meg nagyon ciki, ha az egyik szűk keresztmetszet helyett behozunk egy másikat
(#9339) Malibutomi: azért azt ne felejtsd el, hogy a neten olvasott tesztek VGA-limites szituációkban készülnek. Gyengébb CPU-val, kevésbé VGA-orientált scene-nel és beállításokkal eléggé más a kép.
(#9347) cain69: a C2C teljesítmény annyival nem gyengébb az FX-ben, hogy az i3 így lenyomja egy olyan helyzetben, ahol 4 fizikai mag megy 2C/4T ellen. Nincs amúgy jobb elméletem, de szívesen látnék egy olyat, amin nem találok fél perc alatt egy hatalmas lyukat...
-
Ren Hoek
veterán
De majd később, ahogy javul a DX12 kód, és ahogy kezdik megtanulni a gyártók a működést egyre
Ezt most mire érted pontosan? Javul az AOTS kódja, ezáltal mondjuk az NV jobb drivert írhat mellé? Most akkor a fejlesztők optimalizálnak és/vagy a gyártók is folyamatosan DX12 játékokra a szokásos nv/AMD kiadott driverekkel?
Eddig úgy értelmeztem, hogy a driver kernel eltűnésével, a gyártóknak kevésbé lesz befolyása, és a játékfejlesztők dolga az optimalizálás különböző architektúrákra.
-
Abu85
HÁZIGAZDA
Mindegyik gyártó károg. Egyedül a Microsoft és az Oxide elégedett. De majd később, ahogy javul a DX12 kód, és ahogy kezdik megtanulni a gyártók a működést egyre nagyobb lesz az elégedettség.
(#9340) rocket: A Crytek anyagi helyzete össze sem hasonlítható az Oxide-dal. És ez meglátszik az optimalizáláson is, amiben még mindig hihetetlenül jók, de érezni lehet, hogy a CryEngine 3.4-től kezdve az optimalizálás eltolódott a dokumentált Intel és AMD architektúrák felé.
-
lyukak vannak benne, de az i3 és az fxek látványosan capelnek 40 fps környékén. az fxek előbb, amit magyarázhat a gyengébb clock-to-clock teljesítményük. a 8magos (x2 ht miatt) haswell-e és a 4 (x2) magos skylake is hasonló fps-t produkálnak. ha van jobb elméleted, szívesen meghallgatom.
-
válasz
Malibutomi #9339 üzenetére
Engem az se lepne meg ha a Game Ready driver valami trükkel érné el ezt... (mármint hogy a DX11 és a 12 is ugyanúgy fut).
Nyilván a valóságban nincs ekkora NV előny, mert nincs olyan játék ami a DX11-et így térdre kényszeríti.
Ez csak azt mutatja, hogy lehetne olyan DX11 játékot is csinálni ami NV-n még jól futna, AMD-n meg már nem.A 390X és a GTX980 más játékokban is fej fej mellett van, ugyanúgy mint itt DX12 alatt.
Ergo ugyanúgy fej-fej mellett lesznek DX12 játékokban is (ahogy ma is), ez csak ennyit mutat. -
Ren Hoek
veterán
Ezen teljesen ledöbbentem én is. A piacon lévő legfejlettebb GCN arch, a legbrutálisabb HBM memó sávszélesség, a jövő játékaira optimalizált sok compute, kevesebb ROP és egy AOTS, ami compute,sávszél és úgy minden szinten megeszi a mai generációt.
Erre a Fury a 980 Ti-hez képest (Maxwell2, GDDR5-el, TIER2 stb...) arányaiban semmit sem gyorsult konkrétan DX12 alatt.
Na itt mi történt? Erre nem magyarázat a 2 mag lock sem, főleg, hogy eddig AMD logó alatt demózták az egészet és volt idejük reszelni. Vagy az Oxide-nál k..úrták el a Fury-t, vagy én nem tudom ez mit jelent. (A Fury mellett Ti-vel szemben egyetlen érv volt eddig, az a DX12...) -
imi123
őstag
válasz
Malibutomi #9339 üzenetére
Guru3D-n volt egy kifakadás amit utána gyorsan töröltek is.
Az illető az AMD driver programozásában volt aktív résztvevő.Nem kicsit sérelmezte hogy 10-ed annyi embertől várnak el az AMD-nél ugyan olyan minőséget mint az Nvidiánál.
Ezért is erőlteti az AMD szerintem a Dx12-t.Így legalább tovább lökik a munkát.Ott a hardver.Ott a full dokumentáció.Tessék használni.Mondjuk van benne logika. -
smkb
őstag
válasz
Malibutomi #9339 üzenetére
Usa napidíjakkal nézve mondjuk kb 10.000 usd költség havonta 1 fejlesztő, 10 az 100.000, éves szinten 1.2 millió usd. Nem olyan kevés ám az, főleg nem olyan cégnek aki csak veszteséget termel. És ugye emellett ezermillió más van ami "nem férne bele"... hát sajnos nem fér.
-
rocket
nagyúr
válasz
sayinpety #9321 üzenetére
Mindekozben meg sose latott melysegbe sullyedt az AMD es szaguld a tenyleges csod fele.
Nekem ez nem siker tortenetnek tunik.#9339: Az erem masik oldala, hogy egalban van a 980Ti-vel DX12 alatt AOTS-ban, mikozben ugye vannak DX11 jatekok amiben gyorsabb a Fury-x, pl. Ryse, innen nezve megnagyobb blama, hogy az agyon hypeolt AOTS nem hoz semmi extrat az AMD-nek.
-
Malibutomi
nagyúr
Nekem az tetszik a legjobban, hogy sokan ugy csinalnak a teszt DX11 eredmenyei alapjan, minth az NV ennyivel az AMD kartyak elott lenne jatekokban, holott par szazalak a kulonbseg, az sem mindig az NV javara...az AMD ocska DX11 drivereivel egyutt.
Foleg viccesek az olyan kijelentesek hogy "nem tudnak mit kezdeni a DX11 driverrel". Mintha fizetni 5-10 programozot lenne a legnagyobb kiadas, es nem ferne bele. -
Abu85
HÁZIGAZDA
Te tényleg elhiszed, hogy egy hajszálnak 300-400 szakaszból kell állnia? Vagy, hogy szükséges egy nem látható geometria a felszín alá kvázi mikropoligonokkal? Vagy, hogy közel 10000 háromszögből kell állnia a teljesen sík felületeknek?
Egyébként nem azt akarom mondani, hogy ez rossz stratégia. Ma választásokat nyer a politikai elit az alacsony IQ-ra építve. Miért ne lehetne egy gyártónak is kihasználni azt, hogy a felhasználó buta? A legtöbb ember úgy sem akarja beismerni, hogy átverték, tehát továbbra is győzködni fogja magát, hogy márpedig valami oka biztos van annak, hogy sokkal többet számol a program, mint kellene. Logikus magyarázatot nem fog rá találni, de az a lényeg, hogy saját magát meggyőzze, hogy nem verték át. Legrosszabb esetben a fejlesztőre tolja a felelősséget. -
Egon
nagyúr
válasz
Laja333 #9326 üzenetére
Mert talán a szemüveges poénod nem személyeskedés
Nem, az tény - te magad ismerted el, hogy gyűlölöd az nV-t (így persze nyilván elfogulatlan véleményt várhatunk tőled...). Esetleg fogalmazhattam volna úgy, hogy vedd le azt a szemüveget, amely kiszűri a zöld bármely árnyalatát, nehogy véletlenül ilyen színt láss...
Örülök, hogy nem érzed szivatásnak, hogy az NV egy saját maga generálta erőforrásigényt kihasználva késztet arra, hogy megvedd az új kártyáit.
Erről beszéltem. Az állításodra mondjuk nem ártana némi bizonyíték, az Abu-mantra helyett. Egyetlen játéknál fordult elő, hogy a Kepler az indokoltnál lassabb volt a Maxwelles kártyákhoz képest (tudtommal ezt is javították utólag). További példákat hiába kértem Abutól itt, érdekes módon nem jöttek...
Ellenben az én példám (játékok megjelenítésére időzített driver), igencsak konkrét és kézzel fogható. Az AMD nyilván nem szívatja azzal a vásárlóit, hogy adott játék hónapokig játszhatatlan (míg nem jön újabb driver), ugye?
Persze tudom, neked ilyen sosenem volt, tehát a jelenség nem létezik, vagy user error...
-
Abu85
HÁZIGAZDA
Pedig a modell hibája. Ha ez nem ad lehetőséget a szabályozhatóságra, ilyenkor az implementációnak sincs lehetősége erre.
Nyilván az egészen egyértelmű, hogy a mostani modell nem működik, tehát egy másik irányt kell választani. Persze el lehetett volna azon gondolkodni, hogy egy olyan köztes modellt dolgozzanak ki, amivel szabályozni lehet a driver munkáját, de soha senki sem csinált ilyet, tehát nem tudjuk, hogy működne-e. A konzolon viszont a teljes szabályozást már csinálják a fejlesztők, és az működik. Szerintem a kérdéses és egy már bizonyított modell közül mindenki az utóbbit választaná.Korábban írtam, hogy ez a motor az L1 gyorsítótárból sok adatot másol a VRAM-ba, és ez érzékenyen érinthet olyan processzorokat, amelyeknek nincs integrált PCI Express vezérlőjük.
-
Laja333
őstag
Mert talán a szemüveges poénod nem személyeskedés.
Csak arra reflektáltam. Szokás szerint... Ne ess a saját csapdádba.
Örülök, hogy nem érzed szivatásnak, hogy az NV egy saját maga generálta erőforrásigényt kihasználva késztet arra, hogy megvedd az új kártyáit. Nem, AMD nem csinálja ezt. Most semmiképp, ti meg, mint hű Geforce vásárlók a mának éltek, nemde? Példának ott van a teljes GameWorks felhozatal. Marketing szempontból zseniális. Akinek NV részvényei vannak, akkor megértem, aki neki drukkolsz. Ellenkező esetben ne várd, hogy ne nézzek borús szemmel azokra, akik az NV-t magasztalják és AMD halálát kívánják.
-
Yllgrim
őstag
Az eddigi hozzaszolasok alapjan kb senkit nem erdekel mit tud technikailag a hardver, egy dolog a lenyeg, menjen mint atom. Ha majd az elkovetkezendo idoben az AMD cuccain lesz ez meg akkor majd mindenki AMD-t vesz (?), mert drivert ir a jatekfejleszto, nem az AMD, ott jol fog menni, oda lesz normalisan optimalizalt VR meg tarsai. mire a konkurencia utoleri oket sok minden megvaltozhat. Ha most benyaltak sokan hogy a zold a jobb, a piros meg szarabb, akkor mibol gondolod hogy ezt nem lehet ujra eljatszani veluk forditva?
sayinpety: probalj meg picit tobbet hozzaszolni ha belefer, reszemrol elmenyszamba mennek az irasaid.
-
Az, hogy nem lehet szabályozni, az implementáció hibája, nem a modellé, ezért nem értem az első mondatot. Nekem pont az a véleményem, amit a végén írtál, hogy egy kicsit túltolták a szekeret ezzel a fene nagy szabadsággal, de láthatóan az inercia-törvények pont ugyanúgy működnek szabványok esetében, mint fizikai tömegekkel
Arra azért kíváncsi leszek, mit fog mondani Johnny C. Duty, amikor először szembesül a hosszú évek óta nem látott BSOD-dal játék közben...(#9318) Abu85: igen, ezt hallottam én is, de ez nem magyarázza, hogy mitől kétszer gyorsabb i7-6700K mind az i3-4330-nál, mind az FX8370-nél.
(#9316) cain69: A 4 magos elmélet is ugyanúgy beteg - az FX-i3-i7 relációkör közül az egyik párt magyarázza, de a másikat nem.
-
Egon
nagyúr
válasz
Laja333 #9317 üzenetére
Érvelés helyett szokás szerint jön a személyeskedés?
Én legalább írtam konkrétumot, te még csak azt sem (az Abu-féle agymenéseket nem tekintem konkrétumnak, bocs. Csak ha máshol is megírják.).
Az árképzés része pedig valójábal Solt-nak ment (mivel az ő és cyberkind eszmecseréjéhez csatlakoztunk). -
sayinpety
tag
válasz
schwartz #9264 üzenetére
Reszben a driver. Kis terhelesnel az en enginem lassabb NV hardwaren D3D12ben. Nagyobb terhelessel jon +30-50 szazalek. AMD sokkal jobban gyorsul +100-200 szazalek.
Szemelyes velemenyem szerint a Microsoft hibazott. Kevesen tudjak hogy szuletett D3D12. Evek ota rossz a D3D. D3D9 ota tart overhead csokkentes? State blocks, large state groups, deferred context. Mind bukas! Az AMD D3D11 megjelenese elott mondta a kernel graphics driver miatt nem gyorsulunk. A Microsoft arogansan mondta AMDnek mutassanak jobbat. Az AMD 2009re osszerakta elso prototype explicite APIt. Egyik kolegam szerzodtettek Sonytol. Ismerte a GCMet. 2009 vegen megmutattak mi lehet a megoldas. A Microsoft azonnal penzt ajanlott nekik a source codeert. A D3D12 alapja 2012es AMD prototype API source. Ezert hasonlit ennyire Mantle, D3D12, Vulkan. Mind harom AMD fejlesztes. Am az AMD sajat nezopontjabol fejlesztett. 2012 vegen keszult el elso D3D12 specification. Az Intel, NV szabalyosan ordibalt miatta. Kesobb kiderult AMD nem kert penzt source codeert, cserebe core specificationt meghatarozhattak. 2013ban jott a Mantle. A Mantle a Microsoftnak varatlan volt. Felgyorsult a D3D12 fejlesztese. Nem voltak vitak. Az Intel, NV lecsendesedett. A Mantle nagyobb fenyegetes volt, mint a D3D12 core specification. Tobbi ismert.
A D3D12 core specification AMDnek kedvez. Megkoveteli a multi-engine es binding reasources Tier3 codeot. Intel, NV szamara nem tetszik, hogy tobb az overheadjuk mint AMDnek. A Mantle miatt a Microsoft felelos. Szerintem maig banjak, hogy nem vasaroltak meg source codeot. A Microsoft es Khronos csak hasznalatra kapot jogot, am az AMD tulajdona maradt. Ebbol meg sok baj lesz!
Az AMD honapok ota kerdezi mire van szukseg. Rengeteg informaciot gyujtottek. Velemenyem szerint a tervuk veszelyes. Mire vitara kerul egy specification update mar hardware es Mantle updateje van AMDnek. Egy IHV sem fog vitazni, ha konkurens termek kesz. Liquid VR jo pelda. Az AMD minden vR specificationt leadott. Ha elfogadjak jo. Radeonhoz illo szabvany. Ha nem fogadjak el jo. Csak Radeonon mukodik. Az AMD velemenyem szerint manipulacioval elerte a piac iranyitasat.
A Gameworks ezert lett. Mindenki utalja a middlewaret, am nincs mas valasztas. AMD a ket konzollal kepes lesz gyorsan fejlodni. NV tehetetlen. A Gameworks celja a fejlodes megfogasa.Nem tartom PCt rossz piacnak, am teny rosszak az APIk. Mindenki nyugodt volt regen. Mindenkinek ugyanolyan rossz volt D3D, OGL, etc. Amikor kertunk jobb APIkat nem arra gondoltunk, hogy az AMD dolgozza ki! Nem szabad ekkora hatalmat adni IHV kezebe, mert annak eredmenye a kaosz. Ezert csak Microsoft es Khronos Group hibas.
-
rumkola
nagyúr
ez mi??
[link] -
Laja333
őstag
Össze-vissza beszélsz. Még csak meg sem értetted amit írtam. És abból amit írsz az jön le, hogy nem is látod igazán mit csinál az NV. Nem, sajnos nincs piros szemüvegem. Simán vennék más gyártótól VGA-t, akár Intel (ha gyártana) vagy bármi más új belépő vagy régi visszatérő cégtől.
Nem, nem AMD-s vagyok, hanem ki nem állhatom az NV-t, hősiesen megdolgoztak érte. Van különbség. Az már csak egy következmény, hogy alternatívát csak az AMD ad.(#9316) cain69
4? Nem csak 2? -
Abu85
HÁZIGAZDA
Pont ez a baj ezekkel, hogy program oldaláról nem lehet szabályozni. Pontosan ez az oka annak, amiért mind a négy új API teljesen kidobta ezt a működési modellt. A Microsoft is megtanulta a leckét, hiába mondja meg, hogy mit tart ideálisnak, ha egy gyártó nem követi, akkor teljesen felborul minden. És a gyártók nézőpontja is érthető, szétszednék a PC-t a rajongók, ha látnák, hogy a konzolok megverik grafikában, de egy átlag user nem annyira képzett, hogy megértse miről kell így lemondania. És ez egyáltalán nem jó a usereknek.
Aztán persze az sem ideális szerintem, hogy add oda az egészet a fejlesztőknek, hogy boldoguljanak vele. De tulajdonképpen ez a két lehetőség van, és az egyik lehetőség elbukott, tehát marad az alternatíva.
-
Ren Hoek
veterán
Én akkor látom megvalósultnak, ha kijönnek az értelmes AI-s játékok, full rombolható környezet, normális szim, kicsit gazdagabb világ (sok draw call) mindez kevés plusz proci terheléssel - legalább 5-10 játéknál. Ez nem hogy 1 éven belül, de max 5 éven belül reális.
Eddig ebből semmi nem valósult meg és nem is látok semmi ígéretet rá a következő 1 évben. Az AOTS-ot én kihagynám egyelőre, mert olyan szemét szarul fut a mai generációkon (furi módon még gigasávszéllel rendelkező Fury-n is...) brutális prociterheléssel, grafika 2009 szinten köhörészve 40-50 FPS-en FHD-n a csúcs 250K-s VGA-n
...és elvileg még ez egy kis pálya kevés egységgel.
El sem tudom képzelni, hogy egy openworld DX12-es játék durva szimulációval, sok egységgel, animációval és AOTS helyett next gen 2015-ös grafikával milyen rendszert fog kérni... 8 magos i7-6990K, dual Fury-X2??
-
Egon
nagyúr
válasz
Laja333 #9293 üzenetére
LOL, szórakoztató ez a topic. Esetleg vedd le a piros szemüveget, és próbáld úgy nézni a dolgokat, sokat segítene...
Szeretném, ha még sokáig "szivatna" az nV, pl. a játékok megjelenésére időzített driverpolitikával, satöbbi. Volt AMD-m, azt éreztem szívatásnak (nyilván mindenki a saját hibája miatt számol be szívásokról a Catalyst topicban, aki panaszkodik). Amíg van alternatíva, nem kérek belőle. Ami az árakat illeti: az Intelnek gyakorlatilag nincs konkurenciája a desktop procik felső kategóriájában, mégis 100 éve 1000 dollárról indul a legdrágább procijuk (nem mellesleg az első kétmagos AMD csúcsprocik is annyiról indultak: gyorsan eltanulták az Intel árazását...Szerethető cég, jah.).
-
füles_
őstag
válasz
#Morcosmedve #9307 üzenetére
Hiába ref ha az Asus matricája 15 ronggyal drágább mint a Gigabyte matricája
A jobb kifejezést ne használd mert abba beletartozik minden,helyette inkább az erősebbet használd
.Mondjuk hang és melegedés terén elmarad a TI.
-
HSM
félisten
Szerintem elég szélsőséges. Az egyik olyan játék, ahol DX-ben látványosan gyorsabb az Nv drivere maxgrafikán olyankor, amikor mindenféle szirszar repked a levegőben.
A felvetésem lényegi részére hogy nem válaszoltál, egyetértést jelent?
(#9273) rocket: A profit termelés kinek jó? Nekik! Nekem édesmindegy, nem vagyok egyik cégnél sem részvényes. Pontosabban nem mindegy. Ugyanis én még 3 év múlva is szeretnék PC-s játékokat játszani, és nem olyanokat, amik a csilli-villi grafika kedvéért a béka segge alá vannak minden más téren butítva, hogy az Nv drivernek is maradjon elég CPU-ideje a játékot vinni a hátán.
Bár lehet, végülis ez sem érdekel. Már egy ideje tizedannyira sem érdekel a PC játék, mint régen.(#9289) cyberkind: Engem hagyj ki ebből, nem piacrobbanást vártam a DX12-től, hanem egész más dolgokat. Amik nagyjából megvalósulni is látszanak.
-
Erdei88
veterán
válasz
Laja333 #9304 üzenetére
Mi ez a király többes? Melyik részét nem értetted?
Aki nem szeretne GTX980at venni, annak jó alternatíva a 390X. 390Xel kapcsolatos specifikációkat mindenki elolvashatja, és el tudja dönteni, hogy "átnevezett, tuningolt 290x" vagy esetleg egy forradalmi újítás.
A 200K-s Fury-tól sem marad le, annyival semmiképpen se mint amennyivel többe kerül
-
Laja333
őstag
Akkor ha lesz lehetőséged nézz meg egy 290x-et új branch driverrel. Meg fogsz lepődni.
(#9302) Erdei88
Ezt csípem benentek.Akkor most a 390x nem egy átnevezett, tuningolt 290x?
A Fury Pro meg már megint a 980 ellenfele?
Komolyan nem tudom eldönteni mi alapján döntötök, hogy akkor most mi minek az ellenfele, meg átnevezés-e vagy sem. -
imi123
őstag
válasz
Laja333 #9297 üzenetére
Majd ha lesz lehetőséged nézz meg futás közben egy 970 vagy 980-as karit.
Utána jelentsd ki hogy ugyan azt tudja a 290X-ed.
Volt szerencsém 290-290X-970-980 kártyákhoz.
Nem mondom hogy a 290X rossz kártya,de nemhogy a 980-at a 970-et sem veri.
Ezt tapasztalatból mondom nem a tesztek alapján.Én régimódi vagyok.Csak a szememnek hiszek!
Sajnos a Microlaggal nem tud az AMD mit kezdeni DX11-ben.Kiegészítésként.Én nem vagyok FPS huszár.Nekem a folyamatos stabil futás többet ér mint a +10 FPS.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- One mobilszolgáltatások
- Bibliai bőség a Tesla negyedik mestertervében
- sziku69: Szólánc.
- Elektromos autók - motorok
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Nagyon erős ajánlat lett az Apple Watch SE 3
- Kézbe fogható paradoxon lett az iPhone Air
- Fotók, videók mobillal
- Óvodások homokozója
- További aktív témák...
- MSI GeForce RTX 4080 SUPER GAMING X SLIM 16GB GDDR6X 256bit Videókártya !
- MSI Radeon RX 6400 AERO ITX 4GB GDDR6 64bit Videokártya !
- MSI GeForce RTX 4070 Ti GAMING X SLIM 12GB GDDR6X 192bit Videokártya !
- GIGABYTE GeForce RTX 5060 Ti WINDFORCE OC 16GB GDDR7 128bit Videokártya !
- GIGABYTE Radeon RX 7600 XT Gaming OC 16GB GDDR6 Videokártya !
- Bomba ár! Dell Latitude E7440 - i5-4GEN I 8GB I 500GB I 14" HD I HDMI I Cam I W10 I Gari!
- ZTE Blade A31 Plus 32GB, Kártyafüggetlen, 1 Év Garanciával
- 142 - Lenovo LOQ (15IAX9) - Intel Core i5 i5-12450HX, RTX 4060 (ELKELT)
- Bomba ár! Lenovo ThinkPad X260 - i5-6G I 8GB I 256GB SSD I 12,5" HD I HDMI I CAM I W10 I Gari!
- Azonnali készpénzes AMD Radeon RX 6000 sorozat videokártya felvásárlás személyesen/csomagküldéssel
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest