Hirdetés
- sziku69: Szólánc.
- sellerbuyer: Milyen laptopot vegyek? Segítek: semmilyet!
- MaxxDamage: Vizes Laptop Hűtés? Lehetséges? Igen!
- Luck Dragon: Asszociációs játék. :)
- Argos: Az vagy, amit megeszel
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- sellerbuyer: HDMI vagy DisplayPort kábellel szebb a kép?
- sziku69: Fűzzük össze a szavakat :)
- skoda12: Webshopos átverések
- Gurulunk, WAZE?!
Új hozzászólás Aktív témák
-
Ha ez így van, akkor az amd helyében most szállnék ki a gamer vga gyártásból. Ráfeküdhetnének a cpu-konzol-professzionális vga-miner vga négyesre (abból legalább van profit), aztán hagy használja mindenki a jól megérdemelt nv kártyáját. Micsoda sírás lenne itt fél év múlva az árak miatt.
-
.LnB
titán
Kezd körvonalazódni a kép, hogy az NV mire járszik. Kb az összes játék ami nem a Bethesda-tól jön, az NV-s lesz. [link] Csírájában folytják el az AMD szuper Vega képességeit úgy néz ki. Forza 7 is NV támogatott PC kiadást kap.
-
válasz
huskydog17 #30369 üzenetére
Lassan két kezünkön se tudjuk összeszámolni az elmúlt két év "mégsem jött be" kategóriás AAA játékait...
Minden ilyen reviewnél ki kéne rúgni egy újabb embert az AMD-től... -
nubreed
veterán
válasz
szmörlock007 #30382 üzenetére
Én is csak lesek.
Eddig ő is piros szemüvegen át nézte a világot. De az ember mindig fejlődhet jó irányba, mint a példa is mutatja.
-
válasz
Petykemano #30394 üzenetére
Mondhatni a miner piac beárazta a kártyákat a hashrate alapján.
-
4264adam
veterán
GTX1050Ti ellenfelének nem szán semmit az AMD?
-
namaste
tag
Sok DX11 játék nem használja ki a négy magot, így marad CPU idő a drivernek.
Az MS-t nem volt nehéz meggyőzni, hiszen az Xboxban AMD GPU van. Biztos az AMD mindig meglepődik, amikor negyedévente megkapják a csekket az MS-től.(#30376) Abu85
Nem kell diszkvalifikálnod a Geekbench Compute tesztet, csak azért mert az anandtech.com egy plusz 0-t ír az elért pontszám közepébe.
A Geekbench oldalán jelenleg 229763 maximum pontot kap a Vega.
Vega-val van a listában AMD Tambourine (Ryzen 5 2500U és Android), valamint AMD Mandolin.(#30379) Abu85
Mik azok a fast path-ok? -
Petykemano
veterán
válasz
szmörlock007 #30382 üzenetére
Úgy vettem észre, hogy abu alapos és jószándékú ember: szívéhez közel áll a szolíd tévedések kedves korrigálása. Eközben el szokott ejteni néhány friss vagy nem széleskörben ismert infót. Ezért szoktam provokálni.
Ma például megtudhattuk, hogy a dx11-ben a geforceok fast patht használnak, ami dx12-ben nem elérhető (még), és ez megmagyarázza, hogy miért lassabb a dx12 a dx11-hez képest.
Valamint azt is, hogy a jövőre érkező 8 magos intel procik, lehet hogy még mindig 14nm-en érkeznek majd.Persze ezeket vagy elhiszi az ember, vagy nem. Abu nem az abszolút igazságot mondja, hanem a saját legjobb ismereteit.
-
Petykemano
veterán
Jó, ez igaz, hogy ez a manőver sikerült, de ez még csak pillanatnyi siker, illanó mámor. Ráadásul azt látni, hogy a kezdeti dx12+async apró sikerek mintha egálba billentettték volna az erőviszonyokat, addigra most már a dx12-ben sem egyértelmű az előny.
Középső rész. .. tulajdonképpen ha dx11-ben használhatók voltak a fast pathok, és ezek hiányában rosszabb lesz a teljesítmény, akkor kinek fog érdekében állni átállni rá?
A microsofton kívül. De persze az is látható, hogy ez az átállás, amihez az amd már rég igazodott( és eddig csak hátránya volt belőle ), és amihez az nvidia vagy igazodik, vagy lemarad, csak akkor fog beköetkezni, ha és amikor az nvidia is úgy akarja. Összességében az amd nem óriásit fog profitálni a bindless, meg SM6, stb eredményeképp, legföljebb csak nem lemaradni. Ezt nem nevezném sikernek.
-
Milka 78
nagyúr
válasz
szmörlock007 #30382 üzenetére
Felnyílt a szeme
-
szmörlock007
aktív tag
válasz
Petykemano #30378 üzenetére
Üdv
Mire fel nálad mostanában ez a nagy amd negativizmus?
-
HSM
félisten
"Az AMD csak kockáztatott, és bejött nekik."
Persze, maga amit alkottak szuper, de a GCN Radeonok sorsának szempontjából én azért ezt nem nevezném sikertörténetnek...
Éveket buktak ellenérdekek jóvoltából, míg a konkurencia letarolta a piacot a DX11-ben atom vasával. Ennek gondolom nem kell magyarázni a pénzügyi vonzatait sem...Persze, lehet, ez egyszer még nekik nagyon jó lesz, de eddig minden volt, csak nem sikertörténet a cég szempontjából.
-
Raymond
titán
válasz
Petykemano #30378 üzenetére
"Az AMD csak kockáztatott, és bejött nekik. Gondolom maguk lepődtek meg rajta a leginkább."
Erdemes benezegetni a topic-ba.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #30378 üzenetére
Úgy értem, hogy ma a Microsoft és a Khronos is explicit API-t kínál. Ez eléggé bejött így, mert lehetett volna úgy is, hogy az AMD prototípus kódját nem veszi át a Microsoft a DirectX 12 alapjaként, és a Khronos sem volt köteles a Mantle specifikációjából Vulkan API-t csinálni.
Ezekből rendkívül sokat fognak profitálni, miután a DirectX 12 programok átváltanak a bindless-re és ezzel lezárják a GeForce-ok fast path-jainak elérhetőségét. Kevesen tudják, de a GeForce igazából azért gyors DX11 alatt, mert bizonyos rajzolási parancsok nem a main path-on közlekednek. Ezáltal ezeknek a rajzolási parancsoknak a kiadás gyorsabb. A DX12 azonban ezt a lehetőséget elveszi, mert ennél az API-nál a meghajtó nem küldhet grafikai parancsot a hardverbe (ezért is a sebességcsökkenés sokszor a DX11-hez képest). Ezt csak az OS teheti meg, és az OS nem ismeri ezeket a gyorsabb adatutakat. A Microsoft elsődleges célja ezzel pont az, hogy a hardverek a parancsmotor szempontjából legyenek egységesebbek. Amint ez a váltás megtörténik hozzák majd a további OS fejlesztéseket, és akkor a gyártóknak ezek után kell menni. Például dupla általános parancsmotor, ami az Xbox One sajátja, de a Microsoft idővel le fogja hozni PC-be is. Azzal, hogy innentől kezdve a bemenetet ők kontrollálják teljes mértékben meghatározhatják, hogy milyen legyen a hardvere általános parancsmotorja. Vagy felel az igényre egy gyártó, vagy lemarad. A gyártói innovációt teljesen kiveszik az egyenletből az általános parancsmotorra vonatkozóan. Hiába épít akárki akármilyen jót, nem tudja etetni, mert a WDDM 2.x ezt megtiltja. -
Crytek
nagyúr
Project Cars 2 CPU/VGA teszt (GameGPU)
-
Abu85
HÁZIGAZDA
válasz
namaste #30350 üzenetére
A mai gyári meghajtókban mindben van többszálú optimalizáció. Nem a gyártóknál keresendő a kihasználás hiányának problémája. Ebből még az explicit API előtt tartott egy elődadást Repi. Ő mondta, hogy elméletben nagyszerű az egész, de a gyakorlatban nem működik. A driver elveszi az erőforrást a programtól, kritikus szituációkban lassít, még akkor is, ha enyhébb terhelés mellett gyorsabb, stb. És persze a gyártók implementációja eltérő.
Aki többszálú rendert ír ma az eleve nem választ már DX11-et és OpenGL-t, mert a Vulkan és a DX12 sokkal hatékonyabb megoldást kínál a problémára.
A cégek próbálkoznak sokfelé. Az AMD és az NV is. Csak az AMD úgy gondolta, hogy a DX11 után kialakult egy olyan fejlesztői támogatás, amit ki tudnának használni arra, hogy behozzák PC-re az explicit API-kat. Az NV valószínűleg átgondolta ezt is, csak ők azt hitték, hogy még ha csinálnak is egy új explicit API-t, akkor sem tudnák átverni az akaratukat a Microsofton. Az AMD csak kockáztatott, és bejött nekik. Gondolom maguk lepődtek meg rajta a leginkább. -
Abu85
HÁZIGAZDA
válasz
huskydog17 #30369 üzenetére
Ebben semmi csoda nincs. A Project Cars 2 az egy az egyben a Project Cars. Semmit sem fejlesztettek rajta technikailag. Persze ennek az oka a Bandai Namco Entertainment. Ők döntötték el, hogy kiadják ugyanazt még egyszer.
Eredetileg egyébként ez a Madness Engine új verziójával jött volna, amit anno nagyon ígérgettek, hogy DX12 leképezőt is támogat, de nem lett belőle semmi. A Bandai Namco a technikát háttérbe helyezte, és csak tartalmat kért. Emiatt a korábbi motor korlátjai ugyanúgy megmaradtak, így továbbra is tudna jó 30-40%-ot hozni a DX12, ahogy azt korábban ígérték, csak sosem adták ki. -
Petykemano
veterán
Ebben az a szép, hogy az FP32/FP64 eredményeket fogyasztás emelkedése nélkül és azonos méretben hozza. Ezt persze nyilván a gyártástechnológiának is köszönheti... azt is, hogy többet tudtak belepakolni és azt is. A gyártástechnológia adta teljesítmény előnyöket pedig a fogyasztás kordában tartására tudták használni, nem kellett még 50-100mhz plusz miatt kilőni vele a tetőt.
A volta legalább szintetikus tesztekben teljesít. Hozza a névleges paramétereket, skálázódik. A vega compute tekintetében egyébként szerintem rendben levő termék. De persze ne legyünk naívak, ha az amd holnap piacra dobna egy a voltánál kétszer gyorsabb, és kétszer kevesebbet fogyasztó kecses compute szörnyeteget, akkor se fordulna a piac overnight, akkor is több gyorsítót és gput adna el.az nvidia.
De ezzel együtt sajnks vega 17prim/clock meg még csak papíron létezik.
-
->Raizen<-
veterán
válasz
huskydog17 #30369 üzenetére
Elkepeszto a 970 de az 1080 sem kutya, a vega meg...
-
Petykemano
veterán
válasz
huskydog17 #30369 üzenetére
Aggasztó...
-
HSM
félisten
"Na ennek tükrében az AMD ...... siralmas amiket összehoz a végére."
Szval odarakták, hogy DL trainingben, amire külön fejlesztették a hardvert, 6-12X gyorsabb. Ez a célpiacon aranyat fog érni, ez kétségtelen. De hogy ez mint GPU, mennyit fog segíteni, hát, szvsz a jelenlegi szoftverkörnyezetben leginkább semennyit....
Szintetikus adatok a másik oldalról is vannak, pl. Fury 4 primitive/clock vs Vega 17 prim/clock, hozzáveszed a másfélszeres órajelet, ugyanúgy ott vagy a 6X-os tempónál. Viszont ez már érdekesebb GPU-szempontból.
-
huskydog17
addikt
RX 580 vs. GTX 1060: GTX 1060 gyorsabb 9-18%-al
Vega64 vs. GTX 1080: GTX 1080 gyorsabb 30-43%-alVega56 és GTX1060 FullHD-ben ugyanolyan gyors. Hm....érdekes.
Az első Project CARS sem feküdt az AMD-nek és a helyzet úgy tűnik nem változott. A Vega lemaradása gigantikusan nagy. Bár a Polaris sem brillírozik, hiszen az idén megjelent RX 580 a 3 éves GTX 970 szintjét éri el.
-
válasz
velizare #30367 üzenetére
Fogadd el, hogy ilyen az AMD. Ott csak táncikálnak, szivaroznak, pezsgőznek (lásd fentebb), de érdemi munka nem folyik. Ellenben az Nvidiánál folyamatos hajtás, tánc kizárt, és látod, hogy keresztbe-hosszába verik az AMD-t. Ez a megfeszített, fegyelmezett munka eredménye!
-
do3om
addikt
válasz
velizare #30365 üzenetére
Hmmm na akkor:
Nekem elég jónak tűnik a fejlődés ami összejött azokból a nyers számítási kapacitásokból ami csak részegységekre vonatkoznak a képeden. Hasonlóval igen csak elégetett lenne mindenki de ahhoz igen erősnek kell lennie a volta-nak.Na ennek tükrében az AMD ...... siralmas amiket összehoz a végére.
-
#45185024
törölt tag
Jön a V100 és rendet vág itt kéremszépen mindenki meneküljön tizenkétszeres deep learning! P100 hoz képest.
Azt hallottátok hogy a V100 kifejlesztési költsége 3 milliárd dollár !!! (3 billion dollars)
1 milióból vidéken megvan egy 3 emeletes 21 lakásos épület , na ilyenből 3000 építhető fel belőle !
Raja meg két kínaival ott forraszt kis költségvetésből
Lisa:
-Na kész van már a driver -Na kész van már a driver -
Puma K
nagyúr
Volta V100 spotted on geekbench.
Kínai oldal: [link]
"For reference, the Tesla P100 has a score of around 320,000 while this is scoring around 750,000."
"V100 does have 42% more cores than P100 but even if you factor that out you have a 66% gain in per-core performance. Yikes, NVIDIA has done another Maxwell."
"Also, if you look at V100, it's 33% larger but has 40% more cores - so Volta cores are actually smaller than Pascal cores."
-
TTomax
félisten
Fogyasztásban mindenképpen...
-
Televan74
nagyúr
válasz
4264adam #30351 üzenetére
Nekem ilyen monitorrom van. HDMI kábellel működik,de le kell tölteni hozzá az LG oldaláról az OnScreen Control programot. Ott tudod bekapcsolni a freesyncet.
Ha a monitoron próbálod,és nem kapcsolod ki,mielőtt kikapcsolnád a gépet,akkor nem fog bekapcsolni a monitor a következő indításnál.
Most meg arra jöttem rá,hogy ha be szeretnék lépni a biosba,akkor az OnScreen Controlba is kis kell kapcsolnom a freesyncet.Nem tudom miért így oldották meg.
DP-HDMI kábelt is vettem hátha úgy jobban működik,de az sem volt nyerő.Pedig kifizettem érte 3500 Ft -ot. A sima 1000Ft -os HDMI kábellel is frankón működik. -
4264adam
veterán
Sziasztok
Rendelkezem egy LG 23MP68VQ-P (40-75hz freesync HDMI) monitorral, mely típusú vga támogatja HDMI-n keresztül a freesync-et?
AMD honlapon csak a DP-t találtam.Amely kártya DP-n támogatja az HDMI-n is képes ha a monitoron csak HDMI van ? HDMI kábel típusa számít?
-
namaste
tag
A GCN és a Kepler kb. azonos teljesítmény/fogyasztás arányúak voltak. Energiahatékonyságban a Maxwell hozott nagyot a Tiled Caching-el.
A kényszer nem technikai, hanem inkább fejlesztői fókusz, az AMD nem engedhette meg magának, hogy sokfelé próbálkozzon.
Készül a Mesa 3D nyílt forrású driver OpenGL többszálú működési módja, majd meglátjuk mire képes, de biztató. -
HSM
félisten
"nem a GPU gyártóknak okoz nehézséget, hanem a játékfejlesztőknek"
Szvsz a fő probléma itt az idő, illetve a DX12 erősen korlátozott hozzáférhetősége a win10-hez kötöttsége révén. Szvsz ez jelenti a gondot a fejlesztőknek is, ugyanis amíg a DX11 alatt is működnie kell a cuccnak, addig a DX12 mód csak felesleges plusszmunka. -
Loha
veterán
Igen azt gondolom, hogy az AMD rendszeresen elfelejt tanulni a saját maguk, és mások által elkövetett hibákból.
DX12 -re való átállás nem a GPU gyártóknak okoz nehézséget, hanem a játékfejlesztőknek, meg nyilván a motiváció is hiányzik...
A GCN akkor sem lett volna jó ötlet, ha az NV marad a Ferminél, mert egy 40 nm -ről 28 nm -re átültetett, feljavított Fermi v3 simán hozta volna a 7970 szintjét, csak éppen az AMD a GCN -el elveszítette azt a képességét, hogy kisebb hatékonyabb GPU -val hozza ugyan azt a grafikus teljesítményt mint az NV, és mivel az AMD marketingje is kb. arra épült, hogy olcsóbban adják ugyan azt mint az NV...
(#30332) namaste:
Az nagyon gázos, ha az "AMD is megoldhatta volna a többszálú DX11 drivert", és nem kényszerből mentek csak a Mantle irányába... -
Televan74
nagyúr
válasz
Petykemano #30345 üzenetére
Múltkor olvastam valahol,hogy csak jövő év második felében jelenne meg a Volta.Nem csodálom a Vega nem szólt akkorát,nincs miért sietniük.Addig csiszolgatják még egy kicsit az Nvidiánál. Pedig arra én kíváncsi lennék. Na meg egy jó árú,nem annyira melegedő custom Vega56 -ra is,karácsony tájékán.Nem lenne baj hogy egy kicsivel többet fogyaszt és valamivel lassabb.
-
Crytek
nagyúr
válasz
Petykemano #30345 üzenetére
100% hogy nem lesz idén volta.... ez független az 1070titől.
-
HSM
félisten
válasz
Petykemano #30343 üzenetére
Így van, azt hiszem hasonlóan látjuk a helyzetet.
-
Petykemano
veterán
Akkor Szerintem alapvetően egyetértünk.
A draw call probléma. Ilyenekről beszélek én is. Látni kell persze, hogy alapvetően az amd próbálta a piacot kimozdítani a status quoból annak érdekében, hogy a szoftveres környezetet adoptáljon egy alapvetően compute orientált gpu architektúrának jobban fekvő apit. Az amd be akart törni a gpujával a hpc piacra, ehhhez készült a gcn (gurítottak egyet) és igyekeztek a szoftveres környezetet a gcnnek megfelelően alakítani. A draw call probléma felvetése ennek része. Abu ezzel kapcsolatban lehozta a csillagokat az égről, hogy mennyivel jobb lesz. Bármilyen jónak tűnt is, Végülis nem sikerült az amdnek eltekerni a piacot abba az irányba, hogy ez meghatározó tényező legyen. Ennek sok oka lehet, de a lényeg: nem sikerült.
-
#00137984
törölt tag
Az AMD gyengélkedésének egyik oka a VLIW fútószallag lecserélése volt a GCN-re. DX11-ben elégedett voltam a HD 6850 videókártyával, és talán azt a vonalat kellett volna még egy kicsit tovább tolni. Nvidia megmaradt az egyszerűbb hardveres felépitésnél, és csak a szükös keresztmetszetteknél toldoztak-foldoztak hozzá. Ezzel magas órajeleket tudtak tartani és kedvezőbb fogyasztást, amig az AMD a hardverét és a jó Catalyst drivert is túlgondolta. Minden GCN generáció váltás idején megjelenő kártyám alacsonyabb órajeleken járt (Pitcairn HD 7850 / 900-1000 MHz), ami egy ideig még gyorsult az R9 270X-ig 1120 MHz-re. A következő lépésben (Tonga / 1000 MHz) megint nem tudták ott tartani magasan az órajeleket és ezzel területet vesztettek az Nvidia-val szemben. Viszont a fogyasztás és a melegedés elfogadható volt és a kártyákat sem érte annyi kritika mint a Crimson drivert.
RX 400/500 és a VEGA-ról kialakult vélemények megosztották a játékosokat, de az órajelek megint emelkedtek, de ezzel a melegedés és fogyasztás is magasabb lett. Szóval nem találják a jó egyensúlyt a GCN-ben, és ezért a játékokban rendre alacsonyabb eredmények lesznek, mint amire előzetesen számitani lehetett. Nvidia mindig hozta a kötelezőt és még igy is sikerült néha kellemes meglepetést is okozni. GTX 1070 ti videókártyával is számitani lehet olyan 10%-ra, és alig fog elmaradni a GTX 1080-tól. Aztán a Volta fog egy jó nagyot szólni.
-
Televan74
nagyúr
válasz
->Raizen<- #30337 üzenetére
Nvidiát jobban szereti! Ez van!
-
HSM
félisten
válasz
Petykemano #30333 üzenetére
Nem, nem mondtam hogy csak passzív szemlélők.
Ahogy azóta leírtad a curling-es példád, mivel a piac sokszereplős, kicsit olyan ez, mintha a csip tervezése (ugye jó 4 évvel a megjelenés előtt) maga a dobás, ami nagyban meghatározza a lehetőségeid, utána miután kijött tudod a kefékkel kicsit még korrigálni az irányt, csak a bökkenő, hogy a 4 év alatt a pálya is sokat változhat, lehet, már nem is ott van a cél, ahova eredetileg elindítottad a lökést. Én erre gondoltam, hogy ehhez kell a jósgömb. Hogy megjósold, mire kijön a terméked, milyen piaci körülmények és érdekek uralkodnak majd, ugyanis ez döntően behatározza, mekkora mértékben tudod az akaratod, elképzeléseid végigvinni.
Gondold végig... Itt ez az ábra. [link]
Adott a draw call-os probléma, csinálsz rá egy koncepciót, ami a hagyományos DX11-el elérhető 1-2 millió helyett lenyom 20 milliót. Durván egy nagyságrendi különbség, brutális javulás. Gondolnád, hogy a zöldek az okos DX11 megoldásukkal, ami alig bő duplájára emeli ezt a limitet, azóta is sikert sikerre halmoznak?
Egyszerűen ez passzolt jobban a többi piaci szereplő aktuális érdekeivel. -
Crytek
nagyúr
-
Petykemano
veterán
válasz
cskamacska #30313 üzenetére
Nincs semmiféle gonosz nvidia. Ez a gonosz nvidiázás pont az a fajta demagógia, amivel a nvidia pr és hitvallók igyekeznek magukat értékmentes technokratának vallva letagadni a piacbefolyásoló tevékenységet. Mert a közönségnek könnyebb azonosulni egy jól eltalált gigászi mérnöki teljesítmény elképzelésével, vagy közgazdasági lózungokkal, mintha egy középszerű termék sikere a jóságon felül azon is múlna, milyen sikerrel képes a cég apró szorgos csápokkal a piaci viszonyokat úgy alakítani, hogy az elég jó terméke kiválónak látsszon.
Szó sincs persze arról se, hogy itt mindent az nvidia irányítana. Csupán arról, hogy a teljesítményt ne úgy képzeljük el, mint egy egyszereplős sportjátékot. Pl gerelyhajítás, ahol a dobás után már nincs ráhatásod. Nem úgy megy, hogy A versenyző felkészül, nekifut, háááát, nem lesz elég gyors, hajít, megy, megy, megy, kiváló dobás... is lehetett volna, de elszámította a szélirányt, és a páratartalmat, ezért sajnos csak egy közepes dobás lett. Az égre nézve biztos elvakította a nap.
B játékos felkészül, nekifut, na ez igen, micsoda sebesség, hajít, és fantasztikus.Sokkal inkább a curlingre hasonlít. Nekifutás ott is van, kell a jól irányzott lökés, jó sebesség, jó irány. De hogy a golyó tényleg odaérjen, ahová szánták, folyamatosan egyengetik az útját a kefékkel. Egyrészt. Másrészt ha az ellenfél jól elhelyezte már a golyóit, akkor egy kiválóan irányzott lökéssel és fantasztikus kefemunkával is lehetséges, hogy nem jutsz be a cél közepére, mert eltérít az ellenfél egy jól elhelyezett golyója és a legjobb lökéseid is csak lepattannak a cél irányából az ellenfél golyóiról.
Ez az a szitu, hogy annak a csapatnak, amelyik beljebb van, pop-corn rágcsálása mellett különösebb kínlódás nélkül elég csak újabb és újabb golyókat begurítani az útba, amivel megakadályozhatja az ellenfél legjobb lökéseinek célba érését is.
Ahogy mondtam, lehet, hogy az amd és az nvidia piacbefolyásoló tevékenysége nem egymás kompelemter halmaza, biztos van, ami nem azért sikerül, mert a másik nem ellenkezett és biztos van, ami nem azért nem sikerült, mert a másik keresztbetett. De abban is biztos lehetsz, hogy nem úgy készülnek a hardverek, hogy belenéznek a jósgömbbe, vajon mi lesz 4 év múlva, hanem úgy, hogy kijelölnek a hardvernek egy olyan konstrukciót, amiről azt gondolják, hogy hozzá fogják tudni kanyarítani az ipar fejlődését. Nyilván persze ha valaki az működő helyzetre készít hardvert, abban lesz érdekelt és azért fog megtenni mindent, hogy a szoftver ökoszisztéma status quoja ne változzon.
Lehet, hogy az amd terveinek nem csak az nvidia "gáncsoskodása" szabott határt, hanem a microsoft is keresztbe tett más elképzeléseivel, de már önmagában az mantle létezése is azt bizonyítja, hogy nem csak belenéztek a jósgömbbe, hogy vajon eljön-e négy év múlva a már koros dx11 helyett az explicit apik ideje, hanem nagyonis tettek ezért: átadták a kódot dx12,vulkan alapnak és megírták a mantlet is, hogy kémyszerítsék a nagy szereplőket. Lehet, hogy az amdnek nem sikerült a tervei szerint ez a művelet és lehet, hogy ehhez látszólag az nvidiának nincs sok köze, de a lényeg a küzdelem. Az nvidia oldaláról ugyanennek a küzdelemnek az eleme a gameworks, meg a túltesszeláció. Csak épp az amd próbálja status quoból kimozdítani a piacot, kevés sikerrel, ezért a kudarcai sokkal látványosabbak, mint az nvidia status quo megtartására irányult sikeres műveletei: ez beleolvad a "piac lassan mozdul" narratívába.
És még mindig nem gonosz nvidia. Ügyes és sikeres nvidia. Egy szóval nem mondom, hogy amit az amd csinál, vagy csinálni akar, az a fejlődés, az a tuti.
-
Petykemano
veterán
Az, hogy esetleg pont nem közvetlenül az nvidia akadályozta meg, hogy a mantle elődjéből 2 évvel korábban Szülessen meg a dx12, az még nem igazolja, hogy az amd és az nvidia csak jósgömbbe nézve próbál sok évre előre hardvert tervezni. Csupán árnyalja a helyzetet, azt mutatja meg, hogy az amd és az nvidia akarata a piac történéseiben nem feltétlen egymás komplementerei. Ez talán túlzás. De legalább ekkore túlzás az is, hogy semmilyen ráhatást nem gyakorolnak, puzstán passzív elszenvédői vagy haszonélvezői az eseményeknek, amit nem befolyásolnak, csak megjósolni próbálnak.
-
namaste
tag
Az a videó összemossa az utasítás ütemezést és a feladat (parancslisták) ütemezést.
A feladatok ütemezését a Keplerben is HW végzi, a GigaThread Engine, a CPU-n futó driver a várakozási sor végére teszi az elkészült parancslistát.Az AMD is megoldhatta volna a többszálú DX11 drivert, de ők inkább a Mantle irányába mentek.
-
Raymond
titán
Na, ebben mindket tabor megtalalja a maganak valot:
-
HSM
félisten
"Akinek anno a shader modellek gyors fejlődése nem tetszett, annak a PC-s közeljövő sem fog tetszeni."
Az tény, hogy nem volt túl szerencsés, hogy össze-vissza voltak a hardverek tudása, egyik ezt tudta, a másik meg azt.
Ugyanakkor nekem az sem tetszik, hogy a játékok grafikai színvonala gyakorlatilag 3-4 (5-6-7) éve egy helyben áll. Régebben lehet, egy-kétévente fejlesztettem VGA-t, de minden évben volt játék, ami annyival szebb volt a régebbieknél, hogy majd leesett az állam. Na, most konkrétan arra sem emlékszem, mikor volt dolgom utoljára ilyen címmel az eredeti Metro2033 óta... Talán még a Tomb Raiderből jut eszembe még a TressFX, amire azt lehetett mondani, hogy wow, ez jó....(#30317) Loha: "hanem tanultak korábban elkövetett hibáikból"
Ugyan már.Gondolod, hogy az AMD meg "hirtelen elfelejtette", mivel verték meg a Fermi-t?
Nem. Akkor az AMD jól eltalálta, milyen hardver kell az adott korban, és az Nv tett le az asztalra egy sokkal maszívabb, de kihasználatlan, komplex és emiatt torkos és drága architektúrát.Igen, kétségtelen, hogy a Kepler versenyképességének egyik kulcsa a szoftverbe rakott ütemező, ugyanakkor ez egyáltalán nem könnyíti meg a DX12-re való átállást szvsz. Sőt, bizonyos felhasználásokra éppen ez a rendszer egyik korlátja, nem olyan robosztus az ütemezés, ezért nem tud pl. "hardveresen hang DSP-t emulálni", mint pl. a friss GCN-ek.
A videót köszi, nagyon érdekes.
Megmagyaráz jópár dolgot. Azt is, hogy miért passzol olyan jó ez a dolog a DX11-hez, de ugyanakkor ez nekem nem tűnik ez nagy előnynek a DX12-höz, sőt, ellenkezőleg. Ha mondjuk egy hatmagos proci 12 szálon ontja a GPU-ba a rajzolási parancsokat, ott egy okos hardveres ütemező megint előny az ideális GPU kihasználás felé, mintha szoftveresen kellene egybe nagyobb csomagokba rendezni, hogy a GPU-nak jó legyen... Egy, nem nyer vele a GPU, kettő, még a CPU-t is feleslegesen terhelte. Az AMD hardverének meg fülig ér a szája, mert nincs limit, cserébe úszik a sok ütemező a munkában....
A videóban is szépen kifejti a tag, hogy az AMD elképzelése nagyonis életképes és indokolt (az anandtech API overhead tesztjében tisztán látszik) ugyanakkor nagy kár, hogy DX11-hez a hardveres elképzelés kevésbé passzol, mint a zöldeké.
-
Anubris
őstag
válasz
->Raizen<- #30318 üzenetére
F1 2017 telepítése után olvastam hasonlókról, persze azt nem tudom, hogy eredeti játékokról van-e szó.
-
-
#85552128
törölt tag
válasz
->Raizen<- #30318 üzenetére
Vajon hogy kerülhetett a gépre... ( ͡° ͜ʖ ͡°)
-
Raymond
titán
válasz
->Raizen<- #30318 üzenetére
-
TTomax
félisten
válasz
->Raizen<- #30318 üzenetére
-
->Raizen<-
veterán
Benyaltam egy bányász vírust a játékok egy idő után laggolnak, és 3d-ben is maxon pörög a vga hogy irtsam ki?
(#30319) TTomax: Köszi remélem kicsinálja!
-
Loha
veterán
Nem jósgömbje vagy szerencséje volt az Nvidiának a DX11-el, hanem tanultak korábban elkövetett hibáikból, és pénzük is volt megvalósítani a szükséges dolgokat.
Konkrét esetben az NV már Ferminél szembesült ugyan azokkal a problémákkal amivel most az AMD küszködik, és ennek tudatában módosították az architektúrájukat a Keplerre.
Az egyik kulcs mozzanat az volt, hogy Fermi hardveres ütemezőjét átültették a GPU-ból a driverbe, ami lehetővé tette azt a rugalmasságot, amivel alkalmazkodni tudtak a DX11 -hez, és ha eljön az ideje alkalmazkodni tudnak majd a DX12 -höz vagy bármilyen más API -hoz is.
Ehhez természetesen elengedhetetlen volt a sokmagos procik elterjedése és egy erős szoftveres csapat, de 2008 körül már egyértelműen látszott, hogy ezzel nem lesz probléma.
SZVSZ a legjobb videó a témában (angol):
AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead -
Abu85
HÁZIGAZDA
Most is így lesz. A DXIL 1.0-t nagyon gyorsan követi majd az 1.1 és az 1.2. Szóval a shader modell 6.0 befutásával gyorsan jön a 6.1 és a 6.2. A boldog békeidőknek hamarosan újra vége. Azért lassult le az egész, mert leváltották az fxc-t és a D3BC-t. Teljesen új alapokra helyezték az infrastruktúrát. Annyira jó alapokra, hogy az új dxc sokkal több dolgot támogat. Akár SPIR-V-be is befordítja a HLSL kódod.
Akinek anno a shader modellek gyors fejlődése nem tetszett, annak a PC-s közeljövő sem fog tetszeni.
-
Shing
őstag
Érdekes, hogy most ennyire törődnek a felhasználói bázissal. Régen egymást váltották a shader model-ek, nem győzött az ember újítani. Most pedig több évre visszamenőleg meg kell írni a supportot és évekig várnak mire meglesz a "célcsoport". Persze ennek valahol megvan az előnye, de már addig tökölnek, hogy az túlzás. Ha több DX12 only cím jönne, sokkal többen váltanának a korábbi rendszerekről, ez ilyen egyszerűen működik...
-
HSM
félisten
válasz
cskamacska #30313 üzenetére
"csak feltett lábbal popcornt kellett rágcsálnia és néznie a tragikomédia végét."
Bizony.Amúgy a BF4 Mantle támogatása annak ellenére sokáig sokkal jobb élményt nyújtott, mint a DX11-es, hogy látványosan nem az volt a prioritás. Persze, idővel beérték a DX11-el, de ez várható is volt.
Amúgy, ami az AAA címeket illeti, azt is tegyük hozzá, hogy a DX11 továbbra is marad a DX12 mellett, pontosan ezért, mert kisebb stúdiók/címeknek továbbra is az az ajánlott irány, míg a DX12 alapból az AAA címekhez jött létre, ahol adott a szellemi és anyagi erőforrás, hogy előnyt kovácsoljanak a lehetőségeiből, a némileg nehezebb, körülményesebb programozhatóság mellett is.
-
cskamacska
addikt
válasz
Petykemano #30305 üzenetére
"közben mindent megtettek azért, hogy a hardverükhöz passzoljon az uralkodó api, middleware és más szoftveres környezet. Ebben - ahogy mondod - nagy segítségükre volt a piaci részesedés és a nyers pénztömeg"
Nagyon belementünk a "gonosz nVidia már megint gátolja a fejlődést" erdőbe.
Valójában volt egyéb dolog is ami gátolja azt, az nV-nek csak feltett lábbal popcornt kellett rágcsálnia és néznie a tragikomédia végét.
Nulladik lépésben a MS vágott alá az egésznek, hogy az új DX-et és egyéb új fícsöröket a Win10 húzónevévé tette, még az egyébként alkalmas Win8 sem kapott semmit. Ez még a legmegveszekedettebb kiadókat is bottal verte el attól, hogy DX12 only címet fejlesszenek. Ha jól tippel Abu akkor talán idén év végére laza 2,5 évvel megjelenés után lesz ilyen. Talán, ha, amennyiben.
A nem kimondottan arra írt motorokat meg láttuk hogy működnek, még az iparági vezető Dice is csak egy béna DX12 módot tudhat magáénak a BF1-ben, laza 3 évvel a Mantle support után. És ezek a fejlesztők "kérték" az alacsony hozzáférést! Egyedül a Doom tud felmutatni valamit, az is DX12 hellyett Vulkan támogatásával OpenGL mellett, amire megint csak kellő mennyiségű kígyót-békát dobált Abu, ki tudja mit tudna optimalizált DX11 alatt.Másrészt van egy nagyon erős tehetetlensége az iparnak, nem cserélnek játékmotorokat minden új játék kiadásakor. DX9 anno elvileg szintén nagyon szűk volt a fejlesztőknek, aztán mégis 2010 elején jelent meg a Just Cause 2 csak DX10-en működő játékok frontharcosaként, ami laza 3 évvel a Vista, majd fél évvel a rendkívül népszerű Win7 megjelenése után történt.
Aztán ott van a fentebb linkelt dolog hogy a DX12 készítésénél csak a top AAA fejlesztőket "kérdezték meg", és így jó 2 évvel kiadás után gondolkodnak memória kezelést segítő függvénykönyvtár létrehozásában, és AMD is idén nyáron jött ki hasonlóval Vulkan alá.A Vulkan API-ra fejlesztők legnagyobb gondját oldhatja meg az AMD Vulkan Memory Allocator Segítene a DirectX 12 legnagyobb gondján a Microsoft?
Esetleg még húzhatták volna a dolgot pár évig, mert túlságosan is gyorsan terjed a DX12 support a kisebb játékok terén.
Ahogy olvasni fórumokon a DX12 egyébként sokkal nagyobb szabadságot ad a programozóknak, de ezzel együtt macerásabb is a dolog, a VGA architektúrákat szépen külön-külön kell támogatni hogy tényleg gyors legyen a kód. Ez önmagában korlátozó tényező, ezt nagy stúdiók talán megengedhetik, de hogy kisebbek még utólag is peccselgessenek, csak azért hogy az új kártyákon ne legyen lassabb mint volt a régieken, hát az meredek. De AAA világban is megnézem mennyire lesz arra kereslet, mikor kiadás utáni hónapokban nem a javítással, hanem a DLC dobálásával vannak elfoglalva.
-
HSM
félisten
-
HSM
félisten
Bizonyám. A notebookomban is Intel van, i7.
Viccen kívül, a saját érdekeimnek vagyok a barátja. Ha az Inteltől kapok az igényeimnek jobban megfelelő processzort, akkor tőlük veszek, ha az AMD-től, akkor tőlük. Tisztában vagyok a pro-kontra érvekkel mindkét oldalról. Ma pl. szvsz valami hat vagy nyolcmagos Ryzen-t vennék, mert olcsóbban ad nagy teljesítményt korszerű rendszer mellett. HEDT-ben viszont Intelt vennék, mert szerintem jobb, hogy nem NUMA rendszer, mint a TR. Lehet lassabb és torkosabb, de kiegyensúlyozottabb. Aki viszont másra használja, ott lehet abszolút nem gond a NUMA rendezés, annak meg az a tuti. Ez ilyen.Viszont ami nagyon jó, végre van verseny, van miből válogatni.
-
HSM
félisten
válasz
Crytek #30307 üzenetére
Viccen kívül... Millió oka van, hogy nem jöttek korábban DX12-t kihasználó címek. Gondold végig, alapból megjelenhetett volna 2015 helyett 2013-ban, kapásból két év előny. Ezenkívül, ha nem kötik a win10-hez, az is hatalmas előny lehetett volna, hiszen sok fejlesztőnek alapból nem volt opció olyan technológiát támogatni, ami csak a potenciális vásárlóbázis kis részénél adott.
Nem az "ejj, ráérünk arra még" a fő oka, hogy még mindig a DX11 az alapja még az elvileg DX12-es címeknek is, hanem hogy csak mostanában kezd elfogadható szintre fejlődni a DX12 felhasználóbázisa, valamint ugye nem olyan rég kezdett elindulni a Vulcan szekere sem, ami elvileg biztosíthatja a megfelelő működést az új rendszerű motoroknak régebbi OS-eken is. Amíg nincs felhasználóbázis, addig a DX11-es alapoknak maradniuk kell, mivel a valóban DX12-es alapokra épített motor az eddigi információk szerint katasztrófálisan futna a régi API-n.
"Nvidia most is akkor fog váltani amikor azt érzi ,hogy kell és van értelme."
Ez így utólag megmagyarázva nagyon logikusnak tűnhet, de nem az. Egy grafikus vezérlő tevrezésénél az alapokat kb. 4-5 évvel a termék elkészülte előtt le kell fektetni. Én ezért emlegettem a bizonyos jósgömböt. Mert ezt egyszerűen máshogy nem lehetett megcsinálni, hogy pont így adja ki, mint egy nagyadag szerencsével. -
Crytek
nagyúr
Vioccen kívül: Ha még mindig csak DX11-re gyúrna az nv akkor is ugyanúgy ott lennének a toppon..a DX12 éra továbbra sincs jelen....Még mindig nem tartunk ott hogy minden game dx12-es sőt nem is minden 5.game.... Sőt dx12 only alig alig leledzik... Ej ráérünk arra még... Nvidia most is akkor fog váltani amikor azt érzi ,hogy kell és van értelme.
-
HSM
félisten
válasz
Petykemano #30305 üzenetére
"hanem mert a két cég közül a piacon az nvidia tudta jobban érvényesíteni az akaratát"
Azért itt van ebben erősen csúsztatás. A piros oldal pl. jóval a mantle előtt (durván nagyon régen, 2012 magasságáról beszélünk, elsőgenerációs GCN) leadta a bizonyos OS fejlesztő cégnek a DX12 ő elképzelésük szerinti prototípusát, a mantle közvetlen elődjét, hogy srácok, szerintünk ez a jövő, hoztunk rá hardvert, erre érdemes továbbfejlődni grafika téren. (Ez azért komoly teljesítmény!)
No, és ebből hosszú évekig nem lett semmi. Arra nem tudok meggyőző érveket, hogy ez miért a zöldek érdeme lenne, én azt látom, hogy egyszerűen nem volt elég érdek rajtuk kívül az API fejlesztésére, akik érdekeltek lehettek volna mással foglalkoztak abban az időben. Meg lehet nézni, kb. soha egyetlen API nem húzta olyan sokáig a piacon utód nélkül, mint a DX11, pedig már 2012-ben látszottak a komoly hiányosságai, lásd pl. Mantle. Én ezért gondolom, hogy itt egyszerűen a jósgömb nyert, met a pirosak is nagyon jó koncepciót tettek le az asztalra, és valamelyik piaci szereplő mindenképpen rosszul járt volna. Ha marad még sokáig a DX11 akkor a pirosak, mert ott a sok felesleges tranzisztor a csipjeikben, amik DX11 alatt nem olyan hatékonyak (ezt látjuk ma), a másik esetben meg a zöldek jártak volna roszul, ahogy írod, mert ott nem tudtak volna hatalmas perf/watt előnyt kovácsolni a DX11-re optimalizált hardvereikkel, mert ott kifizetődtek volna a GCN-ben alkalmazott plusz tranzisztorok és sokkal kiegyenlítettebb lett volna a verseny.Egyébként nagyon kíváncsi leszek a Volta-ra, merre mennek majd el benne, az már elvileg nem csak egy X+2-edik Maxwell lesz.
-
Petykemano
veterán
Ehhez annyit tennék hozzá, hogy nem volt nehéz a piaci részesedésükkel"kierőszakolni" a kellő figyelmet a fejlesztőktől.
Én is ezt mondtam. Csak szerintem...
Itt igazából a két cég eltérő stratégiájáról beszélnék még. A zöldek nagyon jól megcsinálták, hogy a DX11-hez nagyban hozzászabták a hardverét, ezzel nagy előnyt húztak az ezt használó címekben. Az piros oldal viszont túlzottan egy újabb API-ra készült, más paradigmákkal, és ez így elég nehezen volt keresztülvihető a sok ellenérdek mellett.... Erre csak rátett egy lapáttal, hogy mindenkinek hirtelen nagyon fontos lett a Maxwell-nél a perf/watt arány.... Én elsősorban a piaci stratégia különbözőségében látom a nagy difit, amit viszont évekkel a termék előtt kell lefektetni, szval nyugodtan mondhatom, a zöldek varázsgömbje most jobban működött, és elsősorban én ennek tulajdonítom, amit most látunk. Jobban taktikáztak, jobban megsejtették, hogyan fog alakulni a piac.
Persze, ehhez társítottak egy közel hibátlan kivitelezést is, ez sem mellékes
Szerintem a szoftveres környezet nem annyira rajtuk kívül álló, környezeti tényező, ami szépen lassan az idő haladtával lépeget előre egy a fejlesztők eredője által kijelölt természetes úton. Nem.
A zöldek nem csak nagyon jól megcsinálták, hogy a DX11-hez hozzászabták a hardvert. Azt is. De nem csak passzívan (jósgömböt nézve) szemlélték, hogy vajon sikerül-e eltalálni az igényeket, hanem amikor elkötelezték magukat egy DX11-hez passzoló hardver mellett, közben mindent megtettek azért, hogy a hardverükhöz passzoljon az uralkodó api, middleware és más szoftveres környezet. Ebben - ahogy mondod - nagy segítségükre volt a piaci részesedés és a nyers pénztömeg.
És a pirosoldal sem túlzottan egy újabb apira készült, mintha csak belenéztek volna 4 éve a jósgömbbe, hogy vajon mit hoz majd a szél és passzívan szemlélték, hogy jaj félrelőttünk. Nagyonis mindent megtettek azért, hogy a hardverhez - ami mellett elköteleződtek - megfelelő szoftveres környezet legyen. Megírták a Mantle-t, lett DX12, lett Vulkan, mindaz, amiket Abu "lódít" nekünk, az mind az AMD PR munkája: hogy majd a low level api lesz a megváltó, hogy majd az Async Compute, na majd az, az a jövő.Ez nem csak nekünk, olvasóknak szólt, hanem az egész gpu-szoftver-ökoszisztémának.
Nem a varázsgömbbe nézés sikerült jobban az Nvidiának, mintha a hardver tervezésétől csak szabadesésben szemlélné, hogy mennyire messze ér földet a szoftver. Az nvidiának az események, a a használt apik, a motorok, a használt fícsörök és az egész szoftveres környezet befolyásolása, a saját hardverének megfelelő irányba terelgetése sikerült jobban.
Nem csak a hardver kivitelezése sikerült hibátlanul, hanem a szoftveres környezeté is (és itt most nem a bugmentes driverre gondolok), meg persze a kezdetektől jobb marketing, mindshare.Tehát nem csináltak egy istentelenül jó hardver és társították hozzá egy hibátlan kivitelezést is amolyan ráadásként. Hanem csináltak egy hardvert, ami a maga nemében jó és hibátlanul végrehajtották hozzá a hardvernek fekvő szoftveres környezet kialakítását.
Hogy értsd mire gondolok: ha az AMD-nek sikerült volna a szoftveres vízióját keresztülvinni, és ma compute futószalagot használnának a motorok sokat párhuzamosan és aszinkron is, meg minden az nvidia helyett a GCN gyorskódokat használná és nvidia effektek helyett AMD effekteket alkalmazna, nem tesszelálna túl, stb, (és persze a grafikonok is ennek megfelelően alakulnának)
akkor ma arról beszélnénk, hogy milyen elavult, régimódi hardvere van az nvidiának, nem igaz, hogy képtelenek előállni a piaci trendeknek megfelelő új architektúrával, ami ráerősít a compute képességekre és mi a francért pazarolják a tranzisztort ROP-okra, meg kihasználatlan geometriai kapacitásokra, és más dedikált egységekre, és milyen bénák, hogy még egy normális hardveres ütemezőt se tudnak összedobni, amijük volt, azt is kidobták a keplerrel és most emulálniuk kell. Amatőrök, nem tudnak GPU-t tervezni, generációk óta képtelenek egy jó új architektúrát kihozni, csak ötlettelenül tolják a hardverbe a shadereket és emelik az órajelet. Húzzák inkább le a rolót. (És persze mocskos nvidia, amiért drága az amd GPU)De ez nem véletlenül, meg magától, téves jóslás, vagy csupán valami 3-4 évvel ezelőtt elhibázott tervezési döntés miatt, a legkevésbé sem rajtuk kívül álló okokból nem alakult így, hanem mert a két cég közül a piacon az nvidia tudta jobban érvényesíteni az akaratát.
-
#00137984
törölt tag
Jelzem előre nem a két konfigot akarom összevetni, csak az előző és a jelenlegi konfigom lehetőségeit vázoltam. Az i5-öt még nem kell leírni, mert van lehetőség a 4 magos proci számára. Lehet ez az utolsó lehetőségek egyike, amelyiket érdemes ilyen konfigra ráfejleszteni. Ha egyébként a sokmag és HT-s i5 procik ideje ennyire elérkezettnek számit. Nekem ez még egynek jó lesz.
-
HSM
félisten
válasz
Petykemano #30301 üzenetére
"Azt, hogy minden játékmotor olyan legyen, mint a doom, az nvidia sikeresen védte"
Ehhez annyit tennék hozzá, hogy nem volt nehéz a piaci részesedésükkel"kierőszakolni" a kellő figyelmet a fejlesztőktől.
Itt igazából a két cég eltérő stratégiájáról beszélnék még. A zöldek nagyon jól megcsinálták, hogy a DX11-hez nagyban hozzászabták a hardverét, ezzel nagy előnyt húztak az ezt használó címekben. Az piros oldal viszont túlzottan egy újabb API-ra készült, más paradigmákkal, és ez így elég nehezen volt keresztülvihető a sok ellenérdek mellett.... Erre csak rátett egy lapáttal, hogy mindenkinek hirtelen nagyon fontos lett a Maxwell-nél a perf/watt arány.... Én elsősorban a piaci stratégia különbözőségében látom a nagy difit, amit viszont évekkel a termék előtt kell lefektetni, szval nyugodtan mondhatom, a zöldek varázsgömbje most jobban működött, és elsősorban én ennek tulajdonítom, amit most látunk. Jobban taktikáztak, jobban megsejtették, hogyan fog alakulni a piac.Persze, ehhez társítottak egy közel hibátlan kivitelezést is, ez sem mellékes.
-
#00137984
törölt tag
Azért az ábrából kiolvasható az eltérő árazásban és teljesitményben szereplő procik aránya. Nekem a Phenom II X4 970 BE proci (3.8 GHz) szintén feljavult a HD 7850 szintjére, vagyis a videókártyában maradt ott szunnyadó erőt kihozta. Akkor a BF4-ben nálam jelentős javulás volt, de más játékban már körvonalózodott mennyire megöregedett ez az AMD konfig. Az i5 gépemen még nem érzem az öregedés jeleit, főleg hogy már most egy GTX 1070 ti fejlesztés van tervbe véve.
-
Petykemano
veterán
Naked is elmondom:
Az nvidia a fermitől indult, és ezt most hagyjuk is, ugorjunk a keplerre, ahol még nagyjából fejfej mellett haladtak és akkor innen az nvidia tényleg biztos csak pucolt, csiszolt, vágott, de egy olyan architektúrát hozott össze, amely kiválóan skálázódik a feldolgozóegységek mennyiségével (és talán ezt a volta 3.5-4k shader számával is megőrzi) és kiválóan skálázódik a frekvencia is.
És igen, igazad van, az nvidia nem csinált egyebet, mint ezt a két potméter, amivel jól skálázódik, tekergette finoman fölfelé.Abu mindig azt mondta, ha valaki a frekvenciát kezdi felfelé tolni, azt jelenti, az architektúra elérte a skálázódásának határát. Az.nvidia viszont fegyvert kovácsolt a magasabb frekvenciából, hiszen ha ha minden feldolgozóegység magasabb frekvencián üzemel, alacsonyabb lehet. Frametime, és alacsony felbontáson el lehet érni magas fpst.
Ezzel szemben a tahitivel debütált GCN már a csak 40%-kal szélesebb hawaiival elérte a feldolgozóegységek szélességével való skálázódásának határát, és fekvemciával pedig soha nem skálázódott. Ennyi, a hawaiival az amd elérte a gcn hatékony skálázódásának határát és már csak a shader számot tudták növelni, amit láttunk a fijiben, mennyire hasznosult.
Persze mindig hozzá kell tenni, a hardver nem minden. A szoftver, illetve hogy hogy íródnak a szoftverek az nagyon nem mindegy. Most itt nem feltétlen a túltesszelálásra gondolok, de persze az is. Az amd és az nvidia is renxelkezik egy hardverrrel és az ahhoz illeszkedő szoftveres vízióval. Mindkettőnek olyan hardvere van, ami csak a neki szánt szoftveres környezetben működik ideálisan. Mint a curlingben a sikálók, úgy igyekeznek a cégek a szoftveres környezetet abba az irányba terelni, ami a saját érkező hardverének fekszik. Ebben nem is szerepet játszik a piaci részesedés.
Néhány éve abu arról értekezett, hogy az összes játék motor át fog állni a hagyományos vertex meg mittomém milyen futószalagokról compute futószalagokra. Minden így fog menni. Legalábbis ez volt az amd víziója, amelyet felvázolt, émelygő hardvert épített és amelynek kivitelezésére a hardvere érkeztéig néhány küzdelmes év áll rendelkezésre.
Mi történt? Sikeresen átvitték a lowlevel apikat, ismert az szsinkron compute fogalma is. Hát ennyi. Azt, hogy minden játékmotor olyan legyen, mint a doom, az nvidia sikeresen védte, sőt mindent megtett azért, hogy olyan szoftverek szülessenek, amik az ő hardveren futnak jól.
A még aktiválásra váró vega fícsörök valóban érdekesek lehetnek. De ha érkezik is, raja szabadságával elég valószínűvé vált, hogy azt december előtt nem fogják bevetni tényleg.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Kézbe fogható paradoxon lett az iPhone Air
- Bittorrent topik
- CADA, Polymobil, és más építőkockák
- One otthoni szolgáltatások (TV, internet, telefon)
- Elektromos autók - motorok
- Házimozi belépő szinten
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- EAFC 25
- Simbin topic (GTR, Race07, GTR Evolution, RaceRoom Racing Experience, stb.)
- További aktív témák...
- MSI GeForce RTX 4080 SUPER GAMING X SLIM 16GB GDDR6X 256bit Videókártya !
- MSI Radeon RX 6400 AERO ITX 4GB GDDR6 64bit Videokártya !
- MSI GeForce RTX 4070 Ti GAMING X SLIM 12GB GDDR6X 192bit Videokártya !
- GIGABYTE GeForce RTX 5060 Ti WINDFORCE OC 16GB GDDR7 128bit Videokártya !
- GIGABYTE Radeon RX 7600 XT Gaming OC 16GB GDDR6 Videokártya !
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- Bomba ár! HP Elitebook 840 G1 - i5-4GEN I 8GB I 180GB SSD I 14" HD+ I Cam I W10 I Garancia!
- Xiaomi Redmi Note 13 Pro+ 512GB, Kártyafüggetlen, 1 Év Garanciával
- HP EliteBook 830 G7 i5-10210U 16GB 256GB 1 év garancia
- Honor MagicBook 16 Ryzen 5 5600H 16GB 512GB FHD 144Hz
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest