- btz: Internet fejlesztés országosan!
- zebra_hun: Intel® Core™ i9 14900K Raptor Lake-S Refresh CPU/Processor UV/DC (Optimalizálás)
- sellerbuyer: Milyen laptopot vegyek? Segítek: semmilyet!
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- GoodSpeed: Megint 3 hónap Disney+ akciósan :)
- Rap, Hip-hop 90'
- sziku69: Szólánc.
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- skoda12: Webshopos átverések
Új hozzászólás Aktív témák
-
Petykemano
veterán
Két elméletem is van, hogy az Nvidia miért vehette meg az Arm-t. A kettő nem mond ellent egymásnak.
1)
Túl a zsíros szerver bizniszen, amit mindenki tud, de azt is tudja mindenki, hogy azért azt le lehetett volna fedni licenceléssel is, Az nvidiát valójában nem a hardvergyártás motiválja.
Sokan várnak ezzel váltást például a MS és Sony valamelyike részéről Arm+Nvidia összetételű konzolra. Bár nem állítom, hogy ez nem történhet meg, de az nvidiának szerintem nem ilyesmi a célja.Az nvidiának van a Geforce Now nevű cloud gaming szolgáltatása. Azt biztos minden cég látja, hogy hatalmas üzlet van a micropaymentekben, illetve a szolgáltatási előfizetésben. (A cloud mellett szól az, hogy az előfizető olcsóbban megússza, mintha egyszerre kéne egy nagy hardverbe beruháznia és a hardver gyártójának/üzemeltetőjének is olcsóbb, mert jobb a kihasználtság)
A Sony és a MS is tart efelé, a Googlenek ott a Stadia és lehet, hogy van/lesz még egy két játékos.Az világos, hogy a cloud gaming egyik rákfenéje a késleltetés. Már régóta spekulálok arra hogy a cloud gaming nagy találmánya majd az lesz, hogy az igazán jó élményhez szükség lesz egy nem túl erős kliensoldali eszközre. (egy konzolra, mint amilyen az nvidia shield)
Nem azért, hogy azon fusson a játék, hanem azért, hogy a végponti műveleteket azon lehessen elvégezni:
- A szerver alacsony felbontásban, tehát gyorsan, alacsony késleltetéssel generálja a képkockákat, amik mivel kisméretűek, ezért gyorsan, alacsony késleltetéssel jutnak el a végponthoz.
- A végponton viszont szükség van egy olyan (DLSS-képes) eszközre, ami elvégzi a képminőség feljavítását, felskálázást, stb-tEz biztosan
- lényegesen jobb késleltetést
- jobb minőséget (4K, vagy RTX) ,
- az alacsony felbontáson való képgenerálás miatt alacsonyabb működtetési költséget
- alacsonyabb és olcsóbb internetkapcsolatot igényő szolgáltatást
eredményezne minden más olyan versenytárshoz képest, akik hagyományos módon eredeti méretben és minőségben közvetítik a képeket.Ilyen kliensoldali készülék persze lehet egy konzol, egy tévé vagy akár egy telefon is.
Az Nvidiának egyrészt azért kell az Arm, hogy ezt a funkciót, ami az ő szolgáltatásához kötődik ne csak egy általa gyártott készükkel lehessen megkapni, hanem ingyen odaadja minden Arm készülékbe. Így az arm készülékeken a GFN cloud gaming szolgáltatás minden másnál lényegesen jobb lehet.Amije nincs az Nvidiának és fontos a késleltetéshez, az a peremszerver. (vö Google, MS)
Az Nvidia már most is partneri viszonyban van számos kábel/internet szolgáltatóval.
A másik ok, ami miatt az Arm kellhet az Nvidiának az pedig az, hogy kvázi ingyen adjon ARm szervereket Geforce kártyákkal kábel/internet/szerverhosting/cloud szolgáltatóknak, akik a szerverek elhelyezését végzik és ennek költségeit viselik, cserébe rendelkezésükre bocsátja a GFN által nem használt erőforrásokat. Így az nvidia is peremszerverekhez jut, miközben építi az arm szerverek iránti igényt.2) A TSMC kezd eléggé monopol helyzetbe kerülni. Előbb utóbb elkezdheti felverni az árakat, ha nagyon elhúz a Samsung mellett, aki gyakorlatilag az egyetlen bérgyártó, aki versenyképesnek mondható technológiával talpon maradt.
Ha a TSMC monopol helyzetbe kerül, akkor levarrhatja a teljes félvezető iparágról a profitot.Az Nvidia most a Samsung gyártósoraira "kényszerült". Világos persze, hogy ez nem olyan kényszer, hogy kiszorult, hanem osztott-szorzott és úgy gondolta, így jobban megéri, vagy fogalmazhatunk úgy is, hogy nem akarta megfizetni azt az árat, amit a TSMC mondott.
Pletykák még szóltak is arról, hogy az Nvidia a Samsunggal való kacérkodással próbálja árcsökkentésre bírni a tSMC-t, aki viszont a végén azt mondta, köszi szépen, nélkületek is tele a gyártósor.
A tendencia arra vonatkozólag, hogy lassan mindenki lemarad a TSMC mögött világosan látható.
Az Arm jellemzően egy új proci bemutatásakor a TSMC-n tesztgyártott, vagy legalábbis oda tervezett lapkával demózza az előrelépést.A kérdés az: vajon megér-e az Nvidiának $12b dollárt és "néhány" saját részrvényt, hogy átterelje az ARM licencelőket (ugye nyilván nem feltétlenül kell itt a top cégekre gondolni, mint az Apple) a Samsunghoz és ezzel többek között letörje a TSMC árait?
-
Petykemano
veterán
válasz
GodGamer5 #41587 üzenetére
Elég rég volt már szerintem, hogy az nvidia nem úgy próbálta a piacot meghódítani, hogy
1) a közepes méretű kártyákat előreküldve kicsavarni a piacból amit lehet,
2) hogy aztán facsarjon rajta még egyet a nagyobb Ti jelölésű kártyával, és titannal
3) és a folyamat végén a kisebb '60-as kártyákkal beszedje a maradékot.Ez most ilyen egész pályás letámadásnak tűnik. Vajon mi lehet az oka?
-
Petykemano
veterán
Megjelentek a részletek az Ampère kártyákról
628mm2 és 392mm2, ezek a szokásos 102 és 104 méretek.
De nem ez az érdekes.
Ezzel így ~44Mtr/mm2 sűrűség jön ki a custom Samsung 8nm-en, ami egy kicsit még jobb is, mint az AMDnek volt lényegében az elsőgenerációs 7nm-en a vega20 és az RDNA volt: ~41Mtr/mm2.Ezt az értéket a Renoir már meghaladja, de az egy apu, nincs benne böhöm GDDR vezérlő
És nyilván az xsx is.De ez meg hogy lehet?
Annyira jó a SS custom 8nm? Vagy annyira nem találta el az AMD az első generációkban a 7nm-t? -
Petykemano
veterán
Navi21 vs GA102
Elemzés -
Petykemano
veterán
Hát lehet, h elhamarkodott volt még ez a topic átnevezés
-
Petykemano
veterán
válasz
Malibutomi #41310 üzenetére
"az NV megszivatta magat a Samsung 8nm el kisse azert fogyasztanak a kartyai olyan sokat."
Ugyanennek az éremnek a másik oldala az, hogy "az nvidia annyival az AMD előtt jár, hogy ezt is megengedheti magának. A 8nm wafer megmunkálás állítólag feleannyiba kerül, tehát olcsóbb lehet, vagy nagyobb margó"
-
Petykemano
veterán
Graphcore Colossus MK2 > Nvidia A100
-
Petykemano
veterán
-
Petykemano
veterán
válasz
Petykemano #41228 üzenetére
Robust, Efficient Multiprocessor-Coprocessor Interface - Nvidia
(src)Különös, hogy visszaköszön a teáskanna
-
Petykemano
veterán
válasz
Yutani #41229 üzenetére
Érdekes felvetés, elgondolás.
Sokmindent.Megmagyarázna.
De persze kérdéseket is felvet, ahogy a mester is csípősen megjegyezte.
Amúgy nekem a chiplet még hihető is lenne, de így elég távol lennének a lapkák, ami biztos jelentős késleltetést eredményezne.
Aztán a fene tudja, az NVLink, mármint az a bridge is egy ilyen több cm hosszú kapcsolat. A HBCC SSG is megoldja, hogy egy harmadik eszközről szed be adatokat. Itt biztos sokat számít az aszinkronitás, prefetching. Ugyanakkor furi, hogy nincs közvetlen memória. Tehát elrendezés alapján akkor lenne ennek értelme, ha épphogy kevés adatot kellene közlekedtetni, miközben borzalmasan sok számítás mellett.
Na mindegy, szerintem érdekes elmélet, de attól még nem biztos, hogy igaznak bizonyul. -
Petykemano
veterán
Miért a furcsa cooler design
TSMC vs Samsung
Egyéb finomságok.
Érdemes megnézni. -
Petykemano
veterán
"RTX3080, GA102-200, 4352 CUDA, 10GB VRAM. I hope so."
[link]Persze a kódneveket is lehet csúsztatni, de mikor volt utoljára X'80 102 alapon?
-
Petykemano
veterán
Rendben, akkor nem közel annyi, hanem kicsit több, mint feleannyi cache van benne.
az arányok akkor sem jönnek ki.
Azt magyarázná a logika, hogy egy 3x kisebb lapkához képest sikerült nagyobb tranzisztorsűsűséget elérni úgy, hogy 16x annyi cache van benne.
De a Matisse tizedakkora lapka feleannyi cache-sel és kisebb a tranzisztorsűrűsége.
Ehhez képest a Renoir tranzisztorsűrűsége ~ megegyezik a GA100-éval és biztosan nincs benne sem 65MB, de még feleannyi se.Tehát nem magyarázhatja csak a cache mennyisége a tranzisztorsűrűség különbségét a két lapka között.
Valami másnak is lennie kell.
- pl: picit más eljárás. N7 v N7P v N7+ - fene tudja ezeket már követni.
- más design library ( [link] )
- esetleg a cache-sen kívül más részegységek jellegzetessége. a GDDR6 vezérlő a Navi10-ben például kifejezetten nagy. Vagy pl esetleg hogy a tensor magok jól sűríthetők -
Petykemano
veterán
-
Petykemano
veterán
válasz
Televan74 #41166 üzenetére
Én nem értem, miért lenne jó az AMDnek, hogy kb azonos méretű N10rf és N23 lapkákat is gyárt.
- Kivéve,.ha más gyártástechnilógián vannak. Ugye elvileg a matisse N7, a navi10 N7P volt. Ha az RDNA2 valami.mégfejlettebb cuccon jönne, érteném, hogy párhuzamosan megy.De van, aki tudni véli, hogy jó okkal lesz így. Az RDNA2 N23 sokkalta jobb lesz.
Azt gyanítom, áremelés várható. A N10RF csak Kicsit lesz olcsóbb, mint tavaly a N10. Az N23 Pedig drágább lesz, mint tavaly az N10 volt. Így jut is, marad is. -
Petykemano
veterán
Jó, azért ez még mindig nem jelenti azt, hogy a mainstream gpuk is 5 meg 7 nm-en fognak készülni.
Nem arról volt szó, hogy az nvidia számára a 7nm túl drága ahhoz, hogy minden azon készüljön. (Persze a túl drága itt a legmagasabb margót jelenti nem azt, hogy ki tudna-e fizetni) viszont ha csak a HPC holmikat gyártják ott, az annyira kis volumen, Amivel eddig elhajtották?
Mit gondolsz a CDNA vagy CDNA2 is chiplet lesz?
-
Petykemano
veterán
Bár az IBM nem annyira uptodate manapság, de velük volt a legszorosabb kapcsolat korábban.
De van már vagy három arm alapú 64+ magos szerver CPU. Ezek ma még lehet, hogy csak papíron léteznek, de papíron nem rosszak és tényleg meg lehet venni készen.
Nem hiszem, hogy ezek a tervező.cégek ne lennének készek hozzáigazítani a - még csak papíron létező - architektúrájukat az nvidia gyorsítójához.
-
Petykemano
veterán
Ennyit a gyártási előnyökről.
-
Petykemano
veterán
GPU piaci penetráció (folding@home statisztika
tehát nem reprezentatív)
-
Petykemano
veterán
Én se láttam, hogy kiválasztható lenne.
De ANY beállításon a COVID19 priorizált -
Petykemano
veterán
válasz
Locutus #40899 üzenetére
Ezt én sajnos nem tudom megmondani.
Ha valaki talál olyan kezdeményezést, amivel kifejezetten magyar tudósokat tudunk segíteni számítási kapacitással, az jelezze.
(Egyetértek, hogy valószínű, hogy ha ott akadnak rá valami vakcinára, akkor azt kemény valutáért fog hozzánk eljutni.)
-
Petykemano
veterán
Folding@home
Harcolj a corona virus Ellen! -
Petykemano
veterán
-
Petykemano
veterán
//Konkurenciaelemzés
-
Petykemano
veterán
Nem tudom, melyik céget érintheti...
-
Petykemano
veterán
.
-
Petykemano
veterán
"Kell majd a GFN mellé Google Stadia, Amazon, PSN, stb..."
Értem és egyet is értek.
Ez elég jó érv ahhoz, hogy több különböző cloud gaming előfizetés helyett inkább saját hardvert vegyek meg és azon játsszam?
(#40692) _drk
A "contest" lényege pont az, hogy győzz meg, hogy miért érné meg nekem $5-os cloud gaming előfizetés helyett a 3 éves notebookom helyett cserélni ma újként egy 150eFt-os helyett 300eFt-t venni? -
Petykemano
veterán
1.) Gondolod, hogy ez így is fog maradni a következő 1-2 évben?
Tudom, hogy az Activision-Blizzard most vonta vissza magát a GFN-ről, de azt gondolnám, hogy a cloud gaming szolgáltatók meg fogják tudni oldani. Mármint úgy értem, hogy még a legnagyobb kiadóknak is szüksége van online terjesztési módra. Ez lehet a Steam, vagy a gog, vagy az Epyc saját game store-ja.
Tehát nem hiszem, hogy úgy maradna, hogy lesznek játékok, amik ne érhetők el cloudból, mert a kiadó csak a saját store-jában kínálja.Úgy tudom, a steam is készül a saját cloud gaming megoldásával. Ami lehet persze, hogy csupán egy mélyebb integráció lesz a GFN-nel, tehát hogy nem a GFN által kínált VNC desktopon kapsz Steam klienst, hanem a saját gépedre telepített steam kliensed a GFN-ben egyből indítja a játékot.
De a kérdésem tehát ez: arra számítasz, hogy lesznek a cloud gamingnak 1-2 év múlva is ilyen durva cím-hiányosságai, ami miatt egy jelentős felhasználói tábor kényszerül erősebb saját hardvert vásárolni és nem $5-ért cloud gamingelni?
2) Ez igaz.
És az is igaz, hogy 10-20 perces streamelés 100-200MB-os adatforgalmat generál. Ami otthoni hálózaton, otthoni wifin nem gond. A mobilcsomagoknak ehhez szerintem még fel kellene nőni.
És lehet, hogy egy olyan helyen, ahol nem tökéletes a wifi, vagy mobilnet van, ott laggol, ami szar. Másodkézből tudom, hogy jó internettel otthoni körülmények között viszont jó.Cserébe akár tévén is játszhatsz cloudból. Jó tévét meg amúgy is vennél, nem?
Tehát ha van egy 3 éves notid és mindenképp szeretnél útközben is játszani, akkor a saját hardver felé billen a mérleg nyelve, mert útközben nem jó a streaming. Ezt elfogadom, csak nem tudom, mekkora réteget képeznek az útközben notebookkal játszók.
3.) Ez is jogosnak tűnik
Ugyanakkor pl a steam esetén ott van a műhely, lehet modokat bekapcsolni, egyáltalán nem kell fizikailag hozzányúlni a kódhoz. Ez az irány szerintem megmarad. -
Petykemano
veterán
válasz
Crytek #40686 üzenetére
210k...
Erről jut eszembe. Nyilván ez a 210k-tól kezdődő ár, de még 300k körül kapható 1050 vagy 1060 maxQ sem mondható egy kifejezetten ultra kompetitív fps gamer konfignak. Mármint olyannak, hogy hát ez azért musthave, hogy 144-300hz, és ne laggoljon.
200-300k és mondjuk ezen akkor lehet játszani 1080p-ben. Mondjuk jó minőségben 60fps-sel.
Mármint hogy ez inkább olyan minimumnak tűnik ahhoz, hogy érdemes legyen leülni játszani rajta.
200-300k. Azon gondolkodtam el, hogy igazából Mit Lehetne felhozni érvként emellett, ha a streamelt játék (pl GFN) 1080p ultra grafikát hozza havi $5-ért?
Valamilyen hardvert persze kell venni hozzá. Én koránbban azt gondoltam, nem fogják olyan olcsón kínálni, hogy versenyképes legyen a saját hardverrel azok számára, akik sokat játszanak (korábban limites volt az óraszám), azok, akik meg nem játszanak sokat, általában nem is fogalmazódik meg igényként a kompromisszumok nélküli grafikai minőség és megelégszenek azzal, amit a rendelkezésükre álló hardver biztosít.
De itt van ez a noti kérdés. Van egy 3 éves notebookom. Lassan kiöregszik, kéne vennem helyette egy újat, hogy továbbra is 1080p 60fps highon játszhassak. Miért fizessek én 300e Ft-ot egy új eszközért, amikor havi $5-ért megkaphatom a felhőből?
(Nyilván persze ma még lehetnek gyermekbetegségek, hogy most milyen játék érhető el, meg nálunk nem is annyira rossz a net, tehát nem tömöríti agyon és nem szaggat)
-
-
Petykemano
veterán
Neovi [link]
-
Petykemano
veterán
Mindfactory W3 GPU shares
(DIY piac) -
Petykemano
veterán
válasz
GodGamer5 #40389 üzenetére
Egy különálló 200mm2 körüli 192bites lapka még akár hihető is lehetett volna: "Megszaladt a finanszírozás és jobban megéri spórolni a szilíciumon, mint a tervezési időn."
De csinálni egy másik navi lakot 256bit memóriabusszal azért nagy hülyeség lenne, nem?
Az sima=6GB és XT=8GB még egy ok azt gondolni, hogy az 5600/XT vágott Navi10
Pl:
32CU, 256bit, 8GB
28CU, 192bit, 6GB -
Petykemano
veterán
Egy új nagy gpu most lett elsőször szilíciumba öntve
[link]AMD vagy Nvidia?
-
Petykemano
veterán
"Az meg nem vita tárgya, hogy rárúgták a szerverpiacra az ajtót."
Adoredtv helyesen állapította meg: a rome minden fontos paraméterben veri az intelt, kivéve egyet: az eladásokat.
"Az meg nem vita tárgya, hogy rárúgták a szerverpiacra az ajtót."
48MB L3$ confirmed.
Arról tudsz valamit, hogy mikor változik meg a victim jelleg valamilyen prefetcherre? Azért 48MB L3$, ami akár egy mag számára is rendelkezésére áll és nem victim, hanem prefetcher, az azért hozhat a konyhára! -
Petykemano
veterán
én komoly dilemmát sejtek.
4K 60fps - jelenleg - biztos komolyabb hardvert igényelne. Mondjuk $800.
Meg itt van az SSD kérdése is.
Oda akarok kilyukadni, hogy biztos dilemmát okoz, hogy ha egy konzol nem tud 4K 60fps-t, akkor miért venné meg valaki? Hiszen 1080p-re képest hardver a Stadián ingyenesen elérhető. Ha tehát a konzolgyártó szeretné magát megkülönböztetni a Stadiától, akkor a konzol kell hogy tudjon 4K 60fps-t, de nyilván ehhez meg csak pont annyit kérhetnek el, hogy mondjuk az ne legyen több, mint 2-3 évnyi előfizetés a 4K Stadiára.
A másik út az, hogy lemondanak a helyi géperőről és azt mondják a vásárlónak: vedd meg ezt az olcsó visszafelé kompatibilis konzolt és a mi stream szolgáltatásunkra fizess elő. Ekkor viszont a stream szolgáltatásnak kell versenyképesnek lennie a Stadiával.Szerintem ez még nincs teljesen eldöntve. Az a kérdés, hogy tudhatnak-e a játékok olyan dolgot, ami feltétlenül szükségessé teszi a helyi erőforrásokat (a VR-ról ezt gondoltuk, de végül ebből nem lett olyan nagy durranás), vagy olyat, amivel a felhőben elérhető kapacitás mondjuk nem tud lépést tartani.
(A hardvergyártók nyilván utóbbiban érdekeltek.) -
Petykemano
veterán
válasz
Crytek #40180 üzenetére
"PC-re már itt vannak a 16 mag 32-szálas szörnyek azt sehol semmi fizika.."
Ez költői túlzás.
2017-ben, a ryzen megjelenésével kezdtek el mainstreammé válni a 6 magos processzorok. A 8 magos cpu azért még mindig felsőszint a desktopon.
Notebookok terén meg még csak most kezdenek megjelenni a 6 magos procik.Ha megnézed a a steam survey-t, hiába az elmúlt 3 hónap fergeteges zen2 sikere, a használatban levő cpu magok számában nem történt "paradigmaváltás". Talán azt ki lehet jelenteni, hogy lassan elkezdtek fogyni a 2-4 magosok - annak ellenére, hogy már 2 éve piacon vannak a 6-8 magos csodák (mindkét oldalon)
Ehhet képest a 12-16 magos cuccok igencsak prémiumnak számítanak, tehát arra nem lehet számítani, hogy a játékok fizikáját ezek piaci elérhetőségére alapoznák.
A 8 magos konzolok és a sok magra skálázódni képes dx12 és vulkán apik megjelenését még sok évnek kellett követni és a 6-8 magos ryzen1k megjelenését legalább 1 évnek el kellett telnie, mire ki lehetett jelenteni, hasznosabb a 6+ mag, jobban járt, aki 6 magos procit vett, mint aki ereje teljében levő 4/8 i7-et. És aztán még egy évnek kellett eltelnie, mire ki lehetett jelenteni, hogy a 4/4-es i5 kevés és aki ilyet vett 2017-ben, az kifejezetten ráfaragott.
Szerintem a 8c/16t zen magos konzolok megjelenését követő második évben lehet majd azt érezni, hogy egy 8/16-os proci tényleg hasznosul. (És persze akkor a 12 magos nyilván előnyösebb)
Ha ezeket a friss erőforrásokat nem viszi el a grafika, vagy lezser programozás, hanem valóban elengedődik a fejlesztők képzelete és AI-ban, vagy fizikában fog hasznosulni, akkor ez legfeljebb 2021-ben, inkább 2022-ben fogja éreztetni a hatását. (Kérdés persze, hogy addigra nem köp-e bele ebbe a levesbe a cloud gaming)
Viszont ahhoz, hogy ez megvalósuljon a hardvernek is el kell jutnia a felhasználókhoz. Ha nincs ott a kihasználatlan erőforrás a PC gépekben (is), akkor szépen le fogják tiltani. Tehát a cpu gyártóknak ezt olyan áron kell kínálni. -
Petykemano
veterán
... az előző részek tartalmából ...
Abu!
Azt látjuk, hogy az Nvidia gyakorta jobb teljesítményt hoz egy elvileg olcsóbb, rosszabb node-on úgy, hogy közben ráadásul még gyakran kevesebbet is fogyaszt.
Erre neked az a válaszod, hogy a magasabb IPC több tranzisztort igényel.Értem, hogy mi az IPC és valóban fontos paraméter. DE nem értem, hogy a felvetett kérdésre ez hogy lehet a válasz? Nyilván minél nagyobb az IPC, annál jobb, de ennek tranzisztorköltsége van és mi a haszna annak, ha magasabb az IPC, ha közben az fps csik rövidebb, a power csík meg hosszabb?
Úgy is feltehetném a kérdést, hogy ha az fps csík kisebb, a power csík meg nagyobb, akkor egyáltalán hogy lehet nagyobb az IPC? Te nem érzed az ellentmondást, abu, hogy egy elvileg jobb lapka rosszabb kimeneteti paraméterekkel rendelkezik?
Vagy ez a nagyobb IPC mikor és hogy fog tudni hasznosulni úgy, hogy az fps csík annál a lapkánál legyen hosszabb, ahol az IPC is nagyobb? -
Petykemano
veterán
válasz
Ragnar_ #40059 üzenetére
Nem ismerem ezt a játékot, de a multis játkékoknál szokták mondani, hogy teljesen más a cpu terhelése mondjuk egy 100 játékost tartalmazó pályán, mint single player benchmarkban.
Ha ez is egy ilyen masszívan multiplayer játék, akkor jöhet még jól az a skálázódás annak ellenére, hogy mondjuk grafikára 8 szálnál nem használ többet. (A DX12 skálázódása egyébként 6 szálnál megáll)Ha ez nem ilyen játék, akkor tényleg elkiabálták azt a skálázódást
-
Petykemano
veterán
válasz
Petykemano #39994 üzenetére
Meg azért várjuk ki, mikor kerül ez piacra
-
Petykemano
veterán
válasz
Valdez #39987 üzenetére
5 évvel ezelőtt még talán igazad lett volna.
De van Xiaomi, Huawei, arm procit is tudnak csinálni. Volt egy régi történet, miszerint a kínaiak nem innovatívak, kiválóan tudnak másolni, de új dolgokat kitalálni nem. Sokáig Kína volt az egyetlen nagyhatalom, amelyiknek nem volt repülőgéphordozója - enélkül pedig nincs csendes óceán feletti felügyelet - annak ellenére, hogy soksok éve megvették már a kifuserált ukrán anyahajót. De Végül megszülték.Szóval szerintem azoknak az időknek vége. Legalább arra lesz kínának értelmes gpuja, hogy a saját szükségleteit fedezze (vs nvidia) ez is hatalmas piac. Az, hogy ez hozzánk eljut-e majd, ezt sokkal kevésbé a képességek, mint a piaci viszonyok fogják meghatározni. A trump féle vámháború pont azt a célt szolgálja, hogy a saját lábra álló (saját fejlesztésű, nem pedig csak összeszerelt, exportképes kínai végtermékek) kínai gazdaságot beszorítsa.ez protekcionizmus. Mindig az erősebb gazdaság érdeke a nyílt szabadkereskedelmi viszony, hogy a gyengébb gazdaság ne tudja vámokkal vagy más bürokratikus eszközökkel védeni a saját iparát.
Az az igazság, hogy egy pár hónapja már mondogatják, hogy függetlenül az inteltől és a rebesgetett armtól, ha ők nem is, valaki, egy garázscég biztos megpróbál majd megjelenni a gpu piacon, ahol most emelkedettek az árak, nincs öldöklő árháború. Jön majd valaki, belép a mainsteam szegmensbe egy olyan ajánlattal, hogy olcsó nodeon gyárt valamit, ami hozzá az elvárt teljesítményt,.kétszer annyit fogyaszt, cserébe feleannyiba kerül.
Ha egy ilyen cucc kínában elterjedne (mondjuk az internet kávézókban), akkor erre a milliárdos piacra hamar meglenne a szoftveres támogatás is a játékfejlesztők részéről.
Kezdetben a Samsung is úgy kezdte, hogy beszállított az Applenek és másolta annak készülékeit. A gpu piacon az innováció eléggé lelassult. Korábban évente 60+% előrelépés volt. Azzal nehéz lépést tartani ha valaki úgymond csak másolja a technológiát. De moat már évente csupán max 20-30% előrelépést lehet látni, sokszor valamiféle rebranddel, és/vagy chipméret skálázással. Ha 1-2 év késéssel jelentetsz meg valamit, még nem világvége - látjuk az AMD esetén is.
Azt nem tudom, mi lett azzal a mondással, hogy azért nem lehet belépni a gpu piacra, mert az AMD és az nvidia birtokol csomó olyan IP-t, ami megkerülhetetlen. Ez persze elsősorban az Intel és arm vonatkozásában érdekes, de kérdés, hogy ez a kínai gpu sértene-e szabadalmat a nyugati piacokon?
-
Petykemano
veterán
válasz
syberia #39894 üzenetére
Egyébként szerintem nevetséges.
Így kijön, hogy egy 4 magos i3, jobb, mint egy 16 magos?
Jó, persze, bizonyos körülmények között.Azt kellett volna csinálni, ha már mindenképpen ki akarják zárni az eredményekből az irreálisan magas szálszámot, hogy bevezetik a 8 magos teljesítményt.
-
Petykemano
veterán
"Egy bug..."
-
Petykemano
veterán
Nagyon érdekes.
Az AMD mintha zárta volna a rést az nvidiához képest.Azon gondolkodtam el, hogy most majd lehet-e röhögni, hogy jójó, persze 7nm, de majd az nvidia jön és egy jóval kisebb lakpával röhögve...
Merthogy ugye a vega 64 vs 1080 esetében egy 500mm2-es lapka versengett egy ~300mm2-essel.
De a 7nm a gpu-k vonatkozásában pusztán 60%-os méretcsökkenést hoz, tehát nem valószínű, hogy az nvidia lényegesen jobb tranzisztorsűrűséget el tudna érni, mint a navi (41Mtr/mm2)
Ez pedig azt jelenti, hogy az 5700XT vs 2070 viszonylatában az AMD
- egy közel azonos tranzisztorszámú lapkával verseng
- és az nvidia se tudna 7nm-en ugyanebből a navinál kisebb lapkát csinálni
- azonos memóriasávszélességgelA 5700XT veréséhez az nvidiának egy TU104-re van szüksége, ami 550mm2 (7nm-en ez 331mm2 lenne)
Jó, ehhez persze szüksége van a 7nm-re. Nyilván a 7nm az nvidiának is fog fogyasztást csökkenteni. Szó sincs arról, hogy agyonlaposra verte volna, de olyasfajta ellenkező irányú brutális alázásról se, mint a Vega 64 vs 1080 volt.
Tehát a következő generációban az nvidiának is durrantania kell valamit, mert csak egy 7nm-re való turing shrinkből nem biztos, hogy meg tud tudni élni. Ha mérnöki újítás nem lesz, akkor úgy fogja tudni megőrizni az elsőségét, hogy él a jelenlegi előnyével és
- azonos fogyasztás mellett magassabb frekvenciákra pörgetik fel a lapkákat. Itt 100-200Mhz előny lehet, hogy elérhető
- azonos frekvencia és azonos fogyasztás mellett mellett nagyobb lapkákat adnak ki és ez vezet majd nagyobb teljesítményhez.
(és persze c) opcióként mindig ott van, hogy mérnöki újítással újra elugranak)Mindenesetre az overáll érzésem nekem az, hogy - legalább átmenetileg, ha nem is zárult, de - szűkült az olló
-
Petykemano
veterán
szó szerint patikamérleg.
Itt még csak talán nem is az dönthetne egy tiszta (értsd mindshare támogatás nélküli) helyzetben, hogy melyik olcsóbb vagy jobb, mert láthatólag annyival jobbak egymásnál, amennyivel drágábbak is.
de azokon a spotokon, amik olyan szép kerekek, nvidia kártya ül.BEst gpu for $400, best gpu for $500
A 450 esetleg elgondolkodtató, mert pont középen van, de aki $500-t akar költeni, a $450-hez képest pont azt érzi, hogy megéri elkölteni azt az $500-at, amit erre szánt. Aki meg $400-ban gondolkodot, pont nem fog rákölteni még $50-et.
A $380 meg még inkább ilyen. Nem $380-an gondolkodik az átlagember, hanem $400-ban. A 2060S pedig megintcsak jobb annyival, amennyivel drágább, aki $400-ban gondolkodott, nem fogja lespórolni azt a $20-t a végéről.Szerintem az AMD igazából emiat lenne kénytelen $350-re és $400-ra igazítani az árait.
IGazából aközül kell választaniuk, hogy lemondanak a debüt extramarginról - mert ugye a fanok ennyiért is megveszik, vagy pedig a debüt chartokra a fenti konnotációval kerülnek-e fel, s az első benyomást egy 2-3 hónap múlva végrehajtott árcsökkentés már kevéssé fogja befolyásolni. (Persze akkor meg megveszik, akik addig drágállották) -
Petykemano
veterán
Lehet, hogy az AMD fanok, mármint a vérfanok hibáztathatók azért, mert látnak egy ilyen "leak"-et, ami nagyon jó deal és mivel illik abba a vágyálomba, amit elképzelnek, hogy miképp tenne vagy kéne tennie az AMD-nek, ezért nem csak legyintenek, hanem várakoznak.
De aztán valahogy mégis kicsit kevésbé ezek az AMD fanok, mármint vérfanok csalódottak, mármint vércsalódottak, mármint olyan állandóan hibáztató, állandóan morgó "hülye amd", "na már megint minden az AMD hibája" csalódottak, hanem sokkal inkább azok az nvidia fanok, mármint nem azok az vér-nvidia-fanok, akik bármennyiért nvidiát vásárolnak, hanem csak azok a soft-fanok, akiknek azért szintén meg se fordulna a fejükben AMD venni - akármilyen olcsó is -, de azért vannak annyira ravaszdik, hogy olcsóbban akarjanak nvidiát vásárolni és pont ezért sokkal inkább várják a jó AMD dealeket, mint az AMD fanok és sokkal csalódottabbak is, mikor a remény - az olcsó nvidia kártyáért - hamvába hól.
Ugyanők persze általában elmondják, hogy ők semmi esetre sem nvidia fanok, (Ha azok is volnának, akkor persze annak legalább nagyonis van jogalapja), hiszen az nem rajongótábor, ha a bajnoknak drukkolsz, az csupán a játék szeretete és nettó racionalitás.
És persze elmondják azt is, hogy hát ők annyira racionálisak, hogy ha az AMD feleannyiért hozna kétszer olyan gyors kártyát, akkor persze gondolkodás nélkül azt vásárolnák, de hát ilyen 10%-kal olcsóbb az meh...Ja, persze nem rólad van szó. Ezeket csak úgy mondtam
-
Petykemano
veterán
sajnos úgy tűnik, jó drága lesz a Navi.
Kár, hogy az Nvidia megint képtelen volt letenni valami jót az asztalra[1]
-
Petykemano
veterán
Szerintem az optimalizálás az alábbi nem feltétlenül egymást kizáró, de valamiféle fontossági sorrendet mindenképpen leíró lista alapján történik:
1.) Ha valaki (mármint hardvergyártó) megfizeti azt, vagy szellemi erőforrást dedikál
2.) Amelyik hardver a játék célközönségére jellemző, nagy arányban fordul elő
3.) Amelyik kényelmes, könnyű, olcsóAz AMD a 3.) érdekében tett az elmúlt években sokat: profilozó meg dokumentálás, open-source, stb. Meg most még egy lépés, hogy a hardver teljesítményét nem rontja, ha más hardverre optimalizált kódot kap.
Teljesen egyetértek, hogy ez nem fogja felborítani az eddigi optimalizálási rendet.
-
Petykemano
veterán
Szerintem ennek örülni kell. Végre egy fícsör, ami outofthebox működik, nem attól függően lesz olyan jó az amd kártya, mint elméleti tudása szerint lennie kéne, hogy vajon hajlandó-e elbíbelődni valaki a sarokban akkor is, ha kiválóan dokumentált és rém egyszerű.
Ha ez igaz, akkor innentől nincs az, hogy Gameworks, meg turingra optimalizálták, mert bár pazarlóan, de a navi megoldja.Attól meg nem kell félni, hogy bárki elkényelmesedne és emiatt helyzetbe kerülne az AMD és kínlódna az Nvidia. Hiszen ez történt az elmúlt... 4 évben. /NEM/
-
Petykemano
veterán
Te meg miről beszélsz, abu?
most mutatták be, hogy a szutykos régi 14nm-en gyártott csak úgy nagyhirtelen összeragasztott 56 magos cpu-juk hozza ugyanazt, mint amit az AMD fényes páncélba öltöztetett vadiúj 7nm-es 64-szegecses üdvöskéje.Egyébként meg a 9ns pont kétszer kisebb , mint a 19ns. Úgyhogy ennyit erről...
-
Petykemano
veterán
válasz
Petykemano #39692 üzenetére
IO lapka volna?
-
Petykemano
veterán
válasz
korcsi #39679 üzenetére
Tudja valaki, hogy a képen eDRAM vagy különálló GPU lapka látható?
Tudja valaki, hogy ez az Ice Lake-U mérés Iris volt-e eDRAM-mal?
Tudja valaki, hogy az itt bemutatott 18%-is IPC emelkedés eDRAM mellett értendő-e? -
Petykemano
veterán
Sapphire rapidsig nincs válasz a zen2-re. De mindezekkel a gyorsítókkal ez akkora hátrányt jelent? Vagy ez a heterogén átmenet még azért.nem történt meg?
Rendben van, hogy az se a cpu nem a legjobb, se az fpga, tegyük fel a gpu se fogja elsöpörmi az.nvidiát, de az intelen kívül ki fog még tudni olyan integrált megoldást kínálni, hogy mindent egybe tud építeni? Ez nem jelent pont ugyanolyan előnyt, mint amilyet az AMD számára a cpu+gpu tudás a konzoloknál?
És ott van a nervana is
Meg CCIX helyett a CXLJó, persze az AMD esetén azt láttuk, hogy tökre mindegy l, milyen igp van, ha a cpu szutyok, akkor senki se kíváncsi rá. Legalábbis a konzumer piac így működött.
Van ennyire meghatározó a cpu az intel datacenter terveire.vonatkozólag?
Kérdezem ezt úgy, hogy elkötelezett Intel hívek szerint az icelake (ami low volume low power fog megjelenni) 10-20% IPC előnnyel fog rendelkezni a zen2! Fölött. Tehát a mimdsharet tökre.fogják tudni.tartani.
-
Petykemano
veterán
válasz
-FreaK- #39630 üzenetére
Nem teljesen értettem: mihez képest értendő, hogy döglött ló.
Az Intel terve valami olyasmi, hogy a CPU önmagában halott, kellenek a gyorsítók, Amivel 10-100-1000x-es előrelépést lehet elérni cpuhoz képest speciális taskoknál.
Az asic gyorsítók csak célfeladatra jók, az fpgakat fel kell programozmi előtte. A heterogén computing megközelítésnek az a hátránya, hogy az előnyök kiaknázásához először valakinek meg kell mondania, hogy milyen workload milyen hardveren fusson.
Ez Kicsit hasonló jellegében ahhoz, ami egy korábbi videoban volt, hogy hogy lehet ST workloadot MT-re bontani.
Ha ezt meg tudják oldani, akkor még nyerhetnek is.
Egy gyorsító mindig gyorsabb lesz, mint a cpu, itt maximum az lehet a kérdés, hogy a szoftver előrehaladtával kénytelen vagy-e hardvert is cserélni.Szóval nem értettem: az Intel azért doomed ezzel a stratégiával, mert a cpuja - talán csak pár évig - nem elég ütőképes az arm notikkal és az AMD szerverprocikkal szemben?
-
Petykemano
veterán
válasz
szmörlock007 #39622 üzenetére
A polaris rajtnál szivarozgatva egy kevésbé dekoratív, de honfitársnak tűnő hőlggyel táncikált.
-
Petykemano
veterán
válasz
szmörlock007 #39579 üzenetére
This is interesting, but there's an asterisk: "for the Intel Rendering Framework family of APIs and libraries." No mention of DXR support. https://t.co/x24AWfhJrX
-
Petykemano
veterán
Sziasztok,
új vagyok itt,.van már valami hír az új 7nm-es navi diáról?
-
Petykemano
veterán
válasz
Devid_81 #39565 üzenetére
Van egyébként Intel találgatós és Intel GPU találgatós topik is, amely szeretettel várja az intelhez kötődő (nem gpu VS) témákat
-
Petykemano
veterán
Mit értesz az alatt, hogy "megvalósul"?
Abu "jóslataiban" sosem arról beszél, hogy ilyen vagy olyan irányban fog változni a piaci részesedés ezért vagy azért az épp részletezett nehézség miatt.
Mindig az a forgatókönyv, hogy
1) Kijön valami új api, kiterjesztés vagy arra épülő játék, ebben az AMD szerez egy kis előnyt, vagy farag a hátrányából
2) Abu elkezdi ecsetelni, hogy hát igen, az nvidia mennyire le van maradva ebben meg abban az implementációban
3) Jön a "le van maradva" kijelentésen feldühödött tömeg, hogy hát ha annyira le van maradva, hol vannak az AMD eredményei? Hol látszódnak a csíkok, hogy az AMD mennyivel jobb?
4) Eltelik néhány hónap/év, kijön pár driver frissítés, menet közben kijön egy új generációs lapka, ami foltoz ilyen-olyan "hiányosságokat", az AMD 1-2 címben megjelenő "előnye" elolvad és jön az önelégült tömeg, hogy na tessék hol van a le van maradva, már gyorsabb is.
5) Goto 1.)És közben abu egyszer sem mondja, hogy az AMD csíkok innentől kezdve hosszabbak lesznek mindig. Sőt, most kifejezetten ügyelt arra, hogy felhívja a figyelmet, hogy az nvidia rá fogja fordítani az erőforrást és megírja a drivert és szépen visszaáll minden a rendes kerékvágásba.
-
Petykemano
veterán
Nem gondolnám, hogy szándékos visszafogás lenne, vagy lett volna az nvidia részéről. Inkább csak valami laza ráérősség.
A fejlesztők részéről pedig afféle "why bother?" típusú hozzáállás lehetett. Biztosan vannak előnyei annak, amit kértek (mégha igazat is kell adnom annak, hogy néha nem az a jó, amit az ember gondol, hogy szeretne)
Abu azt szokta mondogatni, hogy amiket eddig láttunk döntően DX11-hez írt motorok átiratai. Ezeket én leginkább afféle gyakorlásnak tudnám be - próbáljuk ki, hogy meg tudjuk-e oldani, miközben nem nyúlunk bele mélyen és nagyon. Nekem ebből az jön le - Abu is mindig ezt mondta -, hogy amíg az alapjaitól nem írják az új apihoz a motort, addig szinte semmilyen előny nem lesz érezhető például a CPU magokon való jobb skálázódásból.Én arra fogadnék, hogy most hogy megjött a Turing és az explicit apikhoz tartozó drivertámogatás is, most (a következő 1-2 évben) fognak majd elkezdeni érkezni azok játékok, amiknél majd azt hallhatjuk, hogy ezt vagy azt az tette lehetővé, hogy a vulkan/DX12 blablabla
Tehát a kérdésedre válaszolva: nem, szerintem még nincs itt a elégedettség ideje. -
Petykemano
veterán
Én nem ástam bele magam, ezért csak amolyan távoli érzet alapján mondom: úgy tűnik, a nyafogás az explicit apikkal kapcsolatban addig tartott, amíg az nvidiának (hardver és/vagy driver) a DX11 (alapokra épült) játékmotorok feküdtek jobban. Most hogy a driver már jó, meg a Turing is már fekszik explicit apihoz, meg jönni fognak a nem csupán DX11 alapú motorok dX12/vulkán támogatással is rendelkező változatai, hanem a már tényleg explicit apihoz írt programok - nyafi nélkül.
De persze lehet, hogy tévedek.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Mi nincs, grafén akku van: itt a Xiaomi 11T és 11T Pro
- Samsung Galaxy Watch6 Classic - tekerd!
- Robogó, kismotor
- Automata kávégépek
- Formula-1
- Ezek az új Apple termékek hivatalos magyar árai
- Székesfehérvár és környéke adok-veszek-beszélgetek
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Mibe tegyem a megtakarításaimat?
- Eredeti játékok OFF topik
- További aktív témák...
- Asus STRIX RTX 3060 12GB GDDR6 Videokártya!
- AZONNAL VÁSÁROLOK RTX 4090 és RTX 5090 videokártyákat! Akár nem működő, hiányos, sérült is lehet!
- GIGABYTE Radeon RX 7600 XT Gaming OC 16GB GDDR6 Videokártya !
- ZOTAC GeForce RTX 4060 8GB Twin Edge
- ASUS ROG STRIX 4090 (RTX4090-O24G-GAMING) 24GB GDDR6X (még 12 hó garival)
- Bomba ár! Dell Latitude E7470 - i5-6GEN I 8GB I 256GB SSD I 14" FHD I HDMI I CAM I W11 I Gari!
- Bowers/Wilkins Px7 S2 fejhallgatók
- Bomba ár! Lenovo X1 Yoga 1st - i7-6G I 8GB I 256SSD I 14" WQHD I HDMI I W10 I CAM I Garancia!
- Vadiúj számlás garanciás szupergyors hálókártya
- Samsung Galaxy A40 64GB // Számla+Garancia //
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest