Hirdetés
- caprine: Snowrunner játék manuális tuning lehetőségei
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- Gurulunk, WAZE?!
- Luck Dragon: Asszociációs játék. :)
- eBay-es kütyük kis pénzért
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Elektromos rásegítésű kerékpárok
- Luck Dragon: Alza kuponok – aktuális kedvezmények, tippek és tapasztalatok (külön igényre)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
-
LOGOUT
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#53325
üzenetére
Egymilliárd dolláros profit teljes életciklusra két terméken kb. 50x nagyobb profit, mint amit más OEM terméken összehoznak a cégek.
#53341 Busterftw : A Switch 2 gépekbe az AMD fel sem merült, mert túl drága a Semi-Custom a Nintendo számára. Az AMD életciklusra nézi a projektet, és egy 10 éves tervezett életciklusú projektet jelenleg nem vállalnak el úgy, ha a várható nyereség kisebb 3 milliárd dollárnál. Ahhoz, hogy a Switch 2-nél ez nagyobb legyen 150 dolláros SoC ajánlatott kell adni a Nintendo számára. Ez nyilván életképtelen egy olyan gépnél, ami komplett, tehát még kijelzője is van, és ezzel együtt kell 450 dollárba kerülnie. Ilyen kötött keretbe 50 dolláros SoC fér be, ami kb. a harmada annak, amiért az AMD Semi-Custom manapság megmozdul.
-
Busterftw
nagyúr
válasz
S_x96x_S
#53342
üzenetére
Engem nem kell emlekeztetni, mert nem ezt irtam, masolj rendesen, ha mar idezel.
"A Switch 1rol nincsenek errol pletykak, hogy az AMD versenyben lett volna"
A fenti pletyka nem errol szol, de eleve felesleges ezen fennakadni, amikor ezt a halott venturebeat linket maga az AMD cafolta utolag.
Ellenben a Switch2-nel. -
S_x96x_S
addikt
válasz
Busterftw
#53341
üzenetére
onnan indultunk, hogy extrém magabiztosan állítottad, hogy:
( "A Switch 1rol nincsenek errol pletykak," )
emlékeztetnélek,
hogy de .. vannak ... és posztoltam is.
AMD Is Likely Making The Processor For Nintendo NX – Announces Third Semi-Custom Design Win
https://wccftech.com/amd-making-processor-nintendo-nx/A Wii családnak -nak ati/amd alapú chipje volt,
vagyis logikus, hogy az amd-vel is konzultált
a nintendo a következő gen-ről. -
Busterftw
nagyúr
válasz
S_x96x_S
#53338
üzenetére
Csak hogy az a harmadik chip nem a Nintendo volt, mert Lisa Su egyertelmuen fogalmazott, az egesz Venturebeat pletyka csak egy MLID szintu marhasag volt.
Semmilyen rejtely nincs ebben.
" Yes, I think on the semi custom side, David, I will say that we previously announced three, and that's the number that we'll talk about today. Two of them are now known, and they're both in the game console area, one is outside of game console. I will say that we have some very good active discussions on future products and applications, and we'll update more as we get further along. "PS4/Xbox, a harmadik semi-custom win pedig nem gaming cucc volt, tehat az AMD Switch korrol semmi info sincs.
"Az AMD a switch1 / switch2 -est is petákért adta volna,
de az nvidia aláigért és fél petákért elvitte az üzletet."
Marhasag. Az AMD egy 15W-os x86 termekkel licitalt (a Switch 2-re, a Switch 1-re nem) ami dragabb, mint egy 5W-os arm design, azt a hatekonysagi szintet az AMD nem tudta megutni. Ezekrol lehet olvasni.
Nincsenek szamaid, csak hasrautogetsz.
Az AMD konzolos reszhez, az olcson elvallalasrol szolo penzugyi alatamasztast es Lisa Su kommentjeit fentebb talalod. -
S_x96x_S
addikt
válasz
Busterftw
#53337
üzenetére
> Mivel az AMD rossz penzugyi helyzet miatt, petakert elvallalta (lasd a szamokat fennt), ez igy okafogyott vita.
Az AMD a switch1 / switch2 -est is petákért adta volna,
de az nvidia aláigért
és fél petákért elvitte az üzletet.
( mert a nintendo-nak a peták is drága volt ) -
S_x96x_S
addikt
válasz
Busterftw
#53337
üzenetére
> A Switch 1rol nincsenek errol pletykak,
> hogy az AMD versenyben lett volna,
????
Jul 17, 2015:
AMD Is Likely Making The Processor For Nintendo NX – Announces Third Semi-Custom Design Win
https://wccftech.com/amd-making-processor-nintendo-nx/aminek alapja Lisa Su rejtélyes nyilatkozata, egy újabb gaming SoC-ról, ( és az XBOX ONE, PS4 után ez a nintendo lehetett )
( valószínüleg csak egy prototípust készített az amd a nintendo-nak - amit a nintendo tesztelt ; és végül az nvidia mellett döntött. )July 18, 2015
“We have started a new design this quarter that we believe expands our base for the semi-custom business and we are very pleased with that,” said Lisa Su, chief executive officer of Advanced Micro Devices, during the company’s earnings conference call with investors and financial analysts. “The base semi-custom business is around the game consoles.”
https://www.kitguru.net/components/anton-shilov/amd-begins-development-of-its-third-major-semi-custom-design/és az AMD akkor túlságosan is magabiztos volt,
a CFO -ja már-már kész üzletnek nyiltvánította.
"“I will say that one [design win] is x86 and [another] is ARM, and at least one will [be] beyond gaming, right,” said Devinder Kumar, chief financial officer of AMD, at the Raymond James Financial technology conference. “But that is about as much as you going to get out me today. From the standpoint [of being] fair to [customers], it is their product, and they launch it. They are going to announce it and then […] you will find out that it is AMD’s APU that is being used in those products.”" -
Busterftw
nagyúr
válasz
S_x96x_S
#53328
üzenetére
"mert az nvidia az amd-nél olcsóbban, mobilra jobban optimalizált SoC-ot adott"
Azt nem tudni az AMD mennyiert kinalta volna ezt."Ultimately, NVIDIA's chip provided the same power as the AMD chip with much better efficiency and a far cheaper node, which was very important for Nintendo to keep costs low"
A Switch 1rol nincsenek errol pletykak, hogy az AMD versenyben lett volna, a Switch2-nel az AMD mar erosen nyomult, de a Nintendonak nem tetszett a 15W-os design, alacsonyabb fogyasztast akart. Erre vonatkozik a "cost" is, hiszen 15W-os hutes is dragabb mint egy 5W-os hutest tervezni, gyartatni.
Konkret arakrol nincs szo, tehat ez igy nulla info."de nem volt olyan high-end integrált SoC-a, ami PS/XBOX -nak megfelelő lett volna"
Minden penz kerdese. Mivel az AMD rossz penzugyi helyzet miatt, petakert elvallalta (lasd a szamokat fennt), ez igy okafogyott vita."vagyis a te érved egy fontos dolgot hagyott ki
--> a Microsoft nyereség maximalizálását."
Nem hagytam ki, pont emiatt irtam az Nvidiat, mint logikus lepest.
Tehat itt az egyetlen valtozo az, hogy az AMD RDNA5 hopiumot benyalta a Microsoft is. -
S_x96x_S
addikt
válasz
deathcrow42
#53334
üzenetére
> nem a PC gyártás felé.
amúgy is a jövő a personal/consumer robotoké. ( PR ) https://www.nvidia.com/en-eu/use-cases/humanoid-robots/
https://developer.nvidia.com/isaac/gr00tamúgy a gaming a robotokkal is mást jelent.
-
-
KAMELOT
titán
válasz
deathcrow42
#53331
üzenetére
Erről van szó!
-
válasz
deathcrow42
#53331
üzenetére
Miért ne kezdene? Lesz saját CPU, Intellel is összebútoroznak.. MSI most is csak Nvidia kártyákat gyárt van kézikonzoljuk, monitorjuk,perifériák, szerver , stb,mindenük. Simán jöhet kézi konzol is, aka Shield.
-
-
S_x96x_S
addikt
nvidia extrém gyorsan cáfolta
az eredetileg SemiAccurate -es pletykát.“The media report is false; NVIDIA is not engaged in discussions to acquire any PC maker." NVIDIA rep to Wccftech
updated infó az eredeti wccftech-es cikkben.
-
S_x96x_S
addikt
válasz
Busterftw
#53324
üzenetére
> Itt arrol van szo, hogy a tobb szaz millio eladott konzol utan ha megnezed a semi-custom bevetelt, a Sony/Microsoft nagyon jol jart, mert az AMD olcson elvallalta.
Ahogy a nintendo is jól járt,
mert az nvidia az amd-nél olcsóbban, mobilra jobban optimalizált SoC-ot adott.
Az üzletek win-win alapon kötettnek,Az nvidiának volt mobilra optimalizált SoC -a, ami ideális volt a nintendo-nak, de nem volt olyan high-end integrált SoC-a, ami PS/XBOX -nak megfelelő lett volna.
"""
As reported by a new video shared by Moore's Law is Dead, AMD lost the bid due to its chip's performance and efficiency at 5 watts. The company reportedly wanted Nintendo to push the system in handheld mode at up to 15 watts to get truly next-generation performance, but the Japanese company didn't want to push its console that far, as they didn't want to have a heavier battery. Ultimately, NVIDIA's chip provided the same power as the AMD chip with much better efficiency and a far cheaper node, which was very important for Nintendo to keep costs low.
"""
https://wccftech.com/nintendo-switch-2-amd-performance/> az en ervem az "egy API" strategiarol szolt, amivel a jovobeni konzol es PC piacot akarjak megcelozni.
Ezt pedig az Nvidiaval lehetett volna elerni, mert a PC piac tobbsege Nvidia, ami evente annyi Nvidia GPU-t jelent, mint amennyit a Microsoft osszesen eddig eladott ebben a generacioban.
valószínüleg az AMD
pont az ellenkezőjéről győzte meg a Microsoft-ot.
amiben az szerepelt,
hogy az amd olcsó RDNA5 konfigokkal fogja dominálni a PC piacot
a Microsoft segítségével,
és ez az üzlet a Microsoftnak is nyereséges lesz.vagyis a te érved egy fontos dolgot hagyott ki
--> a Microsoft nyereség maximalizálását. -
[A Wild Rumor Says NVIDIA Might Be Looking to Acquire a PC Manufacturer, Aiming to “Reinvent” Gaming and Computing]
Hmm melyik AIB lehet az ? MSI? -
PuMbA
titán
válasz
Busterftw
#53323
üzenetére
"Ez csak a hardware-re vontakozik, nem teljes uzletagra, ami vegul jol teljesitett nekik (szoftver, jatekok, elofizetes stb)"
Minden benne van, hiszen az egész Sony Gaming Divison-re hivatkozik a cikk. A másik meg, hogy egyáltalán nem ezzel számoltak és nem ez volt a terv, lásd: Sony Felt ‘Lucky’ to Have Survived PS3 Struggles, Says Shawn Layden
A cikkben le van írva, hogy a PS4 már a megjelenésekor profitot termelt és nem 3 év kellett neki ehhez, mint a PS3-nak. Az a projekt, ahol 3 évig csak veszteséged van, nagyon rossz üzletnek számít. -
Busterftw
nagyúr
A semi-custom bevetelek es a 150+ millio konzol utan nem nagyon ezt mutatjak.
Ha saccperkabe osszelegozod az elerheto infokat, akkor nagyjabol a PS4/Xbox One generacio ≈$9-10 milliard bevetelt hozott az AMD-nek, amibol kb ≈0.5-1 milliard lett a tenyleges profit.Ez nem valami eros szam, pont arra jo ami, egy stabil cash flow, semmi mas.
Amit Lisa Su is alatamasztott mar tobbszor a befektetoi hivasok, penzugyi eredmenyek utan, amikor a semi-customrol beszelt akkor:
"Lower margin than corporate average”
“Volume business”
"Important for utilization and cash flow" -
Busterftw
nagyúr
válasz
S_x96x_S
#53314
üzenetére
Ez igy azert nem fair osszehasonlitas azt te is latod.
Az ugy lenne helyes, ha PS4/PS5 szintu gepben lenne Nvidia chip es azt osszevetni.Itt arrol van szo, hogy a tobb szaz millio eladott konzol utan ha megnezed a semi-custom bevetelt, a Sony/Microsoft nagyon jol jart, mert az AMD olcson elvallalta.
A mierteket pedig mar fentebb kifejtettem."Vagyis a te logikád alapján a Microsoft döntése racionálos lehetett,
mert a konzol piac domináns vezetőjét válaszotta."
Az en logikam nem ez volt, az en ervem az "egy API" strategiarol szolt, amivel a jovobeni konzol es PC piacot akarjak megcelozni.
Ezt pedig az Nvidiaval lehetett volna elerni, mert a PC piac tobbsege Nvidia, ami evente annyi Nvidia GPU-t jelent, mint amennyit a Microsoft osszesen eddig eladott ebben a generacioban. -
Busterftw
nagyúr
Itt mar nagyon bonyolult lenne ennyire visszamenni es csak saccra lehet megmondani, de nagyjabol megprobalhatjuk.
Ha csak a (fiscal) 2003 evet nezzuk, "~$400M profit in one year from Xbox chips", a teljes 24 millio Xbox eladasbol kb ~8-10millio Xbox ment abban az evben.
Tehat a saccolt profit/konzol chip $40–$50 dollar volt, ami joval magasabb margin mint az AMD $10-12.Ugye ahogy irja is a cikk, a Microsoft egy ido utan ujratargyalta a felteteleket, mert az Nvidianak "tul" magas volt a marginja ezeken.
Ps3-nal mar joval kisebbek a szamok jonnek ki az Nvidia szamara.
"Converted into US dollars, Sony's losses stand at $4.5 billion for the PS3 generation. Microsoft, in contrast, has lost about $2.6 billion."
Ez csak a hardware-re vontakozik, nem teljes uzletagra, ami vegul jol teljesitett nekik (szoftver, jatekok, elofizetes stb)
Illetve Microsoftnal a 2.6milliard dollarbol $1.15 milliard a "red ring of death" javitasokra ment. -
S_x96x_S
addikt
válasz
Yutani
#53319
üzenetére
A jövő az AI -asszisztált chiptervezésé [1] ,
és akkor a customizálás költség-haszon aránya is sokkal jobb lehet.Amúgy a PS5 - kraken-es tömörítés hw-res támogatása egy olyan customizáció, ami látható előnyt adott, főleg amiatt is, mert a szoftveres SDK-ban elég mélyen integrálva volt.
---
[1]
"NVIDIA says AI cuts chip design work from 80 person-months to overnight on one GPU"
https://videocardz.com/newz/nvidia-says-ai-cuts-chip-design-work-from-80-person-months-to-overnight-on-one-gpu"""""
At a broader level, Dally said NVIDIA has been running internal LLMs called Chip Nemo and Bug Nemo. These models were fine-tuned on proprietary NVIDIA material, including RTL and architecture documents for GPUs designed over the years. He said one of the practical gains is that
junior engineers can query the model instead of repeatedly asking senior designers how a specific block works, while the system can also summarize bug reports and help assign them to the right module or engineer. Well, at least one company didn’t get rid of ‘junior’ employees and found a way to teach them more efficiently.
""""Jeff Dean and Bill Dally, Advancing to AI's next Frontier, Nvidia GTC 2026 : https://www.youtube.com/watch?v=joTYgvRHST0
-
PuMbA
titán
Aha
Ez a kezdet volt, amit leírtam, de az tényleg látszik, hogy a partneri viszony egyre jobban elmélyül, lásd Project Amethyst, így a váltást egyre nehezebbé téve. A PS5 Pro GPU-ja is egy speciális RDNA 2/3/4 összvér, ami nem létezik sehol máshol, tehát tényleg teljesen egyedi megoldásokat csinálnak. -
Abu85
HÁZIGAZDA
Azért itt kételkednék. Az AMD nagyon drágán vállalja az Xbox Ope és PS4 óta a konzolbizniszt. Sosem hagytak ennyi pénzt beszállítónál a gyártók. Például az Xbox 360-on az ATi minden eladott Xenos GPU után 3 dollárt kapott, a PS3-nál az NV minden eladott RSX után 2 dollárt. Az NVIDIA azzal nyerte meg a Switch 2-t, mert sokkal olcsóbban vállalta az AMD-nél. A Nintendo ezért váltott.
Ha az áron múlna biztosan nem az AMD szerezné meg ezeket a bizniszeket, mert senki sem vállalja ezt náluk drágábban. Nem véletlen, hogy a konzolok ára most a legmagasabb, és megy felfelé. Egyszerűen egyre drágább az a lapka, amit az AMD tervez és gyárt nekik. Az NV például azért tudja olcsón tartani ezt, mert ők nem is terveznek külön lapkát, egyszerűen egy korábban letervezett terméket adnak el respinnel. Ez több nagységrenddel olcsóbb, és ez a Nintendo előnye, hogy ilyen olcsón tudja adni a Switch konzolokat.
Itt a döntő tényező az lehet, hogy az AMD-nek van egy ilyen részlege, ami direkt semi-custom. Bár költséges a megrendelőnek, de azt kapja, amit megrendel, míg máshol azt kapná, amit felajánlanak neki. Ha mondjuk abban valami nem felel meg, akkor nem fogják áttervezni, viszed vagy nem alapon megy az üzlet. Az AMD konkrétan azt tervezi le, amit kérnek, és Rory Read anno meglátta, hogy ezért a szolgáltatásért a cégek jelentős pénzt hajlandók fizetni, ha átveszik a tervezést és a gyártás kockázatait. De a Sony és a Microsoft akármelyik generációt kihozta volna olcsóbban, ha meglévő PC-s lapkákat kértek volna bele, és nem terveztettek volna egyedit. Látható, hogy milyen olcsón kihozta ezt az NV a Nintendónak.
-
PuMbA
titán
Összegezve tehát, nem véletlenül van azóta is AMD a konzolokban, mert ha NVIDIA-t raknának bele, akkor nem lenne garantált, hogy egyáltalán profitábilisra ki tudnák hozni az egész 7-10 éves életciklust. A Nintendo Switch ezért kivétel, mert egy ősrégi architektúrát persze, hogy olcsón tud adni az NVIDIA.
-
PuMbA
titán
válasz
Busterftw
#53313
üzenetére
Aha, kösz az infókat!
Azt még tegyük hozzá, hogy a PS3 / Xbox 360 érában mind a Sony, mind a Microsoft hatalmas veszteségeket szenvedett, tehát egyértelmű, hogy az AMD volt a megfelelő választás nekik, mert erősen megégették magukat azzal, hogy a csúcskategóriára lőttek:"both Sony and Microsoft wanted to avoid the bloodbath that occurred in 2005-2006. Both companies took three-digit losses on a per-unit basis. Sony's losses were worse than Microsoft's, despite the PS3's higher price tag ($499 and $599 as compared to the Xbox 360's $299 and $399). Going in to the PS3 launch, Sony executives were hilariously arrogant, with print-ready quotes like "The next generation doesn't start until we say it does." When asked about the price, then-CEO Ken Kutaragi memorably declared that the company wanted consumers to think to themselves "I will work more hours to buy one. We want people to feel they want it, irrespective of anything else.""
"From Sony's perspective, a number of the gambles it took on Cell, Blu-ray, and on high-margin Nvidia hardware, simply hadn't paid off."
"Converted into US dollars, Sony's losses stand at $4.5 billion for the PS3 generation. Microsoft, in contrast, has lost about $2.6 billion."
-
DudeHUN
őstag
válasz
S_x96x_S
#53314
üzenetére
Azt se feledjük, hogy a PS3-as chip miatt a Sonyval nem lett az Nvidia kapcsolata a legjobb. Ez belejátszott a PS4 fejlesztésénél a dolgokba (ahogy MS estén is az X360-nál). Nem csak, hogy SoC-ből más nem tudott ilyet. Utána AMD meg CPU fronton is összeszedte magát.
Nvidia Switch-re tanult ezekből. Csak ott meg Nintendo brutál fillérbaszó.Szerintem abban nem kéne vita legyen, hogy ha nincs a konzol szerződés, akkor lehet nem lett volna AMD ebben a formában. És a mostani Sony összeborulás meg az asztali videokártyák szegmensében kulcs. Egyrészt, muszáj fejleszteniük, másrészt van egy technológiai partner.
Most meg aztán tényleg felesleges Nvidiára váltaniuk. A cross-gen kompatibilitás fontos, meg azért már az AMD sincs annyira lemaradva RT és felskálázás esetében sem, CPU fronton még mindig ők a legjobb választás videojátékos hardverhez.
-
S_x96x_S
addikt
válasz
Busterftw
#53313
üzenetére
> Összehasonlításképp az Nvidianak ..
az amd konzol chipek
- bonyolultabbak,
- nagyobb helyet foglalnak,
- fejletebb gyártástechnológián készülnek
és emiatt még alacsony hasszonkulcs mellett is sokkal drágábbak,
mint az nvidia konzolos chipjei. ( Switch, Switch 2 )az egyik közösségi vélemény szerint,
az amd-nek kb 4x annyi bevétele lehet egy ps5 -chipen,
mint az nvidiának egy swich-es chipen.
"Nvidia could be earning $30 - $50 per Switch, while AMD earns $120 - $200 per PS5/PS5 Pro."ha az eladott darabszámokkal felszorzod, akkor az amd-nak
3x - 4x annyi konzolbevétele lehetett mint az nvidiának.Vagyis a te logikád alapján a Microsoft döntése racionálos lehetett,
mert a konzol piac domináns vezetőjét válaszotta.Szerintem az nvidia chipjei extrém korszerűek - de a konzolos piac ezt nem tudja megfizetni, vagyis kevésbé piacképes.
-
Busterftw
nagyúr
Nézd meg a semi-custom számokat és bontsd le az eladott konzolokra.
Ezek operating income számok, nem net profit.
Q2 2013 $18 millió volt az akkori Graphics & Visual szegmens, ebben a dvga, semi custom stb van benne.
Q3 2013 $79 millió, itt már említik az új konzolokat.
Q4 2013 $121 millió, 7 millió eladott konzol év végéig.2014-ben a semi-custom átkerült az Enterprise, Embedded and Semi-Custom szegmensbe, hogy a szar Compute & Graphics részleg (2014 évben $76 millió loss) ne húzza le a számokat.
2014-ben $399 millió volt az operating income, miközben 30 millió konzol ment el ez kb $13-$17 profit.
Csak ugye ebben nem csak a konzol van, hanem pl szerver (enterprise) és ipari (embedded), ahol átlagban sokkal nagyobb a margin mint consumer cuccoknál és például Q3 2014 jelentésben az AMD "double digit" embedded növekedést írt.Tehát a csak konzol chipeken lévő profit inkább $10-12 volt, miközben a SOC analízis $100-110 közé tette az chip árát. Ez peták definíció (~9% margin)
Összehasonlításképp az Nvidianak akkor a GPU-in átlag 30-35% margin volt.
Ha végigvezeted azóta több 100 millió konzolra, talán kapsz jobb számokat, de a felállás és az összkép sokban nem változik.
-
S_x96x_S
addikt
válasz
Busterftw
#53310
üzenetére
> De épp ellenkezőleg, itt a Microsoft nem kért ebből, mert az Nvidianak többet kellene fizetni, mert nem vállalnák el olyan olcsón mint az AMD.
a valós ok, hogy az AMD -nek már megvolt
a többgenerációs apu technológiája az nvidiának meg MÉG nem.Az nvidiának hiába volt jó gpu-ja, hogyha
- a cpu, npu és ezek összeintegrálása egy chip-be hiányzott.
- valamint a korábbi konzolok emulációja se volt olyan egyszerű.Vagyis valószínüleg még drágábban se tudta volna - időben - megoldani a feladatot az nvidia, bármennyire is szerette volna a Microsoft.
Arm alapon: még csak most lesz korszerű - integrált SoC -a az nvidiának ( N1 )
( a MediaTek segítségvel és jelentős csúszással )
X86 alapon : az Intel + NVIDIA integrált RTX GPU-s SoC-ok (Serpent Lake) csak 2028+ után várhatóak ( amúgy is korábban az Intel a saját desigját (x86+Xe) részesítette előnyben a konzolos ajánlataiban )Amúgy az nvidia szerette volna felvásárolni az ARM-et,
de ez nem sikerült. ( pedig azzal a tudással már elég komoly esélye is lehetett volna )--- [ off:
Amúgy ha valaki szerint az nvidia pikk-pakk lefejlesztette volna, az valószínüleg nem ismeri a projektmenedzseres viccet.
![;]](//cdn.rios.hu/dl/s/v1.gif)
- Ha 1 nő 9 hónap alatt hord ki egy gyereket, akkor 9 nő hány hónap alatt hordja ki ? -
PuMbA
titán
válasz
Busterftw
#53309
üzenetére
"A semi-custom bevételekből pedig tisztán látszik, hogy petákért vállalta az AMD."
Hogy látszik tisztán, azaz pontosan mivel hasonlítod? Én annyit látok, hogy az AMD Semi-Custom részleg profitja negyedévente a PS4 / Xbox One konzolok megjelenése után 10 millióról kb. 100 millióra emelkedett (ez előtt a semi-custom a graphics részleghez tartozott, tehát nem volt külön adat, csak a veszteség). Azaz 400 millió dollár profitot hozott évente az AMD-nek a konzolozás.
-
Busterftw
nagyúr
válasz
S_x96x_S
#53305
üzenetére
"Ha ez annyira jó :P , akkor az nvidia miért nem kért ebből ? "
Nem tudom, hol vannak a két cég közötti tárgyalások részletei? De épp ellenkezőleg, itt a Microsoft nem kért ebből, mert az Nvidianak többet kellene fizetni, mert nem vállalnák el olyan olcsón mint az AMD.A számok nem hazudnak, ha a Microsoft a legnagyobb piacot akarja elérni, ahhoz Nvidia kellene, a logika ezt diktálja. Csak azt meg kellene jobban fizetni.
-
Busterftw
nagyúr
Ugyanarról van szó. A csőd közeli állapotban lévő AMD-t a konzol mentette meg és ebből tudtak a Zenre fókuszálni ami végül fordulást hozott.
Nézd meg a forrást, van több is.
Sony Playstation 4 chip helped AMD avoid bankruptcy — exec recounts how 'Jaguar' chips fueled company's historic turnaround"Hatalmas pénzek és profit vándorolt az AMD-hez"
A semi-custom bevételekből pedig tisztán látszik, hogy petákért vállalta az AMD. Nézz utána magad, több száz millió konzol eladása után.
Ilyen formában a hatalmas pénz nem jelent semmit."mert ha valaki nem tud jó terméket csinálni, akkor azt nem veszik meg"
Nem így van. Nincs rossz termék, csak rossz ár.
Nyilván ha az AMD többet kért volna értük, akkor a Sony/Microsoft nézett volna más termék után. -
Busterftw
nagyúr
válasz
Alogonomus
#53299
üzenetére
Nem, a JPR "pcie slotba" tehető kártyákat mér ebben a statisztikában.
Laptopban lévő dedikált gpu-kat nem. -
Abu85
HÁZIGAZDA
A Microsoftot kell követniük. Ahogy fentebb írtam az AMD-nek is kell ehhez hardvert terveznie, nem csak az NV-nek és az Intelnek. Az Xbox nem AMD-s IP-it nem hozhatják át PC-be, ahhoz nekik is kell egy hasonló IP. Tehát nem az AMD-t kell követni, hanem a Microsoft egyedi hardverét. Ez fontos különbség, és látszólag mennek is ebbe az irányba, mert készülnek az új hardverek.
-
S_x96x_S
addikt
válasz
Busterftw
#53295
üzenetére
> A Microsoft így egy API-val lefedheti a piac nagyját, erőforrást spórolna, illetve az Nvidia branding erősítheti az Xboxot is.
Ha ez annyira jó
, akkor az nvidia miért nem kért ebből ? Valószínüleg azért,
mert minden racionális konzolgyártó az emuláció jogát is szeretné,
és az nvidia CUDA emulálási jogának átadásása más ( zsírosabb ) piacokra is kihatna.---
a másik probléma, hogy a Microsoft-ot szoritja a Valve is,
és hiába választ egy drágább full Nvidia megoldást,
hogyha a Valve életben tartja az olcsó Linux-os alternativát
( és még többen térnek át Linux-ra )
"Valve developer makes Linux gaming better on 8GB graphics cards"Úgyhogy a Microsoftnak sokkal nagyobb érdeke füződik
a low-end gaming piachoz, mint az nvidiának.de másképpen:
Az nvidiának fel kellene mutatni olyan dolgot,
amit (technikailag)
nem nem lehet egy 32GB GDDR7 -es RDNA5 -ös konzolon megvalósítani,
és fontos lehet a gaming-nek. -
válasz
Alogonomus
#53301
üzenetére
Hát persze playstation miatt jöttek rá erre hogy ez mekkora biznisz és Intel ez miatt készít VGA-t Nvidia meg CPu-t.
Az Nvidia alapú Tegra már lassan 20 éve létezik, amikor még az AMD közelében sem volt a konzolbiznisznek és Intel pedig a professzionális és AI szegmens miatt lépett a DVGA irányba, IGP-t ezer éve készítenek.
Apróságokkal ne törődj, mint licenszek, X86 stb.. -
PuMbA
titán
Az általad említett "petákért elvállalás" meg az "olcsón lehajolt" az a kategória, amikor egy biszniszen nincs vagy alig van profitod, de itt nem ez történt. Hatalmas pénzek és profit vándorolt az AMD-hez már 2013-ban, ami pedig tényleg megmentette őket és jó alapot szolgált a jövőre
Szeretetcsomagról viszont szó sincs. -
Alogonomus
őstag
Leginkább pedig azért lett AMD, mert az AMD képes volt együtt biztosítani a CPU és a GPU követelményeket is. Az Nvidia vagy az Intel erre nem volt képes, és nem állt szándékukban ilyen irányba jelentős kutatás-fejlesztést megfinanszírozni.
Azóta persze rájöttek, hogy hatalmas lehetőséget szalasztottak el vele, és első körben az Intel is ráfeküdt a GPU kifejlesztésére, meg az Nvidia is a CPU kifejlesztésére. Végül pedig a hírek szerint tavaly ősszel részlegesen össze is bútoroztak, hogy még szorosabban együttműködhessenek az AMD jelentette kockázat kezelése érdekében. -
PuMbA
titán
válasz
Busterftw
#53298
üzenetére
"Az AMD az akkori nagyon rossz pénzügyi helyzetben konkrétan mentőövként elvállalta petákért."
Hol van erről írás? Én csak annyit olvastam, hogy a PS4 üzlet mentette meg az AMD-t a csődhelyzettől, de semmiféle mentőöv dobást nem olvastam, illetve, hogy a pénzügyi helyzet miatt lényegesen alacsonyabb árat adott a Sony-nak
Az üzletben tudomásom szerint nincs mentőöv, mert ha valaki nem tud jó terméket csinálni, akkor azt nem veszik meg. A Sony-nak sem kellett volna az AMD biznisz, ha az AMD nem tud nekik egy megfelelő terméket leszállítani. -
Busterftw
nagyúr
Marhaság. Az AMD az akkori nagyon rossz pénzügyi helyzetben konkrétan mentőövként elvállalta petákért.
Az Nvidia meg nem. Ugyanerrol van szó amit te idéztél, csak a Sony szemszögéből, az AMD olcsóért lehajolt.Az AMD pénzügyi jelentése ezt alátámasztja, nézd meg hogy teljesített a semi-custom szegmens több 10 millió majd 100+ millió konzol után.
-
válasz
Busterftw
#53295
üzenetére
Igazából szerintem nincs azzal gond,hogy az Amd van benne.
Ami zavar az az álmodozás része megint,ami teljesen irreleváns meglátás szerintem, hogy az Intel és Nvidiának követnie kell az AMD-t hardvergyártásban mert az Xbox diktál. Kb mint ha kiszólna a lyuk a gödörből.Az AMD nek kellett utolérnie a másik két gyártót. Intel egyből felismerte,hogy kell dedikált hardver RT hez és kell az ML míg az AMD erőlködött az RX 5- 6000 és 7000 kapcsán hogy ezek felesleges körök nem kell a tensor semmire, Intel és Nvidia meg szépen hozta a hardvert és kiszolgálják az előző gent is pl NTC vel meg jó felskálázással.
Intel amúgy egy értelmes VGA gyártó ,ötvözi az Nvidia és AMD megoldásait.Egyértelmű, hogy a Microsoft célja az hogy a lehető legszélesebb réteget ki tudja szolgálna majd PC-n is a játékosoknak, és ehhez az kell,hogy támogassa az összes gyártót.
PC-n az Intelt és Nvidiát is mert csak az Xboxból éhen fognak halni.
Világosan látszik hogy pl a Cooperative vectors továbbfejlesztése is arról szól hogy még jobban tudjon működni majd PC-n és nem kell hozzá majd 2 év múlva új hardver se Nvidia se Intel részéről. -
PuMbA
titán
válasz
Busterftw
#53295
üzenetére
Nem azért lett AMD, mert petákért vállalta, hanem mert nekik, ebben az esetben a Sony nem tudta volna tartani a konzol árát:
"Sony chose AMD over NVIDIA for the PS4 primarily due to cost, specialized APU capabilities (combining CPU and GPU). AMD provided a more cost-effective, customized, and integrated solution that allowed for better performance-per-dollar, whereas NVIDIA was considered too expensive for a console's $399-$499 price point."
-
Busterftw
nagyúr
válasz
S_x96x_S
#53292
üzenetére
Nem AI-ról van szó, hanem arról a fenti érvről, hogy a Microsoftnak melyik vendor érné meg jobban most, hogy egy API-val akarnak hibrid konzolba/PC-re lőni a hatalmas játékos IP-kkel.
Ez az Nvidia, mert PC-n az userek ~90%-a Nvidia, közös fejlesztésekkel a legtöbb user jól járna, ahogy az Xbox userek is.
A Microsoft így egy API-val lefedheti a piac nagyját, erőforrást spórolna, illetve az Nvidia branding erősítheti az Xboxot is.Hatalmas tévedés az, hogy a Microsoft azért választotta az AMD-t, hogy nagyobb legyen a verseny.
Azért választották, mert az AMD petákért elvállalta anno. -
Busterftw
nagyúr
válasz
Alogonomus
#53291
üzenetére
Nem relevánsak annyira, viszont a JPR-ben ezek a mobil GPU-k nincsenek benne, a fenti számok csak desktop(+workstation etc) kártyákra vonatkoznak.
(ennél a mobil piac sokkal nagyobb, hasonló Nvidia arányokkal)Tehát a fenti 30-40 millió az tisztán Nvidia kártya amit írtam, éves mennyiség.
34 millió Xbox X/S az meg 2020-tól eladott mennyiség.Ha ehhez a dedikált mobil gpu-kat hozzávesszük, akkor a Microsoftnak ennélis nagyobb piacra tudna lőni.
AMD-vel ez így pont a másik véglet, a PC/Mobil piac elenyésző része, miközben a konzol eladások sem voltak túl jók az elmúlt lassan 6 év alatt. -
S_x96x_S
addikt
válasz
Busterftw
#53290
üzenetére
> Nvidia hardver kellene a következő konzolba.
akinek kell, annak ott lesz majd az új "NVIDIA N1 Gaming SoC"
amivel az nvidia beléphet a gaming laptop / kézikonzol piacra.
https://videocardz.com/newz/breaking-nvidia-n1-laptop-motherboard-has-been-pictured-features-128gb-lpddr5x-memory
"NVIDIA is now expected to announce the N1 laptops around Computex in a few weeks. As mentioned, Dell and Lenovo are seemingly confirmed to be working on such laptops, including “Legion” branded gaming systems.
The N1 SoC appears to be similar, if not identical, to the GB10 Blackwell Superchip,..." -
S_x96x_S
addikt
válasz
Busterftw
#53290
üzenetére
> Ezzel az indoklással, hogy a Microsoftnak Xbox a fontos meg hogy az Xbox PC is lesz egy API-val az a gond, hogy Nvidia hardver kellene a következő konzolba.
Ez lenne a logikus lépés ha érdekelné őket az Xbox jövője és a minél nagyobb piac.
Közgazdaságtani 1x1, hogy az ár és az ár-teljesítmény is fontos.
A piacon növekedési lehetőség - csak egy jobb ár-teljesítményű termékkel lehetséges,
és ehhez valamilyen rugalmasság is kell a parnerektől.Vagyis ha mindenki a dobozos nvidiát akarja használni, akkor az olyan függőség, hogy
nem tudod a termékedet jól pozicionálni, nem lesz alternatiád,
és hosszú távon éppen saját érdekeid ellen döntesz, mert egészségtelen függőség alakul ki az nvidiával.-----
Az AI terén is minden nagy cég próbálja a függetlenségét és az alternativákat megőrizni,
mert mindenki érti, hogy nem jó az, hogyha csak az nvidia van mint lehetőség.
"Anthropic expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute" Apr 6, 2026 -
Alogonomus
őstag
válasz
Busterftw
#53290
üzenetére
"Xbox X/S launch (2020) óta kb 34 millió fogyott, PC-n ennyi Nvidia megy el egy év alatt"
Az Xbox-okon viszont valóban modern játékok is futnak utána, míg az Nvidia kártyák közül nagyon kis hányadukat használják majd valóban modern játékok kiszolgálására.
Eleve nem releváns gaming szempontból a rengeteg MX570 és 3050/4050 vagy 3060/4060 mobilverziókkal szerelt laptop, pedig az emlegetett 34 millió jelentős részét azok teszik ki.
Reális összevetésben a 34 millió Xbox X/S ellenében legfeljebb a 3070/4060/5060 szinttől felfelé elhelyezkedő asztali kártyák, valamint a 3080/4080/5080 mobilverziók vehetők számításba. -
Busterftw
nagyúr
Ezzel az indoklással, hogy a Microsoftnak Xbox a fontos meg hogy az Xbox PC is lesz egy API-val az a gond, hogy Nvidia hardver kellene a következő konzolba.
Ez lenne a logikus lépés ha érdekelné őket az Xbox jövője és a minél nagyobb piac.Xbox X/S launch (2020) óta kb 34 millió fogyott, PC-n ennyi Nvidia megy el egy év alatt, ami a PC piac ~90%-a.(2024 ~30 millió, 2025 ~41 millió)
Aztán akkor "egy" API-val lenne hatalmas átfedés.
Csak ugye ahhoz perkálni kellene, az Nvidia nem vállalná el petákért mint az AMD. -
KAMELOT
titán
Van itt sok Nvidia kártya
-
Abu85
HÁZIGAZDA
Az AMD-nek is kell majd dolgoznia, mert az Xboxtól eltérő lesz a PC-s dizájnjuk. Ugye a Semi-Custom részleg az nem csak AMD IP-ket használ, hanem a megrendelő IP-it is, illetve harmadik féltől származókat. Az AMD PC-ben csak saját IP-t használ, vagy olyanokat, amiket licencel, de például a Semi-Custom részleg licenceire nincs rálátása a cégnek, tehát csak akkor tudják meg, hogy az Xbox konkrétan milyen IP-ket használ még a lekért gyári IP-ken kívül, amikor megkapják magát a gépet és a leírását a Microsofttól, hogy a szoftveres csapat elkezdje írni rá a terméktámogatást. Ez ugyan valamivel hamarabb lesz, minthogy az NV és az Intel tudomást szerezzen róla, de kb. fél évet nyernek csak vele, tehát ugyanott lesznek, ahol az NV és az Intel, így az AMD-nek is el kell kezdenie másolni ezeket az IP-ket, amik nem az övék.
Tehát azt felejtsétek el, hogy az AMD rögtön fasza lesz csak attól, mert ők rakják össze az Xbox hardverét, mert ez nem így működik. A Semi-Custom részleg annyira elszeparált, hogy a nem házon belüli IP-kről nincs tudomása annak a részlegnek, ami a PC-s hardvereket készíti. Maximum a szerencsében bízhatnak, hogy jól legózzák össze azt, hogy vajon mit csinálhat a Microsoft és a Semi-Custom részleg, de tudni nem tudnak róla.
Jelen pillanatban a PC-s közeg két meghatározó szereplője a Valve és a Microsoft. Egyszerűen ők azok, akik jelenleg olyan platformokon dolgoznak, amiket te használsz vagy használhatsz. Ezek a SteamOS és a Windows, és ez a két OS uralja a teljes PC-s gaming szektor 99,9%-át. Itt nincs harmadik szereplő, mert a maradék 0,1%-on rengeteg Linux disztribúció osztozik. Az Apple-t még beveheted, de az nagyon nem a gamingről szól a macOS-en, maximum lehet rajta játszani, csak aki komolyan gondolja nem Apple-t vesz erre.A Microsoft a világ legnagyobb kiadója. Nézz utána nyugodtan. Senki nem ad ki náluk több játékot, és senki nem birtokol a piacból nagyobb részt, ha a játékeladásokat nézzük. Tehát igenis fontos, hogy a Microsoft mit akar, mert basszus ők adják ki a legtöbb játékot.
Éppenséggel a Microsoftnak problémát okoz, hogy nagyon sok az eltérő PC-s konfiguráció. Egyszerűen pokolian sok pénz erre egy OS-t fejleszteni, mert az erőforrások nagy részét az köti le, hogy a készülő funkciók minden hardverösszeállításon stabilan működjenek. Csak ez nehéz, és ezért van az, hogy jönnek a frissítések, amik itt-ott ilyen-olyan hibát okoznak, stb. Ez egyre sűrűbb, mert egyre több a hardverösszeállítás, és emiatt egyre több a bug. Ezért van az, hogy a Microsoft az új funkciókat már szakaszosan vezeti be. Előbb a ROG Xbox Ally kapott meg egy csomó dolgot, például az ASD-t, majd később ezt bevezetik a többi gyártóra is, de azt is szakaszosan. A cél most az, hogy az ASD elérhető legyen 2028-ra minden olyan konfiguráción, ami papíron kaphat rá támogatást. És ezt azért csinálja így a Microsoft, hogy a saját dolgukat megkönnyítsék, mert számos újítást fejlesztenek, de egyszerűen nehéz minden gépre kiadni, mert iszonyatosan nagy meló tesztelni mindenre, annyira sok konfiguráció lehetséges. A jövőben is így lesz, és ezért lényeges a Microsoftnak az Xbox PC koncepciója, hogy ami ezt a plecsnit hordozza az megkapja a funkciókat első körben, ahogy a ROG Xbox Ally is megkapta már az ASD-t. Aztán megjön majd PC-re is, végeredményben minden lehetséges konfigurációra 1-2-3 éves távon, szakaszokban. Tehát fontos megérteni, hogy a Microsoft nem akar kibaszni senkivel, de egyszerűen nem győzik erőforrással az összes PC-t támogatni. A Valve-nak sokkal könnyebb dolga van. Idén három gépük lesz, és azokat támogatják a SteamOS-sel. Persze, hogy marha gyorsan fejlesztenek és folyamatosan jönnek az új funkciók, amíg három gépre kell tesztelni, addig ez nem nagy tudomány. Az a durva, amit a Microsoft csinál, hogy több tízezer különféle konfigurációra csinálják ezt. És persze, azt akarná a cég, hogy minden jöjjön azonnal, de nem realitás.
A Microsoft arra törekszik, hogy a saját érdekét kiszolgálja maximálisan. Ha ez az érdek szembe megy az AMD, az NVIDIA és az Intel érdekével, akkor a Microsoft a saját érdekét fogja választani. Ostobaság azt hinni, hogy egy cég egy másik cég érdekét helyezné a sajátja elé.Ha csak az NTC-ről van szó, akkor ott eleve nem is voltak még érdekek, mert a Microsoft felvázolt egy irányt, amiről elmondták a véleményt az érintettek, fejlesztők is, és végül úgy döntöttek, hogy ezeket beépítik, törölve az eredeti koncepciót, hozva a helyére egy jobbat. Ezzel összességében biztos vagyok benne, hogy egyik gyártónak sincs problémája, eleve kimérték már, hogy a mai hardverek alkalmatlanok az NTC-re, tehát itt mindannyian a next-genre dolgoznak.
Az AMD, az Intel és az NV között volt némi különbség a potenciális kutatásokat tekintve. Az AMD ebből az irányból inkább az NRC-t kutatta az NTC helyett. Ezért van az, hogy ők hoznak működő NRC implementációt idén, és az Intel meg az NVIDIA nem. Ezek inkább technikai döntések, hogy mit gondoltak reálisan kivitelezhetőnek. Ezt én nem futtatnám ki olyan szélsőségekre, hogy ki döntött jól vagy rosszul. Sokkal inkább az határozhatta ezt meg, hogy ki mit gondolt olyan technikának, amit bevethetőnek tartott 2026-ra. Aztán mellé lehet lőni, ilyen ez a játék.
-
"ha jó teljesítményt akarnak, akkor el kell kezdeniük úgy tervezni a hardvert, amilyen az Xbox."
. akarod mondani az AMD .Hát igen az AMD generációk óta hozza a kompatibilis megoldásait, még az RDNA2 és 3 is megkap minden támogatást. ja várj, nem... Az AMD a legmegbízhatatlanabb cég a fejlődés szempontjából generációról generációra kapufa, lásd FSR támogatás és kompatibilitás, RT támogatás, bármilyen ML támogatásó eljárás
"két év múlva itt igazából a gamerek fő kérdése az lesz, hogy Steam akármi vagy Xbox akármi, célpiactól függően."
Nem unalmas neked ezt már a 3. konzolgeneráció óta ezt a szürreális álomvilágot felvázolni?
Az új Xbox egy PC lesz dual boot funcióval .Kb7-8 éve felvázoltam itt már ezt az ötletemet.
Nem lesz itt semmiféle opció meg választás, mert rohadt drága a játékfejlesztés és a PC továbbra is az egyik legnagyobb piac az Nvidiával az élén.A Microsoftnak a túélés a tét nem ők diktálnak itt.
Az Xbox élete legrosszabb szakaszát éri meg eladásokban,tulajdonéppen nem ők a meghatározók PC gaming se konzol gaming szemponjából.
A Microsoft nem jár jól ha leszűkűl a piac, hanem rosszul jár.
A jóslataidat általában arra használom fel,hogy tudom hogy a valóság az ellenkezőjét fogja hozni. A Microsft célja az most,hogy piacot kitágítsa és hogy az Xbox áruház és a Windows ne legyen hardeverhez kötve.
A Microsoft arra törekszik hogy az Nvidia és Intel hardvereit maximálisankiszolgálja. Az Nvidia NTC megoldása még jobb támogatást fog kapni mint eddig és Intel sem véletlenül tette az ígéreteit.Nem így működik hogy szerinted az Nvidia és Intel nem tudott róla, hisz felük együtt dolgoznak ezeken a dolgokon.
AMD meg nem mutatot be rá még semmit, majd gondolom valamikor egyszer. -
Abu85
HÁZIGAZDA
Ezt csinálja részben a Valve. És elég jó eredményeket hoznak jelenleg. A Microsoft is igazából erre reagál azzal a változással, amit eszközölnek. Könnyen lehet, hogy két év múlva itt igazából a gamerek fő kérdése az lesz, hogy Steam akármi vagy Xbox akármi, célpiactól függően. Ez a játékosoknak nem lenne annyira rossz, mert a Windows dominanciája megtörne. A PC-s gyártók viszont nem járnának jól vele, mert gyakorlatilag a fő választás nem valamilyen OEM PC lenne, hanem Steam akármi vagy Xbox akármi, és az jelentős piacvesztés lenne számukra. De ezzel a Microsoft valahol jól jár, mert leszűköl a hardverkínálat, így kevesebb rendszerre kell célirányosan fejleszteni a Windowst.
-
Egon
nagyúr
Vagy mondjuk fejlesztenek majd másik grafikus API-t Linuxra, és végre ki lehet majd kukázni a Winfost (most először írom le így a Windows nevét, de már rohadtul elegem van az MS fasságaiból).
A Win11 relatíve lassú terjedése (Win10 EOL-hoz képest) már eleve intő jel kellett volna legyen, de vágják csak maguk alatt a fát, senki nem fog értük könnyet ejteni...
-
DudeHUN
őstag
válasz
S_x96x_S
#53278
üzenetére
"De bárhogy is csinálja, a Microsoftnak figyelni kell a Steam -re,
és olyan XBOX -PC startégia kell, ami nem engedi tovább nőni a Steam-et."
Pls. ne jöjjön össze nekik semmi térnyerés PC fronton. Jó az a Steam uralom (meg GOG is jó csak kicsi). Amíg Gabe bácsi van nekünk az csak jó. -
Abu85
HÁZIGAZDA
válasz
paprobert
#53277
üzenetére
Senki sem mondta, hogy ignorálva lesznek, de a Microsoft innentől egy API-t kínál PC-re és Xboxra. Nyilván az Xbox fog dominálni abból a szempontból, hogy milyen lesz az az adott API. És ez nem kibaszásból csinálja a Microsoft, csak az Xbox a saját terméke, és az fontosabb egy másik cég termékénél. Aztán a program futni fog úgyis a többi cég megoldásán is, de ha jó teljesítményt akarnak, akkor el kell kezdeniük úgy tervezni a hardvert, amilyen az Xbox.
-
KAMELOT
titán
válasz
Heroes fan
#53276
üzenetére
Akkor ott valami gond van a rendszerrel.
-
Busterftw
nagyúr
válasz
Heroes fan
#53276
üzenetére
Nálad lesz valami gond, mert akár Redditen, Steamen vagy YouTube-n nézem, futnak ezek a játékok 2060-en.
-
S_x96x_S
addikt
válasz
paprobert
#53277
üzenetére
> vajon a PC-s piac 85%-a lesz a fejlesztők által ignorálva, vagy az Xbox?
nem hiszem, hogy ezt nulla összegű játékra kellene kisarkitani.
( nyertes vs. vesztes )
a valóságban lassú átmenet lesz az új Micosoft által kijelölt irány felé.
( ami hw-resen nagyrészt az RDNA5/~PS6 irány is )A Microsoft nyilvánvaló célja,
hogy a Steam piacát részben vagy teljesen lenyulja,
vagyis egyszerre kell meghatározni a jövőt
és átcsábítani a steam jelenlegi ügyfeleit. ( a jelenlegi hardveren )
De bárhogy is csinálja, a Microsoftnak figyelni kell a Steam -re,
és olyan XBOX -PC startégia kell, ami nem engedi tovább nőni a Steam-et.---
vagyis a probléma felvetés jó,
csak én nem nulla összegű nézőpontból nézném az egész folyamatot, mert így keretezve a kérdést - eléggé félrevihet a gondolkodásban. -
paprobert
őstag
Ha itt ennyire egy "Xbox vs. minden más PC-s hardvergyártó" típusú kötélhúzás kezdődik, akkor vajon a PC-s piac 85%-a lesz a fejlesztők által ignorálva, vagy az Xbox?
Nem vagyok benne biztos, hogy a megszűnés szélén lévő XBox fogja a minimum spec-et diktálni a játékok hardverigénye szempontjából.

-
Abu85
HÁZIGAZDA
A preview az nem végleges. Jelenleg preview formában van a cooperative vector azzal a kiegészítéssel, hogy a fragmentáció csökkentése érdekében az eredeti specifikációt visszavonták. Ez azt jelenti, hogy sosem hagyja el a preview szintet, vagyis sosem lesz véglegesítve. Annak érdekében, hogy ténylegesen kapjon a piac egy irányt, a GDC-n bejelentették, hogy jön a linear algebra, ami gyakorlatilag ezt az irányt célozza meg sokkal több funkcióval.
Ezért volt nagyon jó a cooperative vector preview kiadása, mert a Microsoft látta, hogy hol vannak hiányosságai, és ahelyett, hogy ezeket direkten javították volna, úgy döntöttek, hogy hoznak egy olyan rendszert, ami a visszajelzéseknek megfelel. Ezzel még nem is veszítettek időt, mert ha a hiányosságokat javítják, akkor sem készült volna el hamarabb a cooperative vector a linear algebra funkciónál. Eleve már kint kellene lennie a véglegesnek, mert eredetileg 25H2-ben jött volna, de annyira sok kritikát kapott, hogy folyamatosan csak foltozták. Nem volt bajuk a fejlesztőknek vele, csak pont azokat a dolgokat nem engedte meg, amikre szükség lett volna. A linear algebra funkciót már ezen visszajelzések szerint készítették. Egyébként az Intel is már erre dolgozik az NTC prezentációjukban, csak linear algebra még nincs, viszont a projekttel ez van megcélozva, mert ez lesz az első használható szabványos felület erre a problémára.
A linera algebra is képes lesz azokra a dolgokra, amikre a cooperative vector képes lett volna, sőt, az a lényeg, hogy még sokkal többre is.
-
Abu85
HÁZIGAZDA
Nem készítik el magát a cooperative vectort az API-ba. Tervezték, de visszavonták, és jelezték, hogy sosem készül el ez a funkció, nem lesz soha a DirectX API része. Helyette később jön a linear algebra, ami jóval többet tud, mint a cooperative vector, de emiatt nem is a mostani hardverekre van szabva.
A gyártók pedig nyilván nem tudnak olyan dolgot támogatni, ami nem kerül be az API-ba, így a cooperative vector zsákutca lett nekik. Mostantól a linear algebra támogatására fognak fókuszálni.
Szerkesztetted:
A Microsoft nem tiltja meg a gyártóknak, hogy készítsenek egy saját grafikus API-t, amiben azt támogatnak, amit akarnak. Ők azt mondták, hogy a cooperative vector nem készül el. Helyette majd később jön a linear algebra. Egyébként ezt tudják támogatni a gyártók, csak a cooperative vector lett kukázva. -
Abu85
HÁZIGAZDA
Nem miattuk zsákutca, a Microsoft törli azt a komponenst, amire azok a technikák építenek. Így döntöttek. Nyilván a megfelelő komponens nélkül nem fogsz semmit sem kihozni, mert hiányozni fognak a függvények az API-ból.
#53269 Egon : A Microsoft döntései mindegyik gyártót érintik, hiszen a Microsoft API-jára írják az implementációt. Ha Microsoft nem hozza az API-ba a függvényeket, akkor implementációt sem lehet rá kiadni. Ebbe felesleges bármiféle vörös dolgot belelátni, mert nem az AMD döntött erről, hanem a Microsoft. Az NV-t sem ócsárolja senki, hiszen eddig úgy volt, hogy lesz cooperative vector, a Microsoft csak egy hónapja jelentette be, hogy úgy döntöttek, hogy végül nem lesz. Nyilván az NV erről nem tehet, hiszen semmi befolyásuk nincs arra, hogy a Microsoft mit lát jónak és mit nem.
A Microsoftra sem érdemes haragudni, ők mostantól közvetlenül versenyeznek a cégekkel, tehát azzal, hogy az új Xbox PC is lesz, alapvetően érdekük az, hogy a DirectX API-t is arra fejlesszék, vagyis nincs már az a függetlenség, hogy az mindenkinek jó legyen.
-
Egon
nagyúr
Az hagyján, de mivel gondolom az új Xboxban sem lesz dVGA, vééégre eljöhet az APU-k aranykora...
Btw az utolsó pár tucat hozzászólást elolvasva azt hittem a vs. topicban vagyunk. Tudnám mit keres itt a vörös szemüveges keménymag: nem elég a vs. topicban és a saját homokozójukban ócsárolni az nV-t, már itt is muszáj?
-
Busterftw
nagyúr
válasz
Heroes fan
#53262
üzenetére
Dehogynem megy, minimumon ahogy a fejlesztők is írták a játék követelményhez.
-
Abu85
HÁZIGAZDA
Oké, ezt tegyük tisztába. Amit az Intel és az NV mutatott be az zsákutca, méghozzá azért, mert azt a technológiát, amit használnak hozzá végül törölte a Microsoft. Ezt a GDC-vel párhuzamosan jelentették be. Tehát bármit is fejlesztettek azon, most már teljesen mindegy, mert sosem adja már ki hozzá a Microsoft azt a komponenst, ami működteti, illetve működtette volna. Helyette egy másik komponens jön, amit az új Xboxra terveznek, és ezt kapják meg PC-n is a gyártók a korábban ígért komponens helyett. A munka egy része ide átmenthető, de nem teljes egészében. Viszont az új komponens sokkal flexibilisebb, sokkal jobban illeszkedik ahhoz a GPU-hoz, ami például lesz az új Xboxban is, viszont jóval kevésbé illeszkedik azokhoz a GPU-khoz, amiket most tudsz vásárolni.
A másik tényező, hogy amiket most látsz ezekről azok proof-of-concept demonstrációk. Nyilván így nem akkora baj, hogy gyakorlatilag halott komponensre építenek, majd átírják őket az új komponensre. Viszont ott is gond lesz abból, hogy a demonstrációk nagyon limitáltak. Egy mai játékban nagyjából 10000 compute pipeline van, tehát az nem jelent sokat, hogy egy demonstráció kb. 100 compute pipeline-nal használhatónak tűnik. Az a kérdés, hogy mi lesz a sebességvesztés 10000 compute pipeline mellett, és ott már nagyon nagy a teljesítményesés a legjobb mai VGA-kon is. Ezért is dobta a Microsoft a cooperative vector képességet, mert nagyon limitált volt a lehetőségeit tekintve, és inkább a mai GPU-khoz igazodott, szemben azzal a GPU-val, amit az új Xboxba szánnak. A linear algebra képesség sokkal jobban illeszkedik azokhoz a GPU-khoz, amelyek most készülnek, de még nincsenek kiadva, viszont amiatt, hogy ez így legyen, jelentős áldozatokat hoznak a mostani hardvereknél, amelyekhez már nem igazán illeszkedik az új funkció. Futni fog rajtuk, de nem éppen hatékonyan, mert arra tervezték a linear algebra képességet, hogy az új Xboxon fusson jól, és minden más lényegtelen. A cooperative vector ugyan limitáltabb volt, de kvázi jól ment a mostani hardvereken, viszont nem igazán futott jól az új Xboxon, valószínűleg ezért is törölték.
Szóval itt azért a Microsoft nagyon ügyködik a háttérben, és már rég nem lehet építeni arra, amit eddig kihoztak, mert azok a demonstrációk olyan rendszeren működnek, amelyet a Microsoft nem fog véglegesíteni, és így nem is lesz az API része. Az is látható, hogy az összes aktuális döntése a Microsoftnak olyan, hogy az új Xboxon van a fókusz. Tök mindegy, hogy az rosszabb a mai hardvereknek, az a lényeg számukra, hogy az új Xboxnak legyen jó. És mivel ez egy PC is lesz, így az API is egységesítve lesz az Xbox és a PC között, tehát nem lesz olyan, hogy van egy csak konzolra szánt mono felület. A konzol is ugyanazt az API-t használja, amit az összes PC, nagyon kevés eltérés lesz a funkciókban, és emiatt a DirectX fejlesztése arra megy, hogy nem a PC-t kell kiszolgálni, hanem az Xboxot, a gyártók pedig igazodhatnak ehhez PC-n, bánja is a Microsoft, hogy mit csinálnak, ők saját maguknak megcsinálják, tehát vásárolni mindenképpen tudsz majd kompatibilis és hatékonyan működő hardvert. -
huskydog17
addikt
"Ez majd ki fog derülni , ha működő játékot látunk erre."
Van működő játék 3 éve: Assassin's Creed Mirage
Az NTC 30%-al csökkentette a játék memóriaétvágyát, miközben a sebesség piszok gyors volt, de ez nem csoda, hiszen az Anvil őrülten jól skálázódik sebességben. Az Anvil motor gigantikus nagy játéktérre van kigyúrva, azaz egy open world motor, viszont ha csökken a játéktér, úgy nő a sebesség.
Nem véletlen fut a Rainbow Six Siege akár 600 fps-el felskálázás nélkül, hiszen ott nagyon kicsi, Counter-Strike szerű zárt pályák vannak, amit az Anvil nevetségesen gyorsan kezel, miközben a látvány és fizika fényévekkel jobb, mint bármely mai modern esport játékban. -
Ezért lehet skálázni az eljárást . A mostani hardverek is alkalmasak erre, Nvidiánál a régi generációk is,Intelnél kétféle lesz, ami külön dedikált hardver elemeken fut és ami a teljesítményt rovására megy. [link] AMD -nél az RX 6000 től felfele ,de 7000+ az ajánlott.
Nem 1/9-ed részére , minta demókban, de 15-25% Vram megakarítás bevállalható kompromisszum lehet bizonyos esetekben. Ez majd ki fog derülni , ha működő játékot látunk erre.
2023 ban az Nvidia mikor bemutatta a dolgot, már akkor az eljárás skálázhatóságáról beszélt.
Redditen egy Unrealos fickó azt írja tesztelik az eljárást , RTX 2 és 3000 szérián nagy a veszteség, nem lesz használható,de 4 és 5000-en nagyon jól működik. -
Abu85
HÁZIGAZDA
válasz
Alogonomus
#53259
üzenetére
Nem. Az AMD kártyái sem jók erre. Itt a legfőbb limit minden hardveren a regiszternyomás. Talán az RDNA 4-nek hasznos lenne itt a dinamikus regiszterallokációja, de az sem jelentene sokat. Valós előnyt az adna, ha NPU csinálná az NTC-t, de NPU egyik GPU-ban sincs - még.
A DirectStorage pedig más miatt sokkal jobb Radeonon. Ott nem az AMD hardvere a jó, hanem az NV működik ellentétesen azzal, amit a DirectStorage igényel. Ezért kapott a DirectStorage 1.4 egy olyan funkciót, hogy a program időnként megszakíthatja a copy-t.
-
Alogonomus
őstag
Ráadásul ha csak úgy univerzálisan használhatóvá tennék minden gyártó korábbi kártyái számára ezt a textúratömörítési módszert, abból leginkább a Direct Storage esetén látottakhoz hasonlóan a dual-issue képességgel rendelkező RDNA 3/4 kártyák profitálhatnának, mert azokban a dual-issue extra számítási potenciálját jellemzően nem használják ki a szoftverek, így a driver szabadon felhasználhatja azt akármire. A felvázolt elméleti esetben például a 100 fps-ből RDNA 3/4 kártyán nem 30 fps lenne, hanem mondjuk 45 fps, ami viszont nagyon nem szolgálná a technológiát megvalósító fél érdekeit.
-
Abu85
HÁZIGAZDA
válasz
Yutani
#53256
üzenetére
Azért ez nem ilyen egyszerű, hogy sztenderd és akkor menni fog. Eleve kell hozzá a DX Linear Algebra. Ez az alapja, amivel egyáltalán működhet, tehát előbb ezt ki kell hozni az API-ba. Aztán ott a teljesítményvesztés problémája. Jelenleg a fejlesztő választhat, hogy vagy a memóriát foglalja le, vagy a sebességet engedi el. Az NTC nincs ingyen, a mai tömörítő algoritmusok azért "ingyenesek", mert van beépített hardver rájuk, tehát a mintavétel úgy tud gyors lenni, hogy eleve tömörített az adat. Az NTC-re nem lehet ilyen fixfunkciós hardvert építeni, tehát ha bevetik ezt így, akkor az lehet, hogy spórol neked 3-4 GB RAM-ot, de a 100 fps-ből 30-at csinál, mert a gyakorlatban, a Microsoft korai, még kooperatív vektorra épülő, ténylegesen játékot szimuláló példáiban az NTC úgy 65-75%-os lassulással dolgozott. Nem véletlen, hogy az új Xbox erre hoz külön egy NPU-t a rendszerbe, hogy ne a GPU-t terhelje a kitömörítés, és úgy már jóval olcsóbb lesz. Tehát ez a technika biztosan része lesz a jövőnek, de a mai hardverek mindegyike alkalmatlan rá az NPU hiányában. Az mindegy, hogy az ALU-kat be tudod fogni, senki sem fog 70%-nyi teljesítményt feláldozni -3 GB-ért.
Kisebb léptékben pedig már a mostani játékok is alkalmaznak NTC-t. Például az Assassin's Creed Mirage minden modern platformon, míg a God of War: Ragnarok a PlayStation 5-ön. De ez specifikus, nem nagy mértékű terhelés, csak nagyok kevés adatot tömörítenek így, ahol ennek nagymértékű előnye van, és ilyen formában a sebességvesztés sem akkora, de például a Mirage esetében azért mérhető. Ezt viszont az Ubisoft kivette a Shadowra, mert fontosabb volt, hogy a CPU-limit ne legyen nagy, mint az, hogy spóroljanak a memóriával.
-
Yutani
nagyúr
Igazából jó ez a technológia, és visszamenőleg is használható akár még az RTX 20x0 kártyákon is, persze kompromisszummal. Viszont a játékok oldalán kell a támogatás, és mivel Microsoft DX standard lesz a technológia, ezért az AMD is támogathatja majd. Bár gondolom jó, ha az RDNA4 képes lesz rá, de nem csodálkozom, ha csak valamelyik jövőbeni generáció.
-
Terek
tag
Jó a buli
rtx 6070 4gb 899$
-
S_x96x_S
addikt
( security, GDDR6, GDDR6X ) https://gddr.fail/
[ "GPU Memory Exploits ; GDDRHammer; GeForge ;
( "Rowhammer characterization of 25 GDDR6 GPUs, including Ampere and Ada 6000 GPUs" )
újságirós értelmezés:
https://arstechnica.com/security/2026/04/new-rowhammer-attacks-give-complete-control-of-machines-running-nvidia-gpus/
New Rowhammer attacks give complete control of machines running Nvidia GPUs
Both GDDRHammer and GeForge hammer GPU memory in ways that compromise the CPU
---
az IOMMU engedélyezése a BIOS-ban - segíthet a védekezésben. -
KAMELOT
titán
Érdekes sztori
-
TESCO-Zsömle
titán
válasz
deathcrow42
#53248
üzenetére
Nem kapsz érte semmit, az AC:Shadows a Yotei-nél is fényévekkel jobb volt, csak az Ubisoft meg a
szomorúszerecsen szamuráj miatt -100 karmával kezdett... De futási teljesítményre és úgy általában grafikára keresztbe-hosszára megette a Yoteit. Aláírom, hogy az utóbbiba egyik-másik beállított képen, ahol a fények is kiadták, lélegzetelállító, de ha rendesen toltad a felfedezést, akkor lépten-nyomon belefutottál helyekbe, ahol konkrétan PS3-as grafika van. AC-ban ilyen nem volt. -
X2N
őstag
válasz
DudeHUN
#53245
üzenetére
Neked ezek közül melyik az a játék amit végigjátszottad és azt gondolod hogy ettől nem lehet jobbat csinálni, ez volt a legjobb játék amivel valaha játszottál, és úgy voltál vele hogy semmi más nem ilyen jó, és inkább újra végigjátszod ezt? Nálam a Witcher 3, azóta se találtam jobbat, ha végigjátszotta valaki mert szereti a hasonló játékokat szerintem tudja miről beszélek. Persze van pár kedvenc még:
Roller Coaster Tycoon, Starcraft, Age of Empires, Dungeon Siege, Mafia, Max Payne 1-2, MoH, COD2, COD4, BF2, CS Source, Skyrim, Mass Effect2, HL2, Far Cry 3, Assassins Creed 2, Stalker sorozat, Control, Project Zomboid, Factorio, Rimworld, Simcity 4, Tropico
A dínópark meg középkori faluépítős játékok annyira nem érdekelnek. Vártam a Cities Skylines 2-t de az is bukta lett, most egy másik fejlesztőcsapat elkezdte patchelgetni, így kiadás utána több évvel, talán majd lesz belőle valami értelmes, addig meg ott van az előző rész. De az első rész se egy Simcity 4 lássuk be.
Stalker 2 szintén bukott, éveket csúsztatták, most az 1.8-as patchnél tartanak, majd talán 2.0-ra benne lesz az amit tudott az előz rész "alapból". Nagyon sok AAA játék bukott vagy nem lett annyira jó mint azt ígérték az utóbbi években ami engem érdekelt volna és amúgy is vártam már évek óta, ezen az AI-se segített a fejlesztőknek hiába volt elérhető mindenkinek.
Nekem teljesen jó az ha előveszem valamelyik régi játékot újra, azok jobbak voltak, és nem csak a nosztalgia miatt, ezeknek nem kellett 1-2 patch hogy jó legyen.. Sajnos a mai játékok nálam nehezen rúgnak labdába ezek mellett. Amiket írsz azok közül egyedül a Space Marine 2-ment nagyobbat AAA téren arról én is hallottam eleget, de a Warhammer40k világa nekem kimaradt teljesen valami miatt.

-
-
DudeHUN
őstag
válasz
deathcrow42
#53246
üzenetére
Én kártyához kaptam. Nem szokásom az első pár hónapban amikor kijön valami megvenni. Később olcsóbban úgyis jobb verziót kap az ember.
Ennek is kell 1-2 patch. De nem rossz. Kategóriákkal jobb, mint az UBI próbálkozásai imho. -
-
DudeHUN
őstag
Rengeteg jó játék van. Nem feltétlenül AAA. De van.
Space Marine 2, új BF amúgy jó lett nagyon, Farthest Frontier, Jurrasic World Evo 3, Prehistoric Kingdom, Endzone 2, Manor Lords, Aliens Dark Decent, Robocop, stb... csak így az 1-2 évből.
A legtöbbhöz egy PS5 szintű hardver teljesen elég is.
Meg amúgy ez a Crimson Desert sem lett rossz. Nem egy 10/10 vagy 9/10-es játék. De a rossztól messze van. -
X2N
őstag
válasz
BigBear
#53241
üzenetére
Szerintem te nem érted miről van itt szó. Elveszítették a játékok 90%-át pár hónap alatt, érted?
Azokat akiknek a következő kiegészítőket, lootboxokat, season pass-t, meg az anyámkínját is el lehetett volna adni, és a fejlesztés árát sokszorosan visszahozni.Már ha működött volna normálisan a játék. De olvasva a Steam-en a review-eket még ezt se sikerült összehozni, pedig a sokadik Battlefield.
Más stúdiók kisebb összegekből készítenek jó multis játékokat amiket évekig, évtizedekig lehet pörgetni mert a játék jó, vannak fizető vásárlók, és a játék is folyamatosn kapja a frissítéseket.
Ezek soksorosan hozzák vissza a befektetett fejlesztés költségét, ha jól csinálják.De mint látjuk az EA-nek bőven elég az ha behúz 750ezer játékos-t az első hónapban. Majd kirúgja a fejlesztők felét is költségcsökkentés címen, mert megtartani már nem akarja őket, ahogy a játékosokat se, így viszont senki nem fogja megvenni a játékot később.
A következő Battlefield-re majd ugyanígy be lehet szerinted húzni a népet? Szerintem nem. Engem mint játékost már a BF3 után elveszítettek évtizedekkel előtt, azt még aktívan toltam, minden egyes részt.
-
BigBear
senior tag
Te tényleg szeretsz hülyét csinálni magadból.
Avagy tátott szájjal a f...erdőbe.
Szerinted mennyire érdekli a kiadót, hogy a játékát akár pár hónap elteltével elkezdik elhagyni a játékosok?
Látszik, hogy képtelen vagy üzleti szemmel nézni az iparágra. Mennyit is termel a TF2?
A BF6 a kiadását követő néhány napban(!!!) behozta a brutális, 400 millió dollár környéki fejlesztési költségét. Azóta termelt a kiadónak több, mint 1 milliárd dollár hasznot. Szerinted mennyire érdekli őket, hogy esetleg csökken az érdeklődés? Ettől még éveket fog kihúzni és minden cent nettó haszon. Már jön a BF7, ahogy jönnek dögivel az új EA címek folyamatosan. Lesz bukta is, igen. De amíg ilyen számokat látnak a kiadónál, menni fog a szekér.Szerk: miről is beszélsz megint? Pénzt kell termelni? Hogy is állnak a számok AMD vs NV téren játékosoknál? Melyik is képtelen évek óta feljebb tornászni a számokat? Melyik szalad a másik után?

-
X2N
őstag
válasz
KAMELOT
#53238
üzenetére
Kíváncsi lennék meddig menne stabilan egy 14900KS egy 5.8GHz P-Cores, 4.6 GHz on the E-Cores OC-val úgy hogy 450W-ot vesz fel és 0-24-be tolom rajta a blendert. Szerintem nem sokáig, gyárilag is eléri a 100fokot.
Az a baj hogy így is alig gyorsabb mint a 7950X és közel 4x annyit fogyaszt.
Nem arcokat kell generálni az ai-al, hanem pénzt termelni. Ennyi. Nem tom mit vergődik Jensen a DLSS5-el, ennyire nincs kihasználásuk a szerverekre? Már kell a játékosok pénze is mert elfogyott a befektetőké? Azt hittem megy a szekér...
-
X2N
őstag
BF6 is a masterclass in player manipulation. EA delivered the best-selling game of 2025, raked in $3 billion, and then immediately rewarded the developers at DICE and Criterion with mass layoffs.
Kis érdekesség. Jön az AI.KAMELOT- Számít a méret, állítólag.

Bizony komoly arcok vannak a Valley-ben, a farmnak nőnie kell.
Mennyivel jobb az ha azt mondom hogy a lassan 20 éves Team Fortres 2-vel is annyian játszanak jelenleg is mint a BF6-al? Valve mit tud amit az EA nem? -
KAMELOT
titán
Lehet szerinted marhaság, de érdemes tartani a lépést a fejlődéssel!
GB200 teljesítménye 2700W akkor azok is leégtek???
Mennyi van egy AI központban?
Xeon 6980P 500W vagy 14900KS a közel 400W fogyival is leégett?Stardew Valley....komoly emberek lehetnek akik ilyennel játszanak!
Bigbear: +1 AI már mindenhol kell és szükséges!
-
X2N
őstag
-
BigBear
senior tag
Te kevere a szezont a fa...mal.
Vagy trollkodsz, vagy nem is érted, miről írunk itt. Mi köze a Mona Lisának, a Gyűrűk urának, vagy bármelyik hasonló műnek az AI-hoz?
Homokba dughatod a fejed, ez téged minősít legfeljebb.
De megnyugodhatsz, ha a kiadó szorongatja a mogyidat, használni fogod az AI-t. Mert vagy használod, vagy repülsz, mert lassú vagy. De elmondom - ahogy feljebb is említettem - nem csak szoftverfejlesztésben kell az AI.
A kiadó / munkáltató meg nem jótékonysági intézmény. Jó-e, hogy félkész, optimalizálatlan szoftverek kerülnek piacra? Dehogy jó, legalábbis a usernek nem jó. Csakhogy mivel így is veszik a programokat, nem számít. A részvényes meg a tulajdonos hasznot akar, az ember drága, ezért amennyire csak lehet, pótolja mással. A más jelenleg pedig az AI. Magasról tesznek arra, hogy neked tetszik-e az eredmény vagy sem. Ontják az AAA címeket (igen, a BF is az). Ezt meg, hogy bukta, ne nagyon hangoztasd mert csak körberöhögteted magad. 2025 végéig több, mint 20 millió eladott példánnyal brutális siker a játék. Bukta, az...
-
X2N
őstag
Mégse azt látom hogy készülnének a jobbnál jobb AAA-s játékok. Ubisoft-ot nemrég vásárolta fel a Tencent bagóért, és jelenleg mindenki jóformán a túlélésre játszik. Idén milyen értelmes AAA játék fog megjelenni a Tomb Raideren kívül? GTA6? Az úgyis csúszik jövőre vagy kitudja mikorra. PC-re meg kitudja mikor-jön, én konzolt azért nem fogok venni. A Resident Evil most nagyot ment, de az nem kifejezetten érdekel. A Stalker 2 bukta volt, Concord bukta, Battlefield 6 bukta(multis, már eleve nem érdekel a sok csaló miatt), Skull & Bones bukta, SW Outlaws bukta, Starfield bukta, Monster Hunter Wilds optimalizáció bukta...és most így csak ezek jutottak eszembe de biztos van még. Egy indi izometrikus hardcore zombis szimulációs játékkal játszom 1.5-2 éve mert nem képes senki letenni az asztalra egy normális Cyberpunk2077 kaliberű játékot, pedig lenne gép ami futtassa, de lehet az lesz a megoldás hogy megint előveszem a Witcher3-at és végigjátszom ötödjére, mint a CP2077-t is, vagy a Stalker Gamma/Anomaly-t.

-
X2N
őstag
válasz
BigBear
#53229
üzenetére
Leonardo da Vinci Mona Lisa-t ~16 évig festette, Tolien a Gyűrűk Ura-t ~12 évig írta.
Linus Torvalds 91-óta fejleszti a linuxot. Ők akkor a te felfogésod szerint nem hatékonyak?
Ők kimaradtak, lemaradtak? Festmény, könyv, szoftver van rengeteg, a te munkád is van ilyen jó, csak mert gyorsan elkészült AI-al és "átnézted"?
Mennyivel lenne jobb az ha 2 nap alatt lefejlesztenék gyorsba valamit az AI-al, mintha szépen magam leülnék és megírnám, életem végéig fejleszteném?Én nem akarom hogy az ai élő dolgokat generáljon. Azt Jensen akarja.
-
BigBear
senior tag
Csakhogy nem biztos, hogy amit te hatékonynak nevezel, az valóban az. Sajnos vagy sem, az AI itt van es egyre több helyre fog bekúszni, így a kódolásba is. Elhiszem, hogy te úgy gondolod, hogy az adott kódot ha elkeszíted 2 nap alatt az jó, csakhogy már most ott tartunk, hogy egyes kódsorokat, részleteket percek - másodpercek alatt készít el a másik ember AI segítségével. Aki kimarad, az bizony lemarad. Az élet legegyszerűbb területein is segítség, munkában mindenképpen. Miért készítsem el századszorra is kb. ugyanazt a táblázatot/szöveget/számítást/és kódsort(!), ha ott az AI amivel tenyleg pár utasítással kesz leszek, legfeljebb átfutom, hogy rendben van-e.
De már annyira specifikus dolgokra is képes, mint a 3D tervezés - statika meggyorsítása. Nincsenek kétségeim, hogy kellő számú minta es számítási kapacitás bővülés után - azaz relatív a közeljövőben simán képes lesz a valóditól megkülönböztethetetlen emberi arcok kreálására is, amire annyira vágysz. -
X2N
őstag
válasz
S_x96x_S
#53227
üzenetére
Tudok ai nélkül hatékony lenni mert már kialakult a workflow. Ha be kell emelnem még az ai-t is az változtat ezen, csak bonyolítja feleslegesen a dolgokat. Amit szeretnék most is megtudom e nélkül csinálni. Azért mert valamit lehet nem biztos hogy kell is használni.
Milyen játékot lehet összedobni 2-3 hét alatt? Nem vagyok fejlesztő.
3D Game engine-t is írsz hozzá 2-3 hét alatt? Rust-ban jó lenne összehozni egy izometrikus 3D-s Project Zomboid játékot, raytracingel, ilyen terveim vannak.
Azt a játékot 11 éve készítik és még mindig early access, van benne lassan 900 órám.![;]](//cdn.rios.hu/dl/s/v1.gif)
Ennyi idő alatt nem sikerült megoldani a fejlesztőknek azt se hogy szimpla árnyékok legyenek a játékba:

-
S_x96x_S
addikt
> De aki programozóként hosszútávon azzal programoztat az szerintem nem is követhetne el nagyobb hibát. Mert ha eleve nem szeretsz problémákat megoldani, optimalizálni, hibát keresni, és egy géppel akarod megoldani az egészet, akkor egyáltalán minek "imitálod a programozást"?
Valószínüleg teljesen eltérő a programozásról alkotott képünk.
Nekem az AI használata a programozásban
- csak egy magasabb absztrakciós szint.
- tervezési társ
- tanulási buddyÉn már régen nem hexa kódokban adom meg az utasításokat,
és bár az assembler egy magasabb absztrakciós szint,
a "c" / pascal / java / golang / typescrypt még magasabb
De egy részletes rendszerterv + program specifikáció ennél is magasabb - amit fel kell darabolni és 5-10 ágens majd lekódolja.Amúgy AI-val is megmarad
a hibakeresési és optimalizálási feladat csak egy kicsit másképp.
Teljesen más a folyamat és sok mindent újra kell tanulni.Sajnos teljesen más a hobby és a professzionális programozás.
a valóság hogy az ügyfél elvárása diktál
( aki fizet a programozásért )
és őt egyáltalán nem érdekli,
hogy én közben élvezem-e a munkát. Az az én problémám.
És ha én nem oldom meg 1-2 hét alatt a problémát ( AI -val vagy anélkül - kisebb költséggel és magasabb minőséggel )
akkor megoldja valaki más és én munka nélkül maradok.Szóval lehet kivülről moralizálni,
de a gazdasági realitás az élet minden területém az,
hogyha valaki nem lesz hatékonyabb,
akkor nem lesz munkája.És ha te AI-nélkül hatékony tudsz lenni - akkor szerencsés vagy.
És az AI trend a játékfejlesztésre is igaz.
Ha indy fejlesztő vagy, akkor 2-3 hét alatt AI-vak össze tudsz dobni egy játékot - vagyis a tudáshiány a kreativitásnak kevésbé szab határt.
-
X2N
őstag
válasz
S_x96x_S
#53225
üzenetére
Az a baj az ai-al hogy a kreatív dolgoknál(mint a művészet is), ahol fontos a végeredmény,(mert kell az hogy ember készítse, aki tudja hogy kellene kinéznie, mint egy emberi arcnak) pont a kreatív részét veszi el a dolgoknak, a tényleges cselekvést. Tehát nem te valósítod meg amit eleve szeretnél, hanem megmondod neki mit csináljon, ő meg egy véges dataset-ből ami general képeken lett trénelve(más munkájából)alkot valamit, de biztos nem azt amit te akarsz, mert lesznek olyan dolgok amiket ő nem tud megcsinálni a véges adatmennyiség miatt ami benne van a modellben.
Amikor meg lepromptolod neki mit is szeretnél az kb. olyan mintha egy lovat akarnák megtanítani zongorázni. Nem szórakoztató, inkább frusztráló, és időpazarlás ha te is megtudnád egyébként is csinálni, mert megbízol a képességeidben. Ha elmondod 10 3D-artist-nak hogy rajzoljanak neked egy almát, akkor fogsz 10 különböző alma képet kapni. Egyik se lesz pontosan ugyanaz, még ha nekiállsz a végtelenségig pontosítani hogy milyen megvilágítással, színekkel, akkor se. Viszont 10-ből 10 ember a saját elképzelését valósította meg, nem a tiedet.
Egy számológép csak megyorsítja a munkámat, de nem fogja befolyásolni a végeredményt, mert ugyanúgy kitudom számolni papíron is. A végeredmény ugyanaz, akárhányszor számolod ki, ez még a Raytracing/Path tracing esetében is így lesz ha hagyod elég ideig futni.
Lehet arra használni az ai-t értelmesen is hogy egy repetatív, teljesen felesleges, és amúgy sem annyira fontos, de időpazarló munkát, megcsináljak azzal hogy programoztatok vele egy scriptet, ami 2000+fát meg más vegetációt random lerak a Far Cry térképre, erre jó.
De aki programozóként hosszútávon azzal programoztat az szerintem nem is követhetne el nagyobb hibát. Mert ha eleve nem szeretsz problémákat megoldani, optimalizálni, hibát keresni, és egy géppel akarod megoldani az egészet, akkor egyáltalán minek "imitálod a programozást"? -
S_x96x_S
addikt
> Szerintem rendre azok használnak AI-toolokat akiket csak a végeredmény érdekel, de nem akarnak belefektetni igazán energiát abba hogy ők jobbak is legyenek valamiben. Mint a multis játékokban a cheat.
kezdünk átmenni egy anti-AI vitába,
Szerintem nem lehet ennyire általánosítani.
Lehet etikusan és etikátlanul is használni az AI-t.
Az AI -tool számomra olyan mint egy segítő eszköz, ami jól felhasználva hatékonyabbá tesz.
Olyan mint a fizikai munkagépek.
Bár lehetne csupa izommal is dolgozni
( ami megfeleltethető a te általad elvárt "energiabefektetésnek" )
de ez nem zárja ki, hogy mellette eljárj az edzőterembe gyurni
és súlyokat emelni és fejleszd a testedet.Az AI-Tool használata se zárja ki, hogy önképezzük magunkat,
de azt se, hogy az AI-t tanulásra használjuk.Az más kérdés, hogy az emberek nagy része ellustúl
és csak kis része használja tudatosan az edzőtermet és az ai-t oktatásra.Vagyis ugyanilyen logikával szidhatod a tömegközlekedést és az autókat is.
Amúgy vannak korrekt és meggyőző AI kritikus érvek,
de amit te felhoztál az kevésbé tartozik ide.Használsz számológépet ?
Ha igen, akkor te se fektetsz be elég energiát, hogy jobb legyél a számolásban. És miért lenne más az AI ?( persze más, de akkor jobban is kell érvelni ! )
-
X2N
őstag
válasz
Busterftw
#53223
üzenetére
Az engem is jobban érdekelt volna, nagyon a karakterekre volt kihegyezve a bemutató.
Egy ilyen technológiával akár meg lehetne azt is csinálni hogy egyszerűbb, jóval alacsonyabb felbontású textúrákat lehessen használni, majd az ai azt alapul véve felskálázza, ráteszi a környezeti modellekre, ismétlődés nélkül, mindenféle plusz részlettel, több rétegben,adott esetben az idő elteltével lehetne az is hogy generál rá plusz vegetációt, tökéletlenségeket, meg ilyesmik.
Generáljanak élethűbb világokat vele, az npc-knek legyenek saját ai modelleik amikkel lehessen beszélgetni, legyen a játékon belül egy vagy több game engine "ai director" ami tudatában van a világának és a saját belátása szerint generál dinamikusan eseményeket, konfliktusokat, meg hasonló dolgok, ne csak egy statikus világ legyen a világ. Skyrimben volt erre már példa a radiant küldikkel, Far Cry-ba generáltak ezzel teljesen élethű világokat, vegetációt. Starfield-ben láttuk hogy nem szabad használni ezt, mindig kell az emberi beavatkozás még generálásnál is. Starfield-nél már a koncepció is rossz volt, nem véletlen lett bukta, el se kellett volna kezdeni fejleszteni a játékot. Annyi minden másra lehetne ezeket a toolokat használni a grafikán kívül is. -
X2N
őstag
válasz
S_x96x_S
#53221
üzenetére
Mert szánalmasnak tartom a végeredményt/befektetett energiát, ezért inkább csinálom én "kézzel" 3D renderelve, mert még az is gyorsabbnak tűnik alkotás közben, mint amikor magyarázod az ai-nak hogy mit akarsz, hogy utána úgyse azt csinálja, még a sokadik iteráció után se, amit én akarok, plusz sokat kell várakozni mire generál. Ez frusztráló.
Mindenki nagyon specifikus ha erről van szó(már ha érdekli), hogy nézzen ki az adott setting, a karakterek, hogy legyen megvilágítva a jelenet, a karakterek, a színvilág, az AI nem fogja soha kitalálni mit akarsz.Ugyanennyi idő alatt meg lehet jól is csinálni 3D-vel és akkor olyan is lesz a végeredmény, nem generic, ai kinézet. A készítés folyamatát szeretem, nem csak azért csinálom hogy kész legyen. Szerintem rendre azok használnak AI-toolokat akiket csak a végeredmény érdekel, de nem akarnak belefektetni igazán energiát abba hogy ők jobbak is legyenek valamiben. Mint a multis játékokban a cheat.
Ettől függetlenül is piszkosul nehéz fotoreális grafikát csinálni de lehetséges, én már annyira nem kergetem ezt, elég nekem ha számomra jól néz ki 3D-sen is, szerintem így is sokkal jobb rendereket tudok csinálni mint a nagy átlag, ezzel a programmal. Látom a 3D render engine/saját korlátaimat is, váltanom kellene, mert amit most használok már régi(Iray), körülményes használni, az a baj hogy amire váltanák(Houdini/Blender), az megint olyan hogy évekig lehet majd tanulni, most inkább ezt a projectet szeretném befejezni már, amit ebben elkezdtem, nem azon szorongani hogy tudom átvinni a másik programba amit nem ismerek még annyira jól, és amúgy se biztos hogy a 24GB-os vga-t tudnám használni benne renderelésre(komplex jelenetek), pedig az lenne igazán előny.
-
S_x96x_S
addikt
> Várom már az első teljes egészében AI-által írt, és leforgatott filmet.
miért nem csinálsz te is ?
------
amúgy :
1.)
"Chinese AI studios are now creating full TV show series using Seedance 2." https://x.com/markgadala/status/20310112315285181362.)
HORIZON 2080: Humanity’s Last Hope | 2025 Full Sci-Fi Movie | Cinematic Future Epic
https://www.youtube.com/watch?v=L1fiDe0movc3.)
"Marked or Delivered | First Ever AI Full Length Feature Film In History!!" https://www.youtube.com/watch?v=_8mAjctZs1k -
X2N
őstag
válasz
KAMELOT
#53219
üzenetére
Várom már az első teljes egészében AI-által írt, és leforgatott filmet. Biztos nagyon eredeti lesz. Beülünk majd a moziba megnézni.
b. Starfield előtt én is értetlenül állok hiszen egy többszörösen díjnyertes stúdióról van szó, aki kvázi etalon volt 10+ éve az open world játékok terén, és mégsem sikerült elég tehetséges programozót, karakter artist-ot felvenni(a régiek már elmentek), Starfield-el ugyan nem játszottam sokat, (~2 óra) de az alapján rendesen visszalépés, még a 10 évvel előtti Fallout4-hez képest is, open world téren. Hangulatot nyomokban sem találtam benne, a képet nagyon erősen lerontották post process filterekkel, az npc-k pedig még rosszabbak mint valaha, nem csak kinézetben, de butábbnak is tűnik az ai. TES6-al nem tudom mi lesz így, én már elengedtem. Ilyen vezetéssel(Todd Howard/Microsoft), esélytelen.
A Hogwarts-ot is próbáltam, még az is jobbnak tűnt mint a Starfield, pedig azt egy teljesen kezdő csapat készítette, nem tudom kritizálni mert nem realisztikus karakter dizájn volt a cél és első komolyabb játéka annak a stúdiónak. Már az első 1,5 óra alatt látszott az átvezetők alapján hogy jó lesz.
-
KAMELOT
titán
Nincs itt semmi gond az AI progival!
-
Reszben egyetertek.Ami engem zavar,hogy most a DLSS5 eseteben fullra fel van ertekelve az hogy altalaban milyen szar karakterabrazolassal keszul el sok felkesz jatek.Lasd Starfield, de emlithetnem Hogwart L.-t is.
Ezzel nem azt mondom ,hogy ezt AI csinalja,hanem azt,hogy jó lenne ha a mostani esemenyek fenyeben a kiadók is összekapnák magukat. -
X2N
őstag
Az is baj hogy pont az arcokkal kezdtek el szórakozni, azt szúrja ki legkönnyebben az ember, csak az agy egy része évezredek óta az emberi arcok felismerésére lett "trénelve", bármilyen természetellenes eltérést rögtönk kiszúr mindenki. Az AI igazából még hihető szemeket sem tud gyártani nem hogy egy teljes arcot, arc mimikát. Ezt még a 3D-artistok is évekig tanulják, hogy lehet élethű arcot készíteni. Az AI pedig különböző kamerákon, színprofilokkal, lencserendszereken keresztül, torzításokkal, mesterségesen bevilágítva, retusálva látja az arcokat, ezért nem is lesz soha "élethű" a végeredmény, rossz datasettel lett trénelve eleve.
-
X2N
őstag
válasz
deathcrow42
#53214
üzenetére
Ez a modell problémája hogy nem tud konzisztens maradni. Innentől kezdve már csak az a kérdés mennyire rossz minőséget lehet letolni az emberek torkán, a multi frame generation-t még le lehetett, amiben minden valós képkockára jutott 3 fake, ott volt valahol a határ. A folyamatos fake frame már kiveri a biztosítékot. A Starfieldnél is RT nélkül futott, szerintem nem ezen múlik hogy raszterizált vagy eleve RT-s képpel eteted a modellt.
De várom a Minecraft/Borderlands-os példát az nvidia részéről:
-
Erről az addonról a generatív AI első pár éve jutott az eszembe, ahol egy másodperc 24 képkockájában 6x változott valaminek a színe.
Pont ez volt a lényege Danika és Ian beszélgetésének, hogy vagy ilyen shader szerűség post processben, vagy már a rendernél beleszól, de még nem tudják 100%-ra meg mondani. Lesz-e jelentős különbség RT és RT nélküli (józan ésszel ott egy shader ML alappal feltételeznék) játékban ennél a dlss-nél?
-
Abu85
HÁZIGAZDA
válasz
deathcrow42
#53191
üzenetére
El se ment... mGPU van helyette, mert a DirectX 12 és a Vulkan API nem támogatja a régi módokat. Viszont minden programba írható egyedi multi-GPU támogatás, tehát akár ugyanaz a mód is, amit a Crossfire és az SLI adott. Ezt most is támogatja minden hardver, tehát nem az van, hogy a gyártók nem adnak erre lehetőséget. A fejlesztők nem használják ki.
-
X2N
őstag
If u needed any more proof of how lazy and literally sloppy it is what Nvidia praised as such an huge achivement, here is a single reshade shader/addon developer who made this in a short time (3 days). of course it runs way slower and all, but in a sense, it is what NV tries to sell us as the NEXT GEN LEAP in GFX instead of coming up with a real advancement.
for the nerd´s, here are teh HW specs on which this ran:4090 and processing with a dedicated 5090 on runpod, with nvfp4 and sageattention3.
Inference was twice as fast than locally with my GPU, but the latency increased about 250ms annihilating the purpose of using runpod, at least for the realtime goal, but it was worth for larger resolution / step count and show benefits. -
X2N
őstag
-
S_x96x_S
addikt
végre elég VRAM.
"NVIDIA DGX Station Systems Available At Last GB300 and GB200 Workstations For Your Desktop"
https://www.servethehome.com/nvidia-dgx-station-systems-available-at-last-gb300-gb200-workstations-for-your-desktop/ -
lenox
veterán
válasz
Komplikato
#53207
üzenetére
Az csak quadron volt, geforce-on max harmada, tehat 2 link, 100 GB/sec ketiranyban.
-
X2N
őstag
válasz
Komplikato
#53207
üzenetére
GB/s
-
X2N
őstag
NVIDIA DLSS 5 Gets 84% Dislikes on YouTube as Backlash Grows
Akinek valamiért nem szimpatikus az eredeti kinézet vagy már második végigjátszásra mást szeretne az majd letölti amit szeretne.
-
Mennyi sávszél kellene összesen? 64GB/s lenne így a két kártyának egymás közti kommunikációra és a vga feladatokra is. Lehet kevés lesz.
Szerver szinten a két Blackwell chip összekötve egy nyákon az Nvidia szerint 900GB/s sebesség körül történik. (amikor a bőrkabátos még 2024-ben azt mondta, hogy két chipet egyként látja a külső rendszer, medzsik), míg az 5090 önmagában kb 1.8 TB/s memória sávszéllel rendelkezik, az 5080-nak 1TB körül, 4090-nek is kb .1TB/s a sávszéle a belső memóriákhoz.
Ahhoz képest lehet az a 64GB/s kevésnek hangzik, hogy a két kártya normálisan tudjon együttműködni. -
válasz
Komplikato
#53198
üzenetére
De PCIE5.0 esetében mehet alapból a dual GPU megoldás nem?
2XPCIE5.0 x8 = 2xPCIE4.0x16?
meg vannak a workstation/ lapok procik ott van elég sávszél is. -
KAMELOT
titán
válasz
Komplikato
#53198
üzenetére
Nvlink kicsit másképp működik és sokkalta több lehetőséget kínál!
-
Busterftw
nagyúr
"Mit fejleszettek az RT-n?"
Játékban ilyen formában? Nem nagyon volt.
Azóta meg ég és föld a különbség."Ezt mondták ők is. Most még 2 5090-es kellett neki a bemutatón, 1 kártyán fog futni, ez lesz a cél. Digital Foundry bemutatóból nem rémlik?"
De rémlik, sehol nem mondták, de főleg nem az Nvidia, hogy 1 rtx 5090 a cél és csak azon fog menni.
A DF találgatta, hogy 4K-ra valószínűleg 5090 kellhet, a többi kártyán pedig alacsonyabb felbontáson mehet a DLSS 5, mert konkrét infó nincsen Nvidiatol.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- HP ProDesk 600 G3 Mini,i5-7500T,8GB DDR4,256GB SSD,WIN11
- 235 - Lenovo Legion Pro 7 (16IRX9H) - Intel Core i9-14900HX, RTX 4090
- 241 - Lenovo Legion 5 (15IRX10) - Intel Core i7-13650HX, RTX 5060
- HIBÁTLAN iPhone 14 128GB Starlight-1 ÉV GARANCIA - Kártyafüggetlen, MS4650
- AKCIÓ Dell Latitude 5420 - i5 1145G7, 8-16GB RAM, SSD, jó akku, számla, 6 hó gar
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
A cikkben le van írva, hogy a PS4 már a megjelenésekor profitot termelt és nem 3 év kellett neki ehhez, mint a PS3-nak. Az a projekt, ahol 3 évig csak veszteséged van, nagyon rossz üzletnek számít.
![;]](http://cdn.rios.hu/dl/s/v1.gif)
, akkor az nvidia miért nem kért ebből ?


