Hirdetés

2024. május 18., szombat

Gyorskeresés

Hozzászólások

(#1) hapakj


hapakj
aktív tag

Érthető. Szóval összességében az nvidia megoldása a jobb.

(#2) boxmaci


boxmaci
csendes tag

Várom már azt amikor az MS és az Intel elkeni a száját és megfingatja ezt a arcoskodó elszállt céget. :)

(#3) Moby


Moby
addikt

"Mivel a memória a dedikált GPU tekintetében is sarkalatos, így ott is 16 GB-nyi VRAM szükséges. "
Erre azért valami forrás nem ártana, mert ez elsőre is igen nagy ökörségnek hangzik, nemkülönben másodikra :D Tehát az NPU mellé elég a 16GB a rendszernek, és minden másnak, de ugyanennyi kell a VRAM-ból is...

(#4) JohnyX


JohnyX
kezdő

Ott a magyarázat a kép alatt: Írta: Abu85 Forrás: BenchLife

(#5) pengwin


pengwin
addikt

Nagyon csodálkoznék, ha ennek az egész AI-nak hazudott őrületnek az lenne a vége, hogy lokálisan fogunk valami önálló megoldást futtatni.

Számomra sokkal valószínűbbnek tűnik, hogy az "AI" főleg felhős szolgáltatásokon keresztül lesz elérhető, az ilyen lokális hardverek meg leginkább edge computing szerepkörben lesznek hasznosítva. Erre meg elég lesz az NPU-k teljesítménye is. A nagy cégek eddigi és jelenlegi iránya alapján legalábbis ez tűnik reálisabbnak.

Üdv, pengwin

(#6) hapakj válasza Moby (#3) üzenetére


hapakj
aktív tag

igen, ez eléggé csúsztatásnak hangzott. de lehet az AI PC azt jelenti, hogy vagy AI vagy PC. Egyszerre a két dolog nem működik. (csak nvidiaval ;])

(#7) Moby válasza JohnyX (#4) üzenetére


Moby
addikt

Nem a képre kértem forrást, hanem az idézett mondatban foglaltakra.

(#8) boxmaci válasza pengwin (#5) üzenetére


boxmaci
csendes tag

A következő generációs játékok valószínűleg AI-t használnak majd a grafikához valósidejű számítással, ezt csak lokálisan lehet megcsinálni. Hacsak nem streamelve játszik valaki, de az soha nem lesz rendes opció.

(#9) hapakj válasza pengwin (#5) üzenetére


hapakj
aktív tag

Én meg épp azt látom, hogy az lenne a cél, hogy minnél több mindent letolni lokálba. Szerintem az infrastruktúra nem olcsó a cégeknek ehhez, s nehezen fognak majd tudni pénzt kérni érte. Főleg ahogy nézem az Apple valszeg meg se fogja lépni a serveren való futtatást. Nekik a iPhone 15 Pro-ba már 37 TOPS-szos NPU van. Átemelni ezt az Mx szériába sem lesz nagy probléma.

(#10) proof88 válasza pengwin (#5) üzenetére


proof88
addikt

De a kettő nem üti egymást, most is felhőből is és lokálisan is használjuk az AI-t.

(#11) Alaaf Pi válasza hapakj (#9) üzenetére


Alaaf Pi
aktív tag

Csak épp egyetlen "AI" fejlesztőnek sem érdeke a lokál üzem: nem fér hozzá az ottani tudáshoz, így a többi klienst nem tudja ugyanúgy fejleszteni, mivel nem látja mi zajlik, a patchelés, update, továbbfejlesztés is körülményesebb. Másrészt pár éve mindenki mindent cloudban akar megoldani, majd pont az "AI"-t akarná lokálisan?

(#12) paprobert válasza boxmaci (#8) üzenetére


paprobert
senior tag

"AI-t használnak majd a grafikához valósidejű számítással"

Óriási bullshit.

Évtizedekre vagyunk ettől. Nem kell mindent elhinni, amit a buborékok idején írnak.

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#13) tibaimp válasza paprobert (#12) üzenetére


tibaimp
nagyúr

Így van! Amit, viszont el tudok képzelni, mondjuk 10 éven belül, hogy a nem fő NPC-k, AI generált válaszokat adnak a játékos viselkedése alapján.

[ Szerkesztve ]

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#14) Busterftw válasza paprobert (#12) üzenetére


Busterftw
veterán

Én már normális fizikának is örülnék :)

(#15) Kolbi_30 válasza Busterftw (#14) üzenetére


Kolbi_30
őstag

Az sose lesz, azzal dolgozni kell. Kapsz fancy grafikát, sablon történettel, mar ha lesz egyáltalán történet..meg 20-30 euróért DLC ket, skineket.a 70-80 eurós bughalmazhoz. 15-20 évente meg kijön egy játék amire mindenkinek feláll, mert valamivel jobb mint a tömeg szarok..

You want some birth control, you can smoke a cigarette.

(#16) zttk


zttk
csendes tag

Pont ma néztem nálunk egy VDI 180 USD havonta, egy laptop pedig 40 USD.. persze kényelmesebb a VDI de nagyságrendekkel drágább. Szerintem a cloud nem fog így tovább terjedni, túl draga.

(#17) arn


arn
félisten

nem vilagos, mit csinal localban az ai? nyelvi modellt futtat rajta? minek?

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#18) Busterftw válasza arn (#17) üzenetére


Busterftw
veterán

Helyileg futtatod, tehát nem küldöd el a "beszélgetést" szerverre.
Vagy például ott az Nvidia ChatRTX, ott helyi fájlokkal tud dolgozni.

(#19) arn válasza Busterftw (#18) üzenetére


arn
félisten

ok, csak egy local gepen jo ha egy 7b modell elfut... ez fenyevekre van a gpt4tol, vagy hasonlotol. amellett, hogy zabalja az eroforrast.

[ Szerkesztve ]

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#20) Busterftw válasza arn (#19) üzenetére


Busterftw
veterán

Erről szól a cikk, nem szutyerák basic hardvert kell alá rakni, hanem prémium Nvidiat. ;)

(#21) arn válasza Busterftw (#20) üzenetére


arn
félisten

Attol nem fog nagyobb modell futni rajta, mert nincs eleg ram, a szamitasi kapacitas mellekes, es pl egy 10 wattos apple m1en is elfut egy ilyen modell. Komolyan nem latom hol jon be a kepbe.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#22) julius666 válasza paprobert (#12) üzenetére


julius666
addikt

Óriási bullshit. Évtizedekre vagyunk ettől.

Mármint mitől? Egyáltalán nem lepne meg, ha a közeljövőben (1-2 éven belül) az nVidia kijönne valami hasonlóval:
https://www.youtube.com/watch?v=P1IcaBn3ej0

A(z egyébként már 2 éves!) videóban normál beállítások melletti raszteres render outputot javítottak fel, de nem kell hozzá sok fantázia, hogy valami hasonlót lehessen csinálni lebutított renderre is. A hagyományos raszteres pipelineból lecserélhető lenne csomó utólagos gagyi effekt ilyen AI alapú képtranszformációval. A játék motorja lerenderel egy buta, 2000-es évekbeli szintet megütő kimenetet, amit aztán az AI felhúz fotorealisztikusra, a videóban látottakhoz hasonlóan.

Annyira nem sci-fi amiről beszélünk, hogy konkrétan a DLSS 3.5 path tracing módja is valami hasonlót csinál. Megkap a játéktól egy marha zajos, gagyi path tracing kimenetet, a textúrákat, meg pár metaadatot amit egységes kimenetté gyúr, felskálázza, majd kitol egy olyan képet, ami nem 100%-ig tökéletes, de 95%-ban túlzás nélkül az. Olyan minőséget képvisel, amit a szakmabeliek még pár éve évtizedekkel későbbre vártak volna.

Szerintem ez már annyira a jelen/közeljövő, hogy nem ahhoz kell igazán fantázia, hogy mégis mit lehetne kezdeni az AI-val játékoknál, hanem érveket találni ahhoz, hogy miért nem lesz mégse használva akár már a közeljövőben. Utóbbi elég nehéz szvsz az elmúlt 2-3 év fejlődését látva. :)

[ Szerkesztve ]

(#23) haxiboy válasza pengwin (#5) üzenetére


haxiboy
veterán

Jelenleg ezen dolgozik mindenki:
Whisper, Piper, Fooocus (Stable Diffusion modellek), LLama stb.

Ami néhány éve még álom volt, majd megjelent cloudban, már elérhető otthon is. Bár valóban érdemes őket megtámogatni. Nem is a modellek futtatásával van jelenleg már a gond. Az új modellek készítése/fine tuneolása még mindig hatalmas erőforrást igényel.

"Így van! Amit, viszont el tudok képzelni, mondjuk 10 éven belül, hogy a nem fő NPC-k, AI generált válaszokat adnak a játékos viselkedése alapján."

https://github.com/AkshitIreddy/Interactive-LLM-Powered-NPCs

Lehet vele játszani :D Bár ez pont GPT4, ha elérünk erőforrásban oda hogy nem horror összegekbe kerül feltanítani egy modellt... :U
Jó eséllyel ehhez nem fog kelleni 10 év. Ha valaki 5 évvel ezelőtt azt mondja nekem, hogy lesznek speciális AI modellek amik on-the-fly képesek nekem kódot írni, kontextus alapján, nagy valószínűséggel kitalálni hogy mit szeretnék csinálni, és/vagy specifikáció alapján kódot generálni, kiröhögöm. Most pedig napi szinten használom a munkámhoz.

Egyébként meg az olyan nagy cégek mint a csúnya rossz Meta, sőt Microsoft, Apple és még sorolhatnám, tesznek közzé publikus modelleket és/vagy toolokat.

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#24) Kristof93


Kristof93
senior tag

Ha nem sajnálta volna ki a vramot az utolsó 3 generációból az nvidia, akkor talán még igazuk is lenne, de nem ez történt. A 3080, előző generációs felső kategória, nem tud stable diffusion-t helyben futtatni értelmesen, míg egy ilyen npu (+ az igp, amit nvidia valamiért kifelejtett...) jól el van 16-32gb rammal.

(#25) arn válasza haxiboy (#23) üzenetére


arn
félisten

Ez az egesz szvsz akkor lesz erdekesebb, ha egy mobilszintu hwnek is onallo elete lesz ai teren, akar ugy, hogy sose kotod netre. Tehat minden egyes hw onallo “szemelykent” fog viselkedni, ha elkezded hasznalni, felepiti a sajat ai szemelyiseget a hasznalati tapasztalatok alapjan az elore telepitett modellekkel.

De ehhez en azt latom, hogy a modelleknek is fejlodni kell, mert a hwek nem fognak olyan utemben fejlodni, de elobb utobb a ket fejlodesi pont talalkozni fog.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#26) copass válasza boxmaci (#8) üzenetére


copass
veterán

az AI egy eszköz, nem pedig egy megoldás.
arra nagyon jó, hogy motiváljon, ötleteket adjon. de soha nem fog pótolni egy művészt.
AI alkalmazása a játékfejlesztésben

"amikor valaki baromságokat beszél, megszületik egy unikornis"

(#27) hokuszpk válasza Busterftw (#14) üzenetére


hokuszpk
nagyúr

nincs is jobb az ai generálta fizikánál :D

Első AMD-m - a 65-ös - a seregben volt...

(#28) haxiboy válasza arn (#25) üzenetére


haxiboy
veterán

A futtatásnál a probléma leginkább a szükséges RAM miatt probléma, de az izmosabb eszközökön a LLaMA2-7B -t már lehet futtatni vállalható sebességgel bár ehhez is szükséges kb 16gb ram
De a Fine tuneolásához egy 7B modellnek...háát mobil eszközökön ez nem mostanában lesz lehetséges.
Bár ez az önálló személyisége van dolgot nem igazán lehet értelmezni egy LLM esetében. Csak azt "tudja" egy model amin fel lett tanítva.
Persze szép és jó látni amikor egy öntanuló modellt ráengednek az internetre, mint anno a Microsoft a sajátját a Twitterre. Körülbelül 1 napig futott mert rasszista adatokkal etették.

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#29) Abu85 válasza Moby (#3) üzenetére


Abu85
HÁZIGAZDA

Tök egyszerű a probléma. Ha nem fér bele a modell a VRAM-ba, akkor nem tud működni. A Microsoft a saját rendszereihez olyan modelleket készít, ami 16 GB memóriát igényel. Ezért kérték a gyártókat arra, hogy ennyi memória legyen az AI PC-kben. Ha a GPU-n fut a modell, ami lehetséges a DirectML-lel, akkor a VRAM-ból kell 16 GB. A Microsoft alapvetően egyiket sem akadályozza, 40 TOPS teljesítményt kér minimum. Teljesen mindegy, hogy integrált vagy GPU-val, esetleg NPU-val hozod, és legyen a hardver mellett 16 GB fedélzeti memória. Ezek a belépő követelmények.

Természetesen a memória esetében fontos, hogy ha más is fut, akkor több memória kell vagy ajánlott. Tehát ha fut egy játék a GPU-n, és az elvisz 8 GB-ot, akkor még kell 16 GB memória a modellnek, tehát 24 GB-os GPU kell. Az NPU esetén annyival kedvezőbb a helyzet, hogy ott a rendszer fel van készítve arra, hogy esetleg fut más is az AI feladat mellett, tehát nem fog a GPU-khoz hasonlóan out-of-memory hibaüzenet jönni, hanem csak lassabb lesz az AI feladat feldolgozása. Jelentősen lassabb, és ezért nem ajánlja ezt a Microsoft. De technikailag a programfuttatás NPU-val garantált, ellentétben a dedikált GPU-kkal, csak nem lesz nagy élmény a memória szűkössége miatt.

Alternatív lehetőségként ott vannak a szűk memóriára szabott modellek, de már kiderült, hogy ilyet a Microsoft nem fog kínálni, egyszerűen túl sok a limitáció velük, így inkább 16 GB-ban húzták meg a belépőt. Mellesleg ez egyáltalán nem sok, a memória kifejezetten olcsó, és az AI PC-kbe a gyártók lazán be tudnak dobni 16 GB RAM-ot. Valószínűleg jellemző lesz a 32 GB is, hogy izmozzanak, és nem itt fog elszállni egy notebook ára.

#19 arn : Ne csak a mostani korlátozott dolgokban gondolkodj. Ott van a hibrid feldolgozás lehetősége is. Ezek azért nem reális irányok most, mert nincs meg a hardver, de az NPU-kkal meglesz. Az AI PC-kben lesz kellő tempó és kellő memória is. A mostani gépekben csak a TOPS van meg, de a memória nincs ott, ahol kellene.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#30) Moby válasza Abu85 (#29) üzenetére


Moby
addikt

Magyarán nincs semmilyen forrás, megy a szokásos bullshitelés, ami egy újabb félresikerült nvidia bashing kapcsán keletkezett.
De akkor megkérdezem újra: mennyi szabad memória marad jellemzően a windows mellett 16 giga sysramból, és az hogyan magyarázza, hogy vramból IS 16GB kell?
Egyszerű kérdés, kell legyen rá nem féloldalas, kisiskolás szintű válasznak is.

(#31) Abu85 válasza Moby (#30) üzenetére


Abu85
HÁZIGAZDA

[link] - írtunk korábban róla, azt hittem olvastad.

A rendszermemória másképp van kezelve, mint a VRAM. A VRAM felett az operációs rendszernek csak nagyon korlátozottan van felügyelete. Nincs is közvetlen hozzáférése a modernebb API-kkal, vagyis alapvetően a program határozza meg, hogy a VRAM hogyan van menedzselve. Ha rosszul, akkor az operációs rendszer csak széttárja a karját, mert nem tudja kijavítani a programkód jellegzetes hibáit a modernebb API-k működése miatti GPU kernel driver hiányában. Ezért van az, hogy amikor a rendszermemória betelik, akkor még simán működőképes marad a gép, vagyis nem fagy le, csak belassul, míg ha a VRAM betelik, akkor jön az out-of-memory üzenet, és leáll a program.

A legnagyobb gond itt az, hogy az operációs rendszernek közvetlen kontrollja csak a rendszermemória felett van, így a VRAM csak egy leválasztott erőforrás. És mivel leválasztott, amit egy csomó OS komponens nem is lát, így nem is tud kárt okozni, ha betelik, tehát a Microsoft sem nagyon töri magát azon, hogy megoldja ezt a problémát. Volt régen egy nagy terv ennek a megoldására a WDDM 3.0-hoz, de sosem valósult meg. Nem tudom, hogy a Microsoft fejleszti-e még, vagy eltették a fiók mélyére.

Egyébként senki sem írta, hogy az NVIDIA nem ír igazat a TOPS-ra nézve, csak elhallgatják a memória kérdését. Nyilván jó okkal. Az out-of-memory hibakóddal történő programösszeomlások a Microsoft szerint sem tekinthetők prémium élménynek. Ez a vezető oka annak, hogy a Microsoft is főleg az NPU-kra építi az AI PC-ket. Ha a GPU-k jók lennének, akkor tennének egy rakással az NPU-kra, mert eleve van egy bazinagy kiépített userbase a programoknak. De nem jók, ők ki tudják ezt próbálni a gyakorlatban.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#32) Busterftw válasza Kristof93 (#24) üzenetére


Busterftw
veterán

Nem tudom mirol beszelsz, 24GB vram volt a elozo es mostani gennel is.
Ha ez a teljesitmeny kell, akkor megvehetted eddig is.

(#33) Kristof93 válasza Busterftw (#32) üzenetére


Kristof93
senior tag

Te 2000 eurós, 400 wattos dedikált gpu-val akarod versenyeztetni a laptop apu-t?? Itt nem a 2000 eurós réteg termékről van szó. Ezek bele sem kerültek a laptopokba. Elég nyilvánvaló, hogy az nvidia sem úgy képzelte el, a 100 milliós felhasználó táborral amit emlegetnek. A legtöbb használatban lévő nvidia kártya 8gb körül van, ez édes kevés. Ez volt a standard 10 évvel ezelőtt amikor jött a ps4 és xbox one...

(#34) haxiboy válasza Kristof93 (#33) üzenetére


haxiboy
veterán

Ps4 és Xbox one-nál -és az új konzolok esetében is- koherens memóriáról beszélünk. Kár összehasonlítani egy PC-vel.
Amikor a Ps4 megjelent a GTX Titan és Titan Z volt az nvidia legizmosabb kártyája, 6 illetve 2x6GB gpu-val.
A "standard" inkább a 2GB-s kártyák voltak akkoriban. Quantizált modelleket, alacsonyabb precizitással már egy 4GB Vram-mal rendelkező GPU-n is lehet futtatni.
Valószínű, ha szeretné a gyors elterjedését a Microsoft az otthoni offline AI-nak, akkor olyan modellt fog szállítani ami.
Az ASIC vagy FPGA alapú gyorsítók is hamarosan elérhető áron lesznek elérhetők. Mint pl a pici modellekhez szánt Coral.

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#35) arn válasza haxiboy (#28) üzenetére


arn
félisten

Az apple itt is jol csinalta, meg a korosodo m1en is fut 16g rammal egy 7b modell, metalon keresztul. Erre meg pc oldalrol mindenfele csodahw kell, radasul az m3/m4ben figyelnek az aira jobban.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#36) arn válasza Abu85 (#29) üzenetére


arn
félisten

Ez vilagos, csak ahhoz kepest hogy ez folyik a csapbol is, mit gyorsit tenylegesen lokalisan?

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#37) Busterftw válasza Kristof93 (#33) üzenetére


Busterftw
veterán

Te irtal 3080-t, en csak mondtam, hogy ha az a VRAM mennyiseg kell, akkor van mindket generacioban 24GB.

Mellesleg a cikk nem kizarolag laptopokrol szol, hanem AI PC-krol, ahol dedikalt megoldasok is benne vannak.
De ha mar mobil, a mobil 4090-en 16GB VRAM van.

(#38) Busterftw válasza arn (#36) üzenetére


Busterftw
veterán

A valaszt, amit megkapsz.

(#39) paprobert válasza julius666 (#22) üzenetére


paprobert
senior tag

Ha elmaszatoljuk az "AI-t használnak majd a grafikához" kifejezés jelentését, akkor könnyen eljuthatunk oda, hogy igazából már 15 éve AI-t használunk a HW Tessellation bemutatása óta, csak nem vettük észre. Ne tegyük.

A példád nem real time, és kb. csak fresnel pingálás és tonemapping réteg szint. Láttam pár éve, és érdekes volt. Ez 10%-nyi hozzáadott grafika, néhol regresszióval. Nem full, 0-ról 100%-ra húzott, mátrixműveletes grafikai pipeline.

"buta, 2000-es évekbeli szintet megütő kimenetet, amit aztán az AI felhúz fotorealisztikusra"
Ez, a kolléga és az általad felvetett állapot nem a következő generációban jön el. És főleg nem szánalmas, néhány tíz-száz TOPS teljesítmény mellett.
Évtizedek, és több tízezerszeres teljesítménytöbblet kell majd. Úgyhogy be lehet fejezni a csodavárást holnaputánra.

PC-n elég jól lehet követni, hogy hogyan áll a csúcs grafika, és mit ad hozzá az AI a látványhoz.
Én is már várom 1-2 éve, hogy a DLSS mikor válik sebességnyerő funkcióból egy extra grafikai szintté (a ray reconstruction már majdnem ez), de még nincs itt, és nem tudjuk mennyire lesz fajsúlyos.

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#40) Abu85 válasza arn (#36) üzenetére


Abu85
HÁZIGAZDA

Sok paraméteres neuronháló futtatását gyorsítja. Konkrétan gyorsabban hajtja végre a mátrixszorzást, ami a vezető műveletnek számít.

Ugyanezt csinálják egyébként az online szolgáltatások is. A probléma ott van, hogy ha ennyire növekszik az igény erre a munkamenetre, akkor muszáj valamiféle hibrid irányba elvinni, mert nem lehet elég szervert kiépíteni mindenkinek. Tehát optimális az lenne, ha némelyik folyamat lokálisan futna, némelyik pedig távolról.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#41) julius666 válasza paprobert (#39) üzenetére


julius666
addikt

Ha elmaszatoljuk az "AI-t használnak majd a grafikához" kifejezés jelentését, akkor könnyen eljuthatunk oda, hogy igazából már 15 éve AI-t használunk a HW Tessellation bemutatása óta, csak nem vettük észre. Ne tegyük.

A "semmi AI" és a "beírod a promptba, hogy akkor most FPS-t akarok játszani, majd elindul egy full egyedi generálású fotorealisztikus játék" közt elég sok szint van. Megkockáztatom te se az utóbbiról beszéltél. Ha már a definíción akarsz kötekedni, kiköthetnéd konkrétan hol húzódik nálad a határ, enélkül felesleges erről vitatkoznunk.

Ha a pipeline utolsó pár lépése már full AI alapú, az nálam már bőven megfelel az "AI-t használnak majd a grafikához" kitételnek. (Ugye kizárólagosságot senki nem írt!!!)

A példád nem real time
3-15fps volt, 2 éve. Itt egy kutatásról beszélünk. Optimalizált kóddal, következő generációs vason nem látnám miért ne tudna 60 FPS-sel futni egy ilyen.

Megjegyzem igazán minőségi AI alapú upscale/frame generation se volt realtime pár éve még, ma meg...

csak fresnel pingálás és tonemapping réteg szint.
Ezt mégis honnan veszed?

Én is már várom 1-2 éve, hogy a DLSS mikor válik sebességnyerő funkcióból egy extra grafikai szintté (a ray reconstruction már majdnem ez), de még nincs itt, és nem tudjuk mennyire lesz fajsúlyos.

Full hamis a dilemma amit felvázolsz. A sebességnyerés és a minőség javítás egy és ugyanaz a feladat, csak az érem két oldala. Ha egységnyi hardveren teljesítményt tudsz felszabadítani egy részterület optimalizációjával, akkor több teljesítmény marad egyéb területeken a minőségjavításra. DLSS path tracing jó példa. Ha bekapcsolod, egyazon vason DLSS nélküli variánsnál jelentősen jobb grafikai szintet érhetsz el.

[ Szerkesztve ]

(#42) Komplikato válasza arn (#19) üzenetére


Komplikato
veterán

Van brutális modell, ami meglepően jó, csak nem mindenkinek van a gépében 300GB+ vram és 1TB+ memória. De elfutni elfut lokálisan. :) Saját betanításhoz sok mindenre elég lenne egy 7B vagy 13B modell is, csak betanításhoz még több vram kell.

"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)

(#43) arn válasza Abu85 (#40) üzenetére


arn
félisten

De nem tudsz egy 7b meg egy 1760b modellt (gpt4) hasonlo szinten kezelni. Es a nyelvi modellek kepessegei exponencialisan nonek a parameterek szamaval. En probaltam korabban localban futo 7b modellt dinamikusan parameterezni informalis adatok elemzesevel, de nagyon mas kavehaz.

[ Szerkesztve ]

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#44) Abu85 válasza arn (#43) üzenetére


Abu85
HÁZIGAZDA

Nem is akar senki, viszont vannak olyan feladatok, amelyek lokálisan már megoldhatók.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#45) Kristof93 válasza haxiboy (#34) üzenetére


Kristof93
senior tag

A koherens memória a konzolokban (és a cikkben szereplő apu-kban) egy előny, nem hátrány. A vram-ban lévő adatok sokszor duplikálva vannak a rendszer memóriában. A Windows 11 egyébként is szépen ki szokta takarítani a memóriát ha szükség van rá, 2-3gb elég neki.

Ahogy megjelent a ps4, elég hamar az lett a standard játékfejlesztésben.

Nyilvánvaló, hogy szinte senki sem fog dedikált ai gyorsítót venni, és laptopba tenni még egy nagy processzort dedikált memóriával még ennél is kevésbé kivitelezhető.

(#46) arn válasza Abu85 (#44) üzenetére


arn
félisten

Es mik azok? Ezt probalom mar kideriteni par hozzaszolas ota :DDD

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#47) haxiboy válasza Kristof93 (#45) üzenetére


haxiboy
veterán

"Senki nem fog ai gyorsítót venni" ?
Ez pont olyan kijelentés minthogy GPU-t nem veszünk mert van a prociba integrálva, vagy hangkártyát/hálókártyát mert van az alaplapon.

Apple az A11 óta pakolja a Neural Engine-t hardware-be. Észre sem fogjuk venni, néhány generáció váltás, és az AI ready hardware-kben ott lesz.

Ahogy most az a menő hogy a videókártyádon van egy m.2 pcie csati az SSD-knek, miért ne jöhetne ilyen formátumban AI accelerator a jövőben vagy elhagyva a csatlakozót, rádrótozva a kártyára/alaplapra.

A Microsoft egy halom pénzt öntött az OpenAI-ba. Előbb utóbb követelménnyé fogják tenni az AI gyorsítót a copilot-hoz. Olcsóbb az usernél futtatni mint a datacenterben. :U

[ Szerkesztve ]

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#48) tibaimp válasza haxiboy (#47) üzenetére


tibaimp
nagyúr

Akkor lesz majd durva, ha a játékok/egyéb szoftverek is elkezdik megkövetelni, mint a VGA-t, vagy a CUDA-t.

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#49) haxiboy válasza tibaimp (#48) üzenetére


haxiboy
veterán

De nincs ezzel semmi gond, csak legyen egy jól lefektetett szabvány amit követnek a gyártók. A gyártóspecifikus baromságokat kéne elhagyni, csak úgy nehezebb versenyezni a konkurenciával ha mindenki ugyanazt árulja.
Ebből a szempontból tisztelem az AMD-t, a megoldásaik univerzálisak. :K

Cuda szerencsére kezd kiesni a képből hála a ZLUDA-nak, ami fut AMD-n is.

[ Szerkesztve ]

Premium Mining Rigek és Gamer/Workstation gépek: tőlem, nektek :)

(#50) tibaimp válasza haxiboy (#49) üzenetére


tibaimp
nagyúr

Egyetértek!

A CUDA-t csak példaként hoztam.

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

Copyright © 2000-2024 PROHARDVER Informatikai Kft.