Hirdetés

2024. április 18., csütörtök

Gyorskeresés

Hozzászólások

(#1) PROTRON


PROTRON
addikt

Jól értem ezek szerint hogy mégse volt rossz választás az x299 platformra beruháznom kifejezetten a több GPU lehetősége miatt...(költői kérdés mert jelenleg nem használnom ki, de a hosszú távú tervek miatt kellhet)

Tehát a trend valójában az hogy ezentúl nem kell extra kiegészítőt használni a két kártya közötti összekötésre csak megfelelő generáció fog kelleni?
Csak mert az 1 dolog hogy kevés eszköz használja a több gpu lehetőséget, de mindenki károgott hogy ha eltűnik a csatlakozó akkor végleg reszeltek az ötletnek.

Ezek szerint a fejlesztők csak okosabbak mint egy 5.-es, és ha el lehet adni egy géphez 3 VGA-t, akkor miért zúznák be a használhatóság lehetőségét. :Y

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#2) b.


b.
félisten

szép Írás ! :R

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#3) koko52


koko52
veterán

Pont terveztem két 3090-et venni. Na mindegy...

"Meglepetten néztünk Európára, arra, hogy mennyire nyitottak az országok, és vannak, akik csak úgy magukhoz veszik a bevándorlókat, fel nem ismerve azt, hogy egy napon a saját hazájukban kisebbséggé válhatnak."-Ernst Roets

(#4) PROTRON


PROTRON
addikt

Amúgy ebben a cikkben az kimaradt, de időközben megtaláltam hogy a lejjebb lévő, szintén az új nvidia kártyákkal foglalkozó cikkben megemlítették az Nvlink hidat. Tehát hogy ha 2 db 3090-es kártyát használ az ügyfél, akkor a méregdrága NVLINK továbbra is beüzemelhető, így a korábbi SLI technológiával szemben ahol a kártyák memóriája nem skálázódott, az új megoldással szépen fel lehet tornászni a kapacitást.

Ami még érdekelne hogy régebben volt mód 3 illetve 4 utas SLI-re bizonyos alaplapoknál úgy, hogy az adott 3. vagy 4. PCIE slot már nem x16-ra volt huzalozva. Itt a cikkben oké hogy x16 fizikai hosszúság kell, de ha csak x8-ra vannak kötve a sávok akkor is működni fog a dolog az új modszerrel, kártyák közötti összekötés nélkül, vagy alaplapi sávok terén is kell az a x16?

Továbbá ha már elszalad a fantázia, régebben voltak dupla GPU-s VGA-k, amikből lehetett quad SLI-t kihozni...na most elvileg ha már nem a deszka az akadálya, akkor a jövőben lehet eljön az idő a tényleges, akár OCTO üzemmódnak?
Mert úgy már van értelme gen 4 x16-ra tervezni. :D

Bár akkor majd az x299 lap+procimat cseréhetem majd le x499-re, ddr6-al. :O

Lelki szemeim előtt már látok egy teljesen valósághű VR harci szimulációt Battlestar Galactica-ban. Ahol már nem csak be rajzolva vannak a töltények és az algoritmus a kiinduló értékek alapján számolja ki a találatot, hanem ténylegesen ott van 2 millió lövedék fizikailag leszimulálva, 300 Raiderrel, meg 100 ezer mikro meteorittal úgy hogy ezredmásodpercre lebontva történnek a dinamikai kalkulációk az aktuális koordinátán szintén dinamikusan változó gravitációt is figyelembe véve...
Én meg csak forgolódok a 100%-ban megtervezett, filmes CGI szinten élethű cockpitben és ámuldozok...amíg ki nem lőnek.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#5) Duree válasza koko52 (#3) üzenetére


Duree
veterán

Én is pont ezt gondoltam, de azért lenne megoldás ahogy olvasom. Kár mert 1db-ra se telik.

duree54

(#6) PROTRON válasza Duree (#5) üzenetére


PROTRON
addikt

Majd 2080TI-ből, amikor annak leesik az ára...furcsállom azokat akiknek annyira sürgőssé vált a gép vásárlás hogy szeptemberben, a 30x0 bejelentése után is berendelik a 2080-asokat...egész évben eddig vártak, most hogy megjelent az új, kb annyiért mint az új generáció beérik a csökkentett teljesítménnyel, de legalább 2 hónappal korábban...

Aztán meg majd megy a rinyálás HA-n hogy miért nem veszik meg a használt kártyáikat az új generációs árban, hiszen az övén is van garancia, most szeptemberben vette. :C

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#7) Zotya84


Zotya84
őstag

"Pusztán arra kell figyelni, hogy a két VGA hasonló legyen. Az az optimális, ha ugyanolyan, de ha az eszközazonosító megegyezik, akkor az már elég a rendszer működéséhez."

A hasonlóság alapján azt mondanám, hogy ha egy 5600XT mellé bepattintok egy 5500XT-t, akkor már menni fog? Hisz elég hasonlók, csak nem ugyanazok. Viszont akkor meg nem egyezik eszközazonosító, ami alapján meg nem mehet. Ezt kibogozná nekem valaki, hogy hol értem félre – már, ha én?

A Civ6 hogyan használja azt az unlinked módot? Arra elég egy link, ha valaki tud olyat adni, mert nem nagyon olvastam még erről sehol. Igaz, nem is túlzottan kerestem. Köszi.

Mi ez a hülyeség? Nokiánál ütésállóságot nem fejszével kellene tesztelni, hanem elkezded ütni egy 3310-zel... - L3zl13

(#8) PROTRON válasza Zotya84 (#7) üzenetére


PROTRON
addikt

Nem biztos hogy jót írok, de az én értelmezésem hogy szándékosan hangsúlyozta ki az eszközazonosítót az elején, hiszen a "linkelt mód" amit a több gpu-t támogató szoftverek halmazából többen használnak, az érzékenyebb erre.
Tehát ha nekem van a gépemben egy gigabyte gaminig G1 1070 rev 2.0 kártyám, a régi SLI esetén ehhez ugyanilyen gigabyte...rev 2.0 kártyát kellett beraknom a híd másik végére hogy ne legyen gubanc.
Az új "linkelt mód" rendszerben meg ha berakok mellé egy EVGA 1070-et akkor már elfognak kommunikálni mindenképpen. Míg ha 1060-at rakok akkor több gubancom lehet linkelt módot használó eszköz esetén.

Az "unlinkelt módot" úgy értelmezem, hogy ott már használhatóan működik az általad említett 5600xt mellé 5500-as kártya, csak az a gond hogy az amúgy is kevés multi GPU erőforrásra fejlesztő cégek közül még kevesebb fejleszt ezzel a változattal, pedig ez szolgálná a felhasználók igényeit.

Tehát ha biztosra akarsz menni akkor kénytelen leszel a linkelt módot feltételezni annak a korlátaival.

Azért is az Unlikelt módra lenne igény, mert a sima consumer deszkák ha támogatják is hogy több videókártyát rakj bele, a prociba akkor is csak x16 sáv van bekötve, tehát ez megoszlik, így a nagyobb teljesítményű 2. kártyát legtöbb esetben amúgy sem tudnád full sebességen kihajtani, pl 16 sávból 4 elmegy az m.2-be, 8 az elsődleges VGA-ba, 4 marad a másodlagosnak. Vagy eleve a másodlagosba tartó 4 már a csipseten keresztül érkezik nem közvetlen a cpuból.

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#9) Darmol


Darmol
senior tag

Én azt olvasom ki a cikkből, hogy ABU egy olyan szép új jövőről beszél, ahol a RTX 3090 mellett ott zümmög az RX6950, mert együtt tudnak dolgozni. :DDD

Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.

(#10) LGG555


LGG555
aktív tag

Minek a 2 kártyás megoldás amikor 1 kártya is méreg drága és a legtöbb játékban a második VGA csak pihenget?

Konfig:MSI MEG B550 UNIFY-X, Ryzen5 5600x, G.Skill 16GB 4000Mhz, Radeon VII, Seasonic Snow Silent 550w..

(#11) Zotya84 válasza PROTRON (#8) üzenetére


Zotya84
őstag

Egynek jó, remélem jó úton járunk. Köszönöm.
Annyi korrigálásom lenne, hogy a Ryzenekben 24 PCIE lane van, abból x4 Chipset, x4 m.2 tudtommal. Így az x16 megmarad 1*x16 vagy 2*8-nak, nem esik vissza x4-re két kártya esetén, csak 3-nál, ott x8-x4-x4 lesz a felállás. (Az x370-es lapom leírása alapján tuti.)

Mi ez a hülyeség? Nokiánál ütésállóságot nem fejszével kellene tesztelni, hanem elkezded ütni egy 3310-zel... - L3zl13

(#12) proci985 válasza PROTRON (#8) üzenetére


proci985
MODERÁTOR

felreerted

sli es crossfire eseten adott GPUbol kettot lehetett osszekotni. tehat pl egy 290X es egy 290 elvileg ment egyutt (bar a 290 szintjen limitalva), 1070bol is osszekothettel ket akarmilyet, es ment. egyezo orajel mondjuk segitett.

elvileg most mehetne az is, hogy egy barmilyen kartya melle berakhatsz barmi masikat, de azt tamogatja ket jatek. erre nem alapoznek.

desktop ryzen biztosan tud x8+x8at (x370en), ezt tapasztalatbol irom.

---

egyebkent sajnos a multigpu kb halott a gyakorlatban.

[ Szerkesztve ]

Don't dream it, be it. // Lagom amount.

(#13) Kansas válasza proci985 (#12) üzenetére


Kansas
addikt

Nem sok olyan consumer CPU és/vagy alaplap van, amiben x16+x16 konfigba lehetne két VGA-t tenni, esetleg HEDT vonalon

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#14) Lenry


Lenry
félisten

nagyon rég nem foglalkoztam ezzel a témával, de most nézem, hogy a gépemben lévő RX580 mellé nem volna egetrengető egy második.
volna emellett valami más megkötés is?
a gépem alapjai nem maiak, de van két hosszú PCIe foglalat a lapomon (igaz a második csak x4 sebességű), akkor ezzel is működne?

Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data

(#15) proci985 válasza Kansas (#13) üzenetére


proci985
MODERÁTOR

ja, intelnel s2066 nem versenykepes, AMDnel TRx irdatlanul draga, TR4bol pedig a CPU limites. mas modern rendszer nincs.

nalam is azert lett x16 - x16 -> x8 - x8 anno, nem volt mire valtani.

Don't dream it, be it. // Lagom amount.

(#16) Abu85 válasza PROTRON (#4) üzenetére


Abu85
HÁZIGAZDA

Mindegy, hogy rákötöd-e az NVLinket. Nem azon keresztül kommunikálnak a DX12/Vulkan játékok. A DMA motorokat használják, és a PCI Express interfészen közlekedik minden adat. Az NVLink egy játékosnak masszív pénzkidobás, DX12/Vulkan játékban sosem megy majd rajta keresztül adat. A DX11-re pedig megszűnik a támogatás január 1-jén.

Explicit multiadapterrel bármi megoldható. Akár 20 GPU is. A Nitrous 2 például olyan megoldást használ, ami annyi GPU-ra skálázódik, amennyi shading pipeline van. Ha mondjuk ezer, akkor simán leskálázódik 1001 GPU-ra.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#17) nexplo válasza Lenry (#14) üzenetére


nexplo
őstag

Szerintem működne a lapodban így ránézésre. Az már más kérdés hogy mennyit nyernél sebességben. A fogyasztást már nem is mondom hogy ugye duplázódna.. :)

Zavard össze a világot: mosolyogj hétfőn! :)

(#18) PROTRON válasza proci985 (#12) üzenetére


PROTRON
addikt

Lehet hogy félreérthetően írtam, de a nagy részében egyetértünk.
Az egyetlen különbség, hogy még nem próbáltam ki menne-e nem giga rev 2.0-ás kártyával stabilan az SLI a gépemben, viszont neten azt olvastam hogy a 10x0 generáció még érzékeny erre, tehát ugyanilyen rev 1.0 kártyával lehet hogy menne, de más márkától érkező 1070 kártya esetén amit te írsz, ahhoz már az új módszer kellene.
Amennyire én tudom az SLI nagyon érzékenyen megkövetelte a minél azonosabb kártyák jelenlétét.
De ha vannak ilyen jellegű személyes aktív tesztelési tapasztalataid nvidiaval, akkor kénytelen vagyok elfogadni, mivel még nem próbáltam ki semmilyen SLI-t. :)

Igen a fentebbi írásomnál elegánsan elsiklottam afelett hogy amd alaplapoknál 16 helyett 20 megy a PCIEx busra, régebben is intel alaplapom volt és mérnökként úgy vagyok vele hogy átlagosan rosszabb scenárióra készülök, ha nem is a legrosszabbra...meg egyébként is szem előtt tartva hogy mit rakott le az AMD az asztalra akkor is inkább intel felé húzok. :P

Jelenleg intel x299-em van, szóval ilyen jellegű limitem nem lesz ha, inkább úgy írom amikor elindulok ebbe az irányba. ;)

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#19) PROTRON válasza Abu85 (#16) üzenetére


PROTRON
addikt

Bocs a dupla posztért.
Ha még egyszer átolvasod az írásomat amire reagáltál, nem tettem említést arról hogy Nvlink esetén hol folyik kommunikáció, csak a megnövekedett memória kapacitásról idéztem be másik cikkből értekezést.

Amúgy egyetértek a játékok terén való jelenlegi használhatatlanságról, ezért is írtam úgy hogy "méregdrága nvlink", én is úgy látom hogy csak speciális munka-kutatási környezetben éri meg jelenleg használni.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#20) Abu85 válasza PROTRON (#19) üzenetére


Abu85
HÁZIGAZDA

A memory pool kiterjesztését a program oldalán kell direkten támogatni CUDA alól.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#21) proci985 válasza PROTRON (#18) üzenetére


proci985
MODERÁTOR

slim nem volt, de ahogy a crossfirenel, ugy ahogy tudom az slinel is mindegy volt, hogy melyik gyarto milyen modellje van bekotve.

viszont tuningprogramokat eltero kartyakkal kb el lehetett felejteni, meg valamennyire a ventivezerles is problemas volt.

6 evig multigpuztam 2013 es 2019 kozott

Don't dream it, be it. // Lagom amount.

(#22) Kansas válasza PROTRON (#18) üzenetére


Kansas
addikt

Az i7-7800X procid(ha még az van) 28 PCIe sávot támogat maximum, abból nem fog kijönni a x16+x16, de egy több sávot támogató procira cserélve neked legalább esélyed van rá, konzumer procik és lapok csak az x8+x8-at támogatják - bár lehet valami extraspéci überhigh-end lap, amire tettek extra PCIe vezérlőt, hogy a slotok egymás közt is 16 sávon tudjanak kommunikálni, de a proci felé akkor se lesz több sáv.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#23) PROTRON válasza Kansas (#22) üzenetére


PROTRON
addikt

Pontosan ezért választottam ezt a platformot. Első körben csak erre volt keret, aztán ahogy nézem azóta lejjebb is mentek az új proci árak, továbbá mivel még nincs második GPU tatár sem hajt.

Amúgy PLX csipnek (mert ő gyártja)hívják ami a prociból érkező x16 sávszélességet az aktuális igényeknek megfelelően szórja szét 2-3 slot között, de amennyire néztem az is főképp HEDT platformokon van, ahol már 6-8 vga támogatásáról van szó.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#24) #06658560


#06658560
törölt tag

Pro oldalon hogy néz ez ki? Tehát Quadro, FirePro vonalon, valamint GPGPU területen.

(#25) yagami01


yagami01
aktív tag

" A több GPU-s irány kétségtelenül úgy tűnhet, hogy a haláltusáját vívja, de az sem kizárható, hogy most születik csak igazán meg. "
Reméljük utóbbi. :) Jó lenne, ha újra megérné a több kártya.

(#26) Z10N válasza proci985 (#15) üzenetére


Z10N
veterán

"mas modern rendszer nincs."
X99/s2011 meg boven jo egy sok magos v3/v4 xeonnal.

Nalam a lap igy tamogatja:
5 x PCIe 3.0/2.0 x16 (single at x16, dual at x16/x16, triple at x16/x16/x8, quintuple at x8/x8/x8/x8/x8 mode)

Most dualban megy, de az explicit multi adaptert majd kiprobalom 3 kartyaval. Talan 4-gyel, ha elfernek :D

Ui: Amugy pont errol beszelgettunk nemreg Abu-val. Kar, hogy nincs jobban elterjedve, pedig csak par sornyi kodot kene irni hozza.

[ Szerkesztve ]

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#27) PROTRON válasza Z10N (#26) üzenetére


PROTRON
addikt

Én pont azért nem akartam 2011-es platformot, mert néztem hogy ott max 44 sávot oszt szét a slotok között és 3 kártya felett már le is esik a main kártya x8-ra....ezért vártam meg 2066-ból az új generációt hogy 48 legyen és abból is olyan alaplapot választottam ami tényleg ki is osztja a slotok irányába (ssd kárára). Nem kis fejtörést okozott átlátni a gyártók béna marketing és hiányos specifikáció leírásain. :D
Mert egyébként a korai x299-ok valójában kevesebbet tudtak mint az x99 kiforott változatai, egészen 2018ig. Akkoriban már megjelentek olyan deszkák és procik amik esetén volt értelme elgondolkodni egy x99->x299 váltáson, de előtte csak a hype volt nagy, valódi ár/érték nem érte meg. Valahol menet közben ezt is elszúrták inteléknél...most kezdik felvenni a fonalat és utolérni azt ahol 2018-ban tartani kellett volna.
Pl.: a legtöbb gyártó az új, 2019/2020-as deszkára ugyan ráírja hogy össz. 48 sáv, de ha az apróbetűt elolvasod akkor hamar kiderül hogy abból csak 44 megy direktben a slotokhoz, a maradék 4 a legtöbb esetben valamelyik ssd-hez megy, vagy megosztva de az ssd-t priorizálva amin nem tudsz változtatni felhasználóként.

Sajnos multi gpu kihasználó kódolás téren meg tudom érteni a fejlesztőket. Ha ráírod valamire hogy "beleírtuk azt a pár kódsort, tuti működik" akkor azt teljesíteni is kell...mármint az összes elképzelhető variánsra.
Így viszont a rengetegféle biztosíték és tesztelés már sok erőforrást venne el, sajnos nem csak annyi hogy 1 délután alatt a gyakornok beleírja azt a pár kódsort és éjszakára otthagyja futni a tesztkörnyezetet. :S
Én örülnék a legjobban ha úgy látnák a fejlesztők hogy megéri nekik.
Anno a több magos processzorok indulásakor is évek kellettek hogy rendesen elkezdjék kihasználni a potenciált, pedig a felhasználók részéről az megfizethető fejlődés volt.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#28) MeszesKPT


MeszesKPT
őstag

De továbbra is az a kérdés, hogy mi fog egy fejlesztőt arra késztetni, hogy egy ennyire réteg igényre fordítsa a cég drága erőforrásait.

(#29) ricsi99


ricsi99
addikt

Ha végre megoldanák ,hogy a prociban lévő gpu-t is tudnák használni a a játékok szerintem az már előrelépés lenne...

Egy Gyűrű mind fölött, Egy Gyűrű kegyetlen, Egy a sötétbe zár, bilincs az Egyetlen...

(#30) #16939776


#16939776
törölt tag

A lehetőség a multi-gpu-ra az egy dolog, az hogy optimalizlna-e rá a fejlesztő az egy másik, és harmadik az, hogy a usernél valós hardverkörnyezetben működik-e kielégítően.

Nekem az a véleményem: Ha egy játék x. évben igényli a KÉT gpu-t ahhoz, hogy élvezhető sebességgel fusson egy standard felbontáson, akkor azt nem az x. év hardvereire írták meg. Az x+1. évben már valószínű lesz olyan GPU ami EGYMAGA képes lesz hasonló (~80%) sebeséggel futtatni mint a 2 GPU, de ahhoz képest összehasonlíthatatlanul jobb folytonosság mellett, ami miatt már nem hat zavaróan a 20% alacsonyabb max. FPS ha a min. FPS közben nem reccen meg.
A legoptimálisabb esetben is (ha az első három feltétel maradéktalanul teljesül) ez akkor is CSAK egy áthidaló megoldás lehet, ami a játék megjelenése után 1 ével, a fejlesztőnek és a user-nek is nyűggé válik, mert mindkét szemszögből nézve, addigra lesz egyszerűbb, jobb, mindenkinek kényelmesebb megoldás a játék teljesítmény igényére.
Persze aki szimulátorozik, egyszerre több monitort használva, évekig ugyan azzal a setuppal, ugyan azzal a játékkal játszik, annak a multi-GPU support lehet optimális. És a játék fejlesztőtől elvárható, hogy kerüljön bele a játékba ez a megoldás, és persze folyamatosan javítsák a hibákat-folytonosságot.
A többiekre - szerintem - a véleményem első fele áll, akiket ellenpéldának lehet hozni pl.: bf5-öt két 2080ti-n nyomják, azt gondolom túl gyakori esetek ahhoz, hogy bármilyen statisztikában számítsanak, akár itt.

[ Szerkesztve ]

(#31) edward2 válasza PROTRON (#8) üzenetére


edward2
addikt

5600xt mellé egy 5500? Ez milyen felhasználói igény? A 2 kártya árából venni kell egyet ami a 2-nél jobb...

Dual gpu onnantól értelmezhető, hogy a 3090 nem elég...

(#32) makkmarce válasza ricsi99 (#29) üzenetére


makkmarce
őstag

Feleslegesen gyenge lenne, csak visszafogná, nem véletlen nincs ilyen megoldás.

okoskodom, tehát vagyok

(#33) PROTRON válasza edward2 (#31) üzenetére


PROTRON
addikt

Ne nekem mond, én csak válaszoltam, egy másik kolléga jelezte hogy ilyen igénye van.

Nálam most egy darab 1070 van, 65-ért vettem használtan, jelenleg gondolkodom hogy vegyek még1-et multi gpu érdekében szintén max ennyiért (nem érdekelnek a hisztizők, ennél többet nem ér használt piacon ez a típus), tehát a kérdés egyik fele esetemben hogy 130-ért kapnék-e olyan kártyát ami olyan erős mint a 1070 multi gpu konfigban. A másik fele hogy sikerülne-e 65-ért eladnom a jelenlegi kártyát.
És itt jön képbe az, hogy bizony ha nincs meg a budget az általad helyesnek vélt irányra, tehát nem tudja egyből megvenni a 3090-et akkor szerintem teljesen jó megoldás először venni egy olcsóbbat, amihez ha jól működik a multi gpu akkor fel tudjuk húzni a teljesítményt az eredetileg kívánt szintre.

Jelenleg azért gondolkodom hogy tényleg 1070-el próbálgassam a multi gput, vagy inkább ampere-re álljak át (figyelembe véve a költségvetési különbséget). :D

(#28) MeszesKPT

Egyik oldalról az, ha nem kell arányosan nagy mértékű erőforrást költenie rá, mert pl beépülő modulként csak elő kell hívni a mindenki computerén ott lévő hardver-softver-driver oldalról. Erre fele próbálnak haladni.

Másrészről ez olyan vita hogy minek fejleszt valaki 1080p feletti grafikai minőségre, hiszen a Steam statisztikák szerint a 1440p meg a 4k "csak réteg igény".
Szerintem az is lényeges szempont hogy egyes fejlesztők nagyon adnak a kinézetre, és ott eleve teljes más élmény lesz 1080p mint 4k esetén.
Így maga a fejlesztő cég reklámozni tudja magát hogy nézzétek milyen profin megcsináltuk ezt a projektet.
Persze megoldják hogy elfogadhatóan fusson a program gyengébb gépeken is, de azért lefejlesztik 4k-ra, aztán a fogyasztó meg csak pislog hogy a 2 millába kerülő gépe csak 30 fps-el tudja megjeleníteni...na ilyenkor lehet hozzányúlni a multigpu lehetőségekhez, mert egy második vga behelyezése a teljes 2 millás költségvetéshez viszonyítva már nem sok, és ott van a lehetőség hogy 240 hz-es monitort ki tudjon hajtani.

Továbbá bizonyos játékoknál a tömeg, a megjelenített fizikai elemek mennyisége, fizikája nagy mértékben hozzátesz az élményhez, és ha több erőforrás van, több elemet, több npct lehet mozgatni.

"Can it run CRYSIS (REMASTERED!!)?"....and in 4k?
RTX 3080 ----4k-----25...35 fps ;] ;]

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#34) Zotya84


Zotya84
őstag

Na, akkor, mivel látom, megkavartalak titeket: nem, nem valódi igény az 5500+5600, hanem elméleti a kérdés mert az ott idézett rész két mondata véleményem szerint üti egymást. Ezt akartam volna tisztázni. Ti meg elvittétek egy másik irányba. Sebaj, előferdül.

Nem, nem fogok ilyen összeállítást használni, egyelőre bőven jó a most is használt 7950-m, csak már kezdi a pályafutásának végét elérni, még vízzel is, ennyi év után. Valószínűleg a most beesett/beeső kártyák közül fogok válogatni, ha találok köztük számomra megfelelőt.

Mi ez a hülyeség? Nokiánál ütésállóságot nem fejszével kellene tesztelni, hanem elkezded ütni egy 3310-zel... - L3zl13

(#35) #09256960


#09256960
törölt tag

Na és mi van ezekkel a PAW-300 as gépekkel abban is több videókártya van

(#36) GodGamer5


GodGamer5
addikt

Tök jó lenne, ha elterjedne ez az újfajta többkártyás rendszer és akkor két középkategóriás kártyával is el lehet érni nagy teljesítményt.

"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"

(#37) Cs1csó válasza GodGamer5 (#36) üzenetére


Cs1csó
félisten

Ez nem gazdaságos. Mivel továbbra is nem túl sok játék fogja kihasználni tehát jobban jársz 1db bika erős kártyával mint 2db akármilyen kártyával.

(#38) #16939776 válasza GodGamer5 (#36) üzenetére


#16939776
törölt tag

Attól hogy két Trabantot egymás mellé vagy mögé teszel és össze heggeszted a vázukat, még nem lesz belőle kényelmes limuzin, nem fog jobban gyorsulni, és nem fog hamarabb odaérni sehova. Csak lesz egy jóval bonyolultabban irányítható járműved, ami optimális esetben - ha jó az implementáció, és rátermett a vezetője - 2x fogyasztással 2x annyi embert elszállít A-ból B-be.

Két közepes GPU-val, úgy hogy azok úgy vannak megtervezve hogy memória mennyiség és sávszélesség szempontjából nagyjából egyszerre érjenek a képességük határához, nem fogsz tudni kiváltani egy olyan GPU-t, amiben ha 100%-ban ki is van használva a GPU, egyikből vagy másikból de jellemzően mindkettőből marad még bőven tartalék.
Ezért Hi-end kártyából építettek jellemzően SLI-t és CF-et, mert ott még a kártyákban volt annyi erőforrástartalék, amit a többlet adat mozgatásra/tárolásra fel lehetett használni, így nem lassul be vagy laggolta szét magát a játék, ha be kellett tölteni 1db textúrát.

[ Szerkesztve ]

(#39) GodGamer5 válasza #16939776 (#38) üzenetére


GodGamer5
addikt

Csak álmodoztam, hogy 2db 2060-nal megváltom a világot... :)

"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"

(#40) Cs1csó válasza GodGamer5 (#39) üzenetére


Cs1csó
félisten

Értelmetlen inkább helyette 1db 3070

(#41) Robitrix


Robitrix
senior tag

a több kártyának ma nem sok értelme van. két GPU esetén nem lesz dupla a teljesítmény, hanem csak úgy 30-40%kal több, mint egy kártyával. Ráadásul csak azokban a programokban amelyek direkt fel vannak készítve a több GPU-s működésre. Vagyis drágán kicsi teljesítmény növekedést érhetünk el nagyon kevés programban. Nem éri meg....

(#42) Robitrix


Robitrix
senior tag

amúgy létezik a dologra gyári megoldás... :) Úgy hívják Mac Pro
Ez egy munkaállomás melybe maximális kiépítésben 2 darab 14 /28-as xeon w proci van.
kaphat egy Radeon PRO Vega II Duo MPX modult grafikának, amiben két VEGA GPU van. Ebből a modulból kettőt lehet berakni ami által 4 darab GPU működik a gépben.
Egyetlen apróbb gond van vele, hogy maximális kiépítésben 2 CPU 4 GPU max memória 12 darab 64 GB-os RAM modul. 1,4 KW-os tápegység van hozzá. és egy 4K márkás monitor úgy félmillióért.
2 darab 4 TB-os SSD,
Az induló ár 2,5 millió a maximális kiépítés 10 millió körül van. :)

(#43) Cs1csó válasza Robitrix (#42) üzenetére


Cs1csó
félisten

Akkor már csak egy kérdés maradt: pirosban kapható?

(#44) Eugene Roe válasza #16939776 (#38) üzenetére


Eugene Roe
őstag

Szar példa, helyesen úgy hangozna, hogyha egy motorcsónakra 1 helyett 2 suzuki csónakmotort, vagy 1 mazdába 1 helyett 2 wankelt kötsz, akkor mi lesz :B

It'll hurt... a lot, but you'll be better - you say?!

(#45) Cs1csó válasza Eugene Roe (#44) üzenetére


Cs1csó
félisten

Lehet ez sem jó példa talán ez: két közepes traktor együtt erősen tud húzni de ha ezek helyett egy db csúcsmodellt vennél az erősebb lenne kettejüknél is de közben kevesebb sofőr és kevesebb üzemanyag kellene.

(#46) PROTRON válasza Robitrix (#42) üzenetére


PROTRON
addikt

Jó de mi számítógépekről és használati lehetőségekről beszélgetünk itt, nem pedig konyhai kiegészítőkről meg azoknak a 20 millió huf (a 10-el eléggé alábecsülted)-os dizájner áráról.
Még a célközönség, a bollywoodos filmesek is dobtak egy hátast hogy ezen az átverésen még ők is átlátnak. :D
Amúgy pont a gpu választás miatt ekézték is hogy szép-szép a teljesítmény de ezért a pénzért lehetett volna erősebb gpuval is szerelni...a sok minden egyéb mellett, pl jakuzzi, masszázs fotel, esetleg thai lányok :Y

Amúgy viccet félretéve igazán hozhattál volna valódi gyártóktól is "gyári" megoldást, mert vannak még. :P

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#47) #31600896 válasza Duree (#5) üzenetére


#31600896
törölt tag

Nekem sincs még egy sem, nemhogy kettő. :DDD

(#48) DextyPremium válasza koko52 (#3) üzenetére

@Koko52 Tudom, hogy irónia, mindenesetre a 3090 még támogatja az SLI-t :D

Microsoft Termékek ÁFÁS SZÁMLÁVAL | Mobil: +36 20 777 0 777 | Amennyiben a vásárlás SOS, úgy az előbbi telefonszámon bátran hívj minket!

(#49) Kansas válasza DextyPremium (#48) üzenetére


Kansas
addikt

NVlink-et támogatja... kövezzetek meg, de én eddig azt hittem, hogy az NVlink és az SLI nem ugyanaz

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#50) Robitrix válasza PROTRON (#46) üzenetére


Robitrix
senior tag

emlékeim szerint az alap modell kerül 3,2 millióba. de lehet, hogy tévedek... tavaly olvastam róla a cikket.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.