Hirdetés

2020. október 20., kedd

Gyorskeresés

Hozzászólások

(#1) PROTRON


PROTRON
(tag)

Jól értem ezek szerint hogy mégse volt rossz választás az x299 platformra beruháznom kifejezetten a több GPU lehetősége miatt...(költői kérdés mert jelenleg nem használnom ki, de a hosszú távú tervek miatt kellhet)

Tehát a trend valójában az hogy ezentúl nem kell extra kiegészítőt használni a két kártya közötti összekötésre csak megfelelő generáció fog kelleni?
Csak mert az 1 dolog hogy kevés eszköz használja a több gpu lehetőséget, de mindenki károgott hogy ha eltűnik a csatlakozó akkor végleg reszeltek az ötletnek.

Ezek szerint a fejlesztők csak okosabbak mint egy 5.-es, és ha el lehet adni egy géphez 3 VGA-t, akkor miért zúznák be a használhatóság lehetőségét. :Y

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#2) b.


b.
(nagyúr)

szép Írás ! :R

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) PSN: Wijberto: Xbox Live : Tiboa

(#3) koko52


koko52
(veterán)

Pont terveztem két 3090-et venni. Na mindegy...

A temetők a nagy népsűrűség ellenére a legmagányosabb helyek a világon. John Ajvide Lindqvist: Élőhalottak!

(#4) PROTRON


PROTRON
(tag)

Amúgy ebben a cikkben az kimaradt, de időközben megtaláltam hogy a lejjebb lévő, szintén az új nvidia kártyákkal foglalkozó cikkben megemlítették az Nvlink hidat. Tehát hogy ha 2 db 3090-es kártyát használ az ügyfél, akkor a méregdrága NVLINK továbbra is beüzemelhető, így a korábbi SLI technológiával szemben ahol a kártyák memóriája nem skálázódott, az új megoldással szépen fel lehet tornászni a kapacitást.

Ami még érdekelne hogy régebben volt mód 3 illetve 4 utas SLI-re bizonyos alaplapoknál úgy, hogy az adott 3. vagy 4. PCIE slot már nem x16-ra volt huzalozva. Itt a cikkben oké hogy x16 fizikai hosszúság kell, de ha csak x8-ra vannak kötve a sávok akkor is működni fog a dolog az új modszerrel, kártyák közötti összekötés nélkül, vagy alaplapi sávok terén is kell az a x16?

Továbbá ha már elszalad a fantázia, régebben voltak dupla GPU-s VGA-k, amikből lehetett quad SLI-t kihozni...na most elvileg ha már nem a deszka az akadálya, akkor a jövőben lehet eljön az idő a tényleges, akár OCTO üzemmódnak?
Mert úgy már van értelme gen 4 x16-ra tervezni. :D

Bár akkor majd az x299 lap+procimat cseréhetem majd le x499-re, ddr6-al. :O

Lelki szemeim előtt már látok egy teljesen valósághű VR harci szimulációt Battlestar Galactica-ban. Ahol már nem csak be rajzolva vannak a töltények és az algoritmus a kiinduló értékek alapján számolja ki a találatot, hanem ténylegesen ott van 2 millió lövedék fizikailag leszimulálva, 300 Raiderrel, meg 100 ezer mikro meteorittal úgy hogy ezredmásodpercre lebontva történnek a dinamikai kalkulációk az aktuális koordinátán szintén dinamikusan változó gravitációt is figyelembe véve...
Én meg csak forgolódok a 100%-ban megtervezett, filmes CGI szinten élethű cockpitben és ámuldozok...amíg ki nem lőnek.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#5) Duree válasza koko52 (#3) üzenetére


Duree
(veterán)

Én is pont ezt gondoltam, de azért lenne megoldás ahogy olvasom. Kár mert 1db-ra se telik.

(#6) PROTRON válasza Duree (#5) üzenetére


PROTRON
(tag)

Majd 2080TI-ből, amikor annak leesik az ára...furcsállom azokat akiknek annyira sürgőssé vált a gép vásárlás hogy szeptemberben, a 30x0 bejelentése után is berendelik a 2080-asokat...egész évben eddig vártak, most hogy megjelent az új, kb annyiért mint az új generáció beérik a csökkentett teljesítménnyel, de legalább 2 hónappal korábban...

Aztán meg majd megy a rinyálás HA-n hogy miért nem veszik meg a használt kártyáikat az új generációs árban, hiszen az övén is van garancia, most szeptemberben vette. :C

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#7) Zotya84


Zotya84
(őstag)

"Pusztán arra kell figyelni, hogy a két VGA hasonló legyen. Az az optimális, ha ugyanolyan, de ha az eszközazonosító megegyezik, akkor az már elég a rendszer működéséhez."

A hasonlóság alapján azt mondanám, hogy ha egy 5600XT mellé bepattintok egy 5500XT-t, akkor már menni fog? Hisz elég hasonlók, csak nem ugyanazok. Viszont akkor meg nem egyezik eszközazonosító, ami alapján meg nem mehet. Ezt kibogozná nekem valaki, hogy hol értem félre – már, ha én?

A Civ6 hogyan használja azt az unlinked módot? Arra elég egy link, ha valaki tud olyat adni, mert nem nagyon olvastam még erről sehol. Igaz, nem is túlzottan kerestem. Köszi.

(#8) PROTRON válasza Zotya84 (#7) üzenetére


PROTRON
(tag)

Nem biztos hogy jót írok, de az én értelmezésem hogy szándékosan hangsúlyozta ki az eszközazonosítót az elején, hiszen a "linkelt mód" amit a több gpu-t támogató szoftverek halmazából többen használnak, az érzékenyebb erre.
Tehát ha nekem van a gépemben egy gigabyte gaminig G1 1070 rev 2.0 kártyám, a régi SLI esetén ehhez ugyanilyen gigabyte...rev 2.0 kártyát kellett beraknom a híd másik végére hogy ne legyen gubanc.
Az új "linkelt mód" rendszerben meg ha berakok mellé egy EVGA 1070-et akkor már elfognak kommunikálni mindenképpen. Míg ha 1060-at rakok akkor több gubancom lehet linkelt módot használó eszköz esetén.

Az "unlinkelt módot" úgy értelmezem, hogy ott már használhatóan működik az általad említett 5600xt mellé 5500-as kártya, csak az a gond hogy az amúgy is kevés multi GPU erőforrásra fejlesztő cégek közül még kevesebb fejleszt ezzel a változattal, pedig ez szolgálná a felhasználók igényeit.

Tehát ha biztosra akarsz menni akkor kénytelen leszel a linkelt módot feltételezni annak a korlátaival.

Azért is az Unlikelt módra lenne igény, mert a sima consumer deszkák ha támogatják is hogy több videókártyát rakj bele, a prociba akkor is csak x16 sáv van bekötve, tehát ez megoszlik, így a nagyobb teljesítményű 2. kártyát legtöbb esetben amúgy sem tudnád full sebességen kihajtani, pl 16 sávból 4 elmegy az m.2-be, 8 az elsődleges VGA-ba, 4 marad a másodlagosnak. Vagy eleve a másodlagosba tartó 4 már a csipseten keresztül érkezik nem közvetlen a cpuból.

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#9) Darmol


Darmol
(tag)

Én azt olvasom ki a cikkből, hogy ABU egy olyan szép új jövőről beszél, ahol a RTX 3090 mellett ott zümmög az RX6950, mert együtt tudnak dolgozni. :DDD

A vérem piros. A sznoboké kék. Zöld a szörnyeké.

(#10) LGG555


LGG555
(tag)

Minek a 2 kártyás megoldás amikor 1 kártya is méreg drága és a legtöbb játékban a második VGA csak pihenget?

(#11) Zotya84 válasza PROTRON (#8) üzenetére


Zotya84
(őstag)

Egynek jó, remélem jó úton járunk. Köszönöm.
Annyi korrigálásom lenne, hogy a Ryzenekben 24 PCIE lane van, abból x4 Chipset, x4 m.2 tudtommal. Így az x16 megmarad 1*x16 vagy 2*8-nak, nem esik vissza x4-re két kártya esetén, csak 3-nál, ott x8-x4-x4 lesz a felállás. (Az x370-es lapom leírása alapján tuti.)

(#12) proci985 válasza PROTRON (#8) üzenetére


proci985
(MODERÁTOR)

felreerted

sli es crossfire eseten adott GPUbol kettot lehetett osszekotni. tehat pl egy 290X es egy 290 elvileg ment egyutt (bar a 290 szintjen limitalva), 1070bol is osszekothettel ket akarmilyet, es ment. egyezo orajel mondjuk segitett.

elvileg most mehetne az is, hogy egy barmilyen kartya melle berakhatsz barmi masikat, de azt tamogatja ket jatek. erre nem alapoznek.

desktop ryzen biztosan tud x8+x8at (x370en), ezt tapasztalatbol irom.

---

egyebkent sajnos a multigpu kb halott a gyakorlatban.

[ Szerkesztve ]

Social distancing in lagom amount.

(#13) Kansas válasza proci985 (#12) üzenetére


Kansas
(őstag)

Nem sok olyan consumer CPU és/vagy alaplap van, amiben x16+x16 konfigba lehetne két VGA-t tenni, esetleg HEDT vonalon

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka...

(#14) Lenry


Lenry
(nagyúr)
LOGOUT blog (1)

nagyon rég nem foglalkoztam ezzel a témával, de most nézem, hogy a gépemben lévő RX580 mellé nem volna egetrengető egy második.
volna emellett valami más megkötés is?
a gépem alapjai nem maiak, de van két hosszú PCIe foglalat a lapomon (igaz a második csak x4 sebességű), akkor ezzel is működne?

Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data

(#15) proci985 válasza Kansas (#13) üzenetére


proci985
(MODERÁTOR)

ja, intelnel s2066 nem versenykepes, AMDnel TRx irdatlanul draga, TR4bol pedig a CPU limites. mas modern rendszer nincs.

nalam is azert lett x16 - x16 -> x8 - x8 anno, nem volt mire valtani.

Social distancing in lagom amount.

(#16) Abu85 válasza PROTRON (#4) üzenetére


Abu85
(HÁZIGAZDA)

Mindegy, hogy rákötöd-e az NVLinket. Nem azon keresztül kommunikálnak a DX12/Vulkan játékok. A DMA motorokat használják, és a PCI Express interfészen közlekedik minden adat. Az NVLink egy játékosnak masszív pénzkidobás, DX12/Vulkan játékban sosem megy majd rajta keresztül adat. A DX11-re pedig megszűnik a támogatás január 1-jén.

Explicit multiadapterrel bármi megoldható. Akár 20 GPU is. A Nitrous 2 például olyan megoldást használ, ami annyi GPU-ra skálázódik, amennyi shading pipeline van. Ha mondjuk ezer, akkor simán leskálázódik 1001 GPU-ra.

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#17) nexplo válasza Lenry (#14) üzenetére


nexplo
(senior tag)

Szerintem működne a lapodban így ránézésre. Az már más kérdés hogy mennyit nyernél sebességben. A fogyasztást már nem is mondom hogy ugye duplázódna.. :)

Zavard össze a világot: mosolyogj hétfőn! :)

(#18) PROTRON válasza proci985 (#12) üzenetére


PROTRON
(tag)

Lehet hogy félreérthetően írtam, de a nagy részében egyetértünk.
Az egyetlen különbség, hogy még nem próbáltam ki menne-e nem giga rev 2.0-ás kártyával stabilan az SLI a gépemben, viszont neten azt olvastam hogy a 10x0 generáció még érzékeny erre, tehát ugyanilyen rev 1.0 kártyával lehet hogy menne, de más márkától érkező 1070 kártya esetén amit te írsz, ahhoz már az új módszer kellene.
Amennyire én tudom az SLI nagyon érzékenyen megkövetelte a minél azonosabb kártyák jelenlétét.
De ha vannak ilyen jellegű személyes aktív tesztelési tapasztalataid nvidiaval, akkor kénytelen vagyok elfogadni, mivel még nem próbáltam ki semmilyen SLI-t. :)

Igen a fentebbi írásomnál elegánsan elsiklottam afelett hogy amd alaplapoknál 16 helyett 20 megy a PCIEx busra, régebben is intel alaplapom volt és mérnökként úgy vagyok vele hogy átlagosan rosszabb scenárióra készülök, ha nem is a legrosszabbra...meg egyébként is szem előtt tartva hogy mit rakott le az AMD az asztalra akkor is inkább intel felé húzok. :P

Jelenleg intel x299-em van, szóval ilyen jellegű limitem nem lesz ha, inkább úgy írom amikor elindulok ebbe az irányba. ;)

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#19) PROTRON válasza Abu85 (#16) üzenetére


PROTRON
(tag)

Bocs a dupla posztért.
Ha még egyszer átolvasod az írásomat amire reagáltál, nem tettem említést arról hogy Nvlink esetén hol folyik kommunikáció, csak a megnövekedett memória kapacitásról idéztem be másik cikkből értekezést.

Amúgy egyetértek a játékok terén való jelenlegi használhatatlanságról, ezért is írtam úgy hogy "méregdrága nvlink", én is úgy látom hogy csak speciális munka-kutatási környezetben éri meg jelenleg használni.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#20) Abu85 válasza PROTRON (#19) üzenetére


Abu85
(HÁZIGAZDA)

A memory pool kiterjesztését a program oldalán kell direkten támogatni CUDA alól.

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#21) proci985 válasza PROTRON (#18) üzenetére


proci985
(MODERÁTOR)

slim nem volt, de ahogy a crossfirenel, ugy ahogy tudom az slinel is mindegy volt, hogy melyik gyarto milyen modellje van bekotve.

viszont tuningprogramokat eltero kartyakkal kb el lehetett felejteni, meg valamennyire a ventivezerles is problemas volt.

6 evig multigpuztam 2013 es 2019 kozott

Social distancing in lagom amount.

(#22) Kansas válasza PROTRON (#18) üzenetére


Kansas
(őstag)

Az i7-7800X procid(ha még az van) 28 PCIe sávot támogat maximum, abból nem fog kijönni a x16+x16, de egy több sávot támogató procira cserélve neked legalább esélyed van rá, konzumer procik és lapok csak az x8+x8-at támogatják - bár lehet valami extraspéci überhigh-end lap, amire tettek extra PCIe vezérlőt, hogy a slotok egymás közt is 16 sávon tudjanak kommunikálni, de a proci felé akkor se lesz több sáv.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka...

(#23) PROTRON válasza Kansas (#22) üzenetére


PROTRON
(tag)

Pontosan ezért választottam ezt a platformot. Első körben csak erre volt keret, aztán ahogy nézem azóta lejjebb is mentek az új proci árak, továbbá mivel még nincs második GPU tatár sem hajt.

Amúgy PLX csipnek (mert ő gyártja)hívják ami a prociból érkező x16 sávszélességet az aktuális igényeknek megfelelően szórja szét 2-3 slot között, de amennyire néztem az is főképp HEDT platformokon van, ahol már 6-8 vga támogatásáról van szó.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#24) Kopi31415


Kopi31415
(félisten)

Pro oldalon hogy néz ez ki? Tehát Quadro, FirePro vonalon, valamint GPGPU területen.

Part to Part | Status:122% completed | Estimated time remaining:1193hr 2min 30sec ----- Converting Data | Status: 425% completed | Estimated time remaining: 1193hr46sec

(#25) yagami01


yagami01
(tag)

" A több GPU-s irány kétségtelenül úgy tűnhet, hogy a haláltusáját vívja, de az sem kizárható, hogy most születik csak igazán meg. "
Reméljük utóbbi. :) Jó lenne, ha újra megérné a több kártya.

(#26) Z10N válasza proci985 (#15) üzenetére


Z10N
(addikt)

"mas modern rendszer nincs."
X99/s2011 meg boven jo egy sok magos v3/v4 xeonnal.

Nalam a lap igy tamogatja:
5 x PCIe 3.0/2.0 x16 (single at x16, dual at x16/x16, triple at x16/x16/x8, quintuple at x8/x8/x8/x8/x8 mode)

Most dualban megy, de az explicit multi adaptert majd kiprobalom 3 kartyaval. Talan 4-gyel, ha elfernek :D

Ui: Amugy pont errol beszelgettunk nemreg Abu-val. Kar, hogy nincs jobban elterjedve, pedig csak par sornyi kodot kene irni hozza.

[ Szerkesztve ]

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#27) PROTRON válasza Z10N (#26) üzenetére


PROTRON
(tag)

Én pont azért nem akartam 2011-es platformot, mert néztem hogy ott max 44 sávot oszt szét a slotok között és 3 kártya felett már le is esik a main kártya x8-ra....ezért vártam meg 2066-ból az új generációt hogy 48 legyen és abból is olyan alaplapot választottam ami tényleg ki is osztja a slotok irányába (ssd kárára). Nem kis fejtörést okozott átlátni a gyártók béna marketing és hiányos specifikáció leírásain. :D
Mert egyébként a korai x299-ok valójában kevesebbet tudtak mint az x99 kiforott változatai, egészen 2018ig. Akkoriban már megjelentek olyan deszkák és procik amik esetén volt értelme elgondolkodni egy x99->x299 váltáson, de előtte csak a hype volt nagy, valódi ár/érték nem érte meg. Valahol menet közben ezt is elszúrták inteléknél...most kezdik felvenni a fonalat és utolérni azt ahol 2018-ban tartani kellett volna.
Pl.: a legtöbb gyártó az új, 2019/2020-as deszkára ugyan ráírja hogy össz. 48 sáv, de ha az apróbetűt elolvasod akkor hamar kiderül hogy abból csak 44 megy direktben a slotokhoz, a maradék 4 a legtöbb esetben valamelyik ssd-hez megy, vagy megosztva de az ssd-t priorizálva amin nem tudsz változtatni felhasználóként.

Sajnos multi gpu kihasználó kódolás téren meg tudom érteni a fejlesztőket. Ha ráírod valamire hogy "beleírtuk azt a pár kódsort, tuti működik" akkor azt teljesíteni is kell...mármint az összes elképzelhető variánsra.
Így viszont a rengetegféle biztosíték és tesztelés már sok erőforrást venne el, sajnos nem csak annyi hogy 1 délután alatt a gyakornok beleírja azt a pár kódsort és éjszakára otthagyja futni a tesztkörnyezetet. :S
Én örülnék a legjobban ha úgy látnák a fejlesztők hogy megéri nekik.
Anno a több magos processzorok indulásakor is évek kellettek hogy rendesen elkezdjék kihasználni a potenciált, pedig a felhasználók részéről az megfizethető fejlődés volt.

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#28) MeszesKPT


MeszesKPT
(őstag)

De továbbra is az a kérdés, hogy mi fog egy fejlesztőt arra késztetni, hogy egy ennyire réteg igényre fordítsa a cég drága erőforrásait.

(#29) ricsi99


ricsi99
(őstag)

Ha végre megoldanák ,hogy a prociban lévő gpu-t is tudnák használni a a játékok szerintem az már előrelépés lenne...

Egy Gyűrű mind fölött, Egy Gyűrű kegyetlen, Egy a sötétbe zár, bilincs az Egyetlen...

(#30) Duracellm...


Duracellm...
(veterán)

A lehetőség a multi-gpu-ra az egy dolog, az hogy optimalizlna-e rá a fejlesztő az egy másik, és harmadik az, hogy a usernél valós hardverkörnyezetben működik-e kielégítően.

Nekem az a véleményem: Ha egy játék x. évben igényli a KÉT gpu-t ahhoz, hogy élvezhető sebességgel fusson egy standard felbontáson, akkor azt nem az x. év hardvereire írták meg. Az x+1. évben már valószínű lesz olyan GPU ami EGYMAGA képes lesz hasonló (~80%) sebeséggel futtatni mint a 2 GPU, de ahhoz képest összehasonlíthatatlanul jobb folytonosság mellett, ami miatt már nem hat zavaróan a 20% alacsonyabb max. FPS ha a min. FPS közben nem reccen meg.
A legoptimálisabb esetben is (ha az első három feltétel maradéktalanul teljesül) ez akkor is CSAK egy áthidaló megoldás lehet, ami a játék megjelenése után 1 ével, a fejlesztőnek és a user-nek is nyűggé válik, mert mindkét szemszögből nézve, addigra lesz egyszerűbb, jobb, mindenkinek kényelmesebb megoldás a játék teljesítmény igényére.
Persze aki szimulátorozik, egyszerre több monitort használva, évekig ugyan azzal a setuppal, ugyan azzal a játékkal játszik, annak a multi-GPU support lehet optimális. És a játék fejlesztőtől elvárható, hogy kerüljön bele a játékba ez a megoldás, és persze folyamatosan javítsák a hibákat-folytonosságot.
A többiekre - szerintem - a véleményem első fele áll, akiket ellenpéldának lehet hozni pl.: bf5-öt két 2080ti-n nyomják, azt gondolom túl gyakori esetek ahhoz, hogy bármilyen statisztikában számítsanak, akár itt.

[ Szerkesztve ]

(#31) edward2 válasza PROTRON (#8) üzenetére


edward2
(addikt)

5600xt mellé egy 5500? Ez milyen felhasználói igény? A 2 kártya árából venni kell egyet ami a 2-nél jobb...

Dual gpu onnantól értelmezhető, hogy a 3090 nem elég...

(#32) makkmarce válasza ricsi99 (#29) üzenetére


makkmarce
(tag)

Feleslegesen gyenge lenne, csak visszafogná, nem véletlen nincs ilyen megoldás.

(#33) PROTRON válasza edward2 (#31) üzenetére


PROTRON
(tag)

Ne nekem mond, én csak válaszoltam, egy másik kolléga jelezte hogy ilyen igénye van.

Nálam most egy darab 1070 van, 65-ért vettem használtan, jelenleg gondolkodom hogy vegyek még1-et multi gpu érdekében szintén max ennyiért (nem érdekelnek a hisztizők, ennél többet nem ér használt piacon ez a típus), tehát a kérdés egyik fele esetemben hogy 130-ért kapnék-e olyan kártyát ami olyan erős mint a 1070 multi gpu konfigban. A másik fele hogy sikerülne-e 65-ért eladnom a jelenlegi kártyát.
És itt jön képbe az, hogy bizony ha nincs meg a budget az általad helyesnek vélt irányra, tehát nem tudja egyből megvenni a 3090-et akkor szerintem teljesen jó megoldás először venni egy olcsóbbat, amihez ha jól működik a multi gpu akkor fel tudjuk húzni a teljesítményt az eredetileg kívánt szintre.

Jelenleg azért gondolkodom hogy tényleg 1070-el próbálgassam a multi gput, vagy inkább ampere-re álljak át (figyelembe véve a költségvetési különbséget). :D

(#28) MeszesKPT

Egyik oldalról az, ha nem kell arányosan nagy mértékű erőforrást költenie rá, mert pl beépülő modulként csak elő kell hívni a mindenki computerén ott lévő hardver-softver-driver oldalról. Erre fele próbálnak haladni.

Másrészről ez olyan vita hogy minek fejleszt valaki 1080p feletti grafikai minőségre, hiszen a Steam statisztikák szerint a 1440p meg a 4k "csak réteg igény".
Szerintem az is lényeges szempont hogy egyes fejlesztők nagyon adnak a kinézetre, és ott eleve teljes más élmény lesz 1080p mint 4k esetén.
Így maga a fejlesztő cég reklámozni tudja magát hogy nézzétek milyen profin megcsináltuk ezt a projektet.
Persze megoldják hogy elfogadhatóan fusson a program gyengébb gépeken is, de azért lefejlesztik 4k-ra, aztán a fogyasztó meg csak pislog hogy a 2 millába kerülő gépe csak 30 fps-el tudja megjeleníteni...na ilyenkor lehet hozzányúlni a multigpu lehetőségekhez, mert egy második vga behelyezése a teljes 2 millás költségvetéshez viszonyítva már nem sok, és ott van a lehetőség hogy 240 hz-es monitort ki tudjon hajtani.

Továbbá bizonyos játékoknál a tömeg, a megjelenített fizikai elemek mennyisége, fizikája nagy mértékben hozzátesz az élményhez, és ha több erőforrás van, több elemet, több npct lehet mozgatni.

"Can it run CRYSIS (REMASTERED!!)?"....and in 4k?
RTX 3080 ----4k-----25...35 fps ;] ;]

[ Szerkesztve ]

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#34) Zotya84


Zotya84
(őstag)

Na, akkor, mivel látom, megkavartalak titeket: nem, nem valódi igény az 5500+5600, hanem elméleti a kérdés mert az ott idézett rész két mondata véleményem szerint üti egymást. Ezt akartam volna tisztázni. Ti meg elvittétek egy másik irányba. Sebaj, előferdül.

Nem, nem fogok ilyen összeállítást használni, egyelőre bőven jó a most is használt 7950-m, csak már kezdi a pályafutásának végét elérni, még vízzel is, ennyi év után. Valószínűleg a most beesett/beeső kártyák közül fogok válogatni, ha találok köztük számomra megfelelőt.

(#35) METE0


METE0
(kezdő)

Na és mi van ezekkel a PAW-300 as gépekkel abban is több videókártya van

"A Vörös 50. árnyalata a kék".: Raja Koduri

(#36) GodGamer5


GodGamer5
(őstag)

Tök jó lenne, ha elterjedne ez az újfajta többkártyás rendszer és akkor két középkategóriás kártyával is el lehet érni nagy teljesítményt.

PRÉMIUM MINŐSÉGŰ HIGH END Csöves erősítő ÁR ALATT ELADÓ !!! - https://hardverapro.hu/apro/alkukepes_egyedi_premium_minosegu_high_end_csoves/hsz_1-200.html

(#37) csicso82 válasza GodGamer5 (#36) üzenetére


csicso82
(nagyúr)

Ez nem gazdaságos. Mivel továbbra is nem túl sok játék fogja kihasználni tehát jobban jársz 1db bika erős kártyával mint 2db akármilyen kártyával.

(#38) Duracellm... válasza GodGamer5 (#36) üzenetére


Duracellm...
(veterán)

Attól hogy két Trabantot egymás mellé vagy mögé teszel és össze heggeszted a vázukat, még nem lesz belőle kényelmes limuzin, nem fog jobban gyorsulni, és nem fog hamarabb odaérni sehova. Csak lesz egy jóval bonyolultabban irányítható járműved, ami optimális esetben - ha jó az implementáció, és rátermett a vezetője - 2x fogyasztással 2x annyi embert elszállít A-ból B-be.

Két közepes GPU-val, úgy hogy azok úgy vannak megtervezve hogy memória mennyiség és sávszélesség szempontjából nagyjából egyszerre érjenek a képességük határához, nem fogsz tudni kiváltani egy olyan GPU-t, amiben ha 100%-ban ki is van használva a GPU, egyikből vagy másikból de jellemzően mindkettőből marad még bőven tartalék.
Ezért Hi-end kártyából építettek jellemzően SLI-t és CF-et, mert ott még a kártyákban volt annyi erőforrástartalék, amit a többlet adat mozgatásra/tárolásra fel lehetett használni, így nem lassul be vagy laggolta szét magát a játék, ha be kellett tölteni 1db textúrát.

[ Szerkesztve ]

(#39) GodGamer5 válasza Duracellm... (#38) üzenetére


GodGamer5
(őstag)

Csak álmodoztam, hogy 2db 2060-nal megváltom a világot... :)

PRÉMIUM MINŐSÉGŰ HIGH END Csöves erősítő ÁR ALATT ELADÓ !!! - https://hardverapro.hu/apro/alkukepes_egyedi_premium_minosegu_high_end_csoves/hsz_1-200.html

(#40) csicso82 válasza GodGamer5 (#39) üzenetére


csicso82
(nagyúr)

Értelmetlen inkább helyette 1db 3070

(#41) Robitrix


Robitrix
(tag)

a több kártyának ma nem sok értelme van. két GPU esetén nem lesz dupla a teljesítmény, hanem csak úgy 30-40%kal több, mint egy kártyával. Ráadásul csak azokban a programokban amelyek direkt fel vannak készítve a több GPU-s működésre. Vagyis drágán kicsi teljesítmény növekedést érhetünk el nagyon kevés programban. Nem éri meg....

(#42) Robitrix


Robitrix
(tag)

amúgy létezik a dologra gyári megoldás... :) Úgy hívják Mac Pro
Ez egy munkaállomás melybe maximális kiépítésben 2 darab 14 /28-as xeon w proci van.
kaphat egy Radeon PRO Vega II Duo MPX modult grafikának, amiben két VEGA GPU van. Ebből a modulból kettőt lehet berakni ami által 4 darab GPU működik a gépben.
Egyetlen apróbb gond van vele, hogy maximális kiépítésben 2 CPU 4 GPU max memória 12 darab 64 GB-os RAM modul. 1,4 KW-os tápegység van hozzá. és egy 4K márkás monitor úgy félmillióért.
2 darab 4 TB-os SSD,
Az induló ár 2,5 millió a maximális kiépítés 10 millió körül van. :)

(#43) csicso82 válasza Robitrix (#42) üzenetére


csicso82
(nagyúr)

Akkor már csak egy kérdés maradt: pirosban kapható?

(#44) Eugene Roe válasza Duracellm... (#38) üzenetére


Eugene Roe
(őstag)

Szar példa, helyesen úgy hangozna, hogyha egy motorcsónakra 1 helyett 2 suzuki csónakmotort, vagy 1 mazdába 1 helyett 2 wankelt kötsz, akkor mi lesz :B

It'll hurt... a lot, but you'll be better - you say?!

(#45) csicso82 válasza Eugene Roe (#44) üzenetére


csicso82
(nagyúr)

Lehet ez sem jó példa talán ez: két közepes traktor együtt erősen tud húzni de ha ezek helyett egy db csúcsmodellt vennél az erősebb lenne kettejüknél is de közben kevesebb sofőr és kevesebb üzemanyag kellene.

(#46) PROTRON válasza Robitrix (#42) üzenetére


PROTRON
(tag)

Jó de mi számítógépekről és használati lehetőségekről beszélgetünk itt, nem pedig konyhai kiegészítőkről meg azoknak a 20 millió huf (a 10-el eléggé alábecsülted)-os dizájner áráról.
Még a célközönség, a bollywoodos filmesek is dobtak egy hátast hogy ezen az átverésen még ők is átlátnak. :D
Amúgy pont a gpu választás miatt ekézték is hogy szép-szép a teljesítmény de ezért a pénzért lehetett volna erősebb gpuval is szerelni...a sok minden egyéb mellett, pl jakuzzi, masszázs fotel, esetleg thai lányok :Y

Amúgy viccet félretéve igazán hozhattál volna valódi gyártóktól is "gyári" megoldást, mert vannak még. :P

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#47) Miki-B válasza Duree (#5) üzenetére


Miki-B
(senior tag)

Nekem sincs még egy sem, nemhogy kettő. :DDD

(#48) DextyPremium válasza koko52 (#3) üzenetére

@Koko52 Tudom, hogy irónia, mindenesetre a 3090 még támogatja az SLI-t :D

Microsoft Termékek ÁFÁS SZÁMLÁVAL | Mobil: +36 20 777 0 777

(#49) Kansas válasza DextyPremium (#48) üzenetére


Kansas
(őstag)

NVlink-et támogatja... kövezzetek meg, de én eddig azt hittem, hogy az NVlink és az SLI nem ugyanaz

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka...

(#50) Robitrix válasza PROTRON (#46) üzenetére


Robitrix
(tag)

emlékeim szerint az alap modell kerül 3,2 millióba. de lehet, hogy tévedek... tavaly olvastam róla a cikket.

Copyright © 2000-2020 PROHARDVER Informatikai Kft.