Hirdetés

2024. április 26., péntek

Gyorskeresés

Hozzászólások

(#51) Shing válasza Robitrix (#42) üzenetére


Shing
őstag

De ez ugyan úgy működik mint bármelyik 2 GPU-s kártya. Ugyan úgy nem használná ki semmi ha nincs rá optimalizálás. Az is CF/SLI módban működhetnek egymással vagy pedig ami a cikkben is le lett írva. (Persze szigorúan csak játékokat nézve)

(#52) Steve_Brown


Steve_Brown
aktív tag

Soha többet nem lesz R9 295x2 :(

(#53) makkmarce válasza Robitrix (#50) üzenetére


makkmarce
őstag

érdemes megnézned mit is tartalmaz az az alapmodel 6000USD-ért :D
(580-as videókártya, 32gb ram, xeon 8 magos proci, 256gb SSD).
Ez inkább irodai dísz, mint munkaállomás.

[ Szerkesztve ]

okoskodom, tehát vagyok

(#54) Shing válasza Steve_Brown (#52) üzenetére


Shing
őstag

De miért? Pont annak hatására jöhetnek a 2 GPU-s (vagy még több? :DDD ) szörnyek hogy végre ki lesznek használva. Az igény meg lenne rá, mert a marketing addig nyomatja az RT, 144FPS, 4K szlogeneket, hogy már mindenki úgy akar tolni mindent, csak a hardver nem elég hozzá.

Még egy ami profitálhat az az APU-k. Tök feleslegesen csücsült ott a GPU minden prociban több mint egy évtizeden keresztül. Most befogható lenne, legalábbis amik hardveresen is ott vannak támogatásban. Persze csak "unlinkelt mód"-ban, de remélhetőleg sok játéknál megcsinálnák.
Elvileg az SLI/CF is egy nagyon erőltetett dolog volt mégis megérte nekik erőforrást áldozni rá, mert mégiscsak emiatt vettek dupla hardvert egye$ek.

(#55) makkmarce válasza Shing (#54) üzenetére


makkmarce
őstag

az apu csak lassítaná az egészet, míg a rendszer arra várna, hogy kész legyen. Ahogy itt lentebb már írták, hiába hegesztesz össze akár 3 trabantot, egy egyszerű bmw is állva hagyná az egész tákolmányt. SLI/CF-nek csak a csúcskategóriában van értelme, ahol már máshogy nincs fentebb, de ott se játékra, hanem GPU renderre, vagy egyéb számításokra.

okoskodom, tehát vagyok

(#56) PROTRON válasza makkmarce (#55) üzenetére


PROTRON
addikt

Annyira sokszor írjátok be ezt a trabantos hasonlatot hogy nem tudok elhajtani mellette szó nélkül...[LINK]
xD

Amúgy viccet félretéve eleinte a hyperthreadinget se tudták rendesen kihasználni a programok, mostanra ez megváltozott, holott ott sincs teljes értékű fizikai mag, csak a megfelelő algoritmusok elosztják a számolni valót hogy a megfelelő ütemben maradva a rendszer adott idő alatt jobban fusson.

Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

(#57) arabus válasza makkmarce (#55) üzenetére


arabus
addikt

pfú de egyre gondoltunk.

[ Szerkesztve ]

Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#58) hobizoli válasza makkmarce (#53) üzenetére


hobizoli
nagyúr

kb a mostani gepem, csak ez 6core-s :DDD

több drón kell ;P

(#59) hobizoli


hobizoli
nagyúr

lehet en ertem felre, de igazabol elege lenne ha a Dx12 vagy a Vuklan komalja a 2xVGA-t, es akkor a game meg fut ahogy azok egyutt kiszamoljak, amit ki kell

kicsit olyannak tunik, mintha a AMD meg az NVidia szandekosan fektetne meg a dolgot, hogy a ket idovel mar olcsobba valo zsuga helyett az ujabb, ujan dragabb dVGA-ket vegyek, mert azon tobbet keresnek
fruttiert lehet venni mar 2x RX580-t es mukodne is "jol" a kettos, akkor ki venne meg a 5700XT-t 4db RX580 araert, ha a ket RX580 csak a felebe kerul es azt a gyarto mar egyszer eladta, az neki nem bicnyic, ha az ugy hozza a 5700XT sebesseget...mert akkor azt tole ki venne meg?

több drón kell ;P

(#60) Shing válasza makkmarce (#55) üzenetére


Shing
őstag

Nem lassítana az APU, mert ez már nem SLI/CF lesz. Nem kell egyenrangúan elosztani a feladatokat. Már a VRAM is rendesen összeadódhat nem úgy mint régen. A lényeg az lenne, hogy beteszed az extra hardvert és onnantól a motor megoldja.
Amennyivel tudja terhelni mondjuk az APU-t, annyival terheli. Kicsit besegít és gyorsabb lesz a játék 30-50%-al.

Erről már a DX12 elején is szó volt, nem tudom miért halt ki egyébként a koncepció. Az igaz, hogy az APU-k végül nem lettek általánosak. De pár év múlva újra lángot kaphat ez az egész.

(#61) DonToni válasza Abu85 (#16) üzenetére


DonToni
aktív tag

Oké, akkor egyszerűsítsük le!
Van 2db 1080Ti 8x - 8x módban (R7 3700x) egy SLI HB bridgel össze kötve.
Vágjam kukába, vagy ne....?!

(némileg költői volt a kérdés, mert pl. a Blender gyönyörűen kihasználja mind a két vga-t, de most nyilván a jövő játékaira lennék kíváncsi... Pl. Bf1-ben sem ment rendesen a két kártya, vagy ha mégis, akkor egy pár perc után kilépett a játék....)

-Anti-

(#62) #16939776 válasza Shing (#60) üzenetére


#16939776
törölt tag

Az apu (pc-n) minden megmozdulásával a rendszermemóriát terheli, már hogy a viharba ne fogná meg a gépet, ha az prioritást kapna a CPU-val szemben a memória elérésére.
1x kell valamilyen erőforrást kisajátítania magának és már megy is a többi komponens teljesítménye (ami azt az erőforrást is használná) 0-a közelébe.

Ezek a függőségek miatt nem lehet ebből univerzálisan eredményesen használható megoldás. lenne a 100-ból 2 olyan eset ahol nem vennéd észre a negatív hatását, de kb nem is vennéd észre a pozítívat sem, de elvárnánk hogy valaki dolgozzon vele és adjon a ~semmihez stabil supportot. :(

[ Szerkesztve ]

(#63) edward2 válasza hobizoli (#59) üzenetére


edward2
addikt

A piac nem így működik. Ha amit írsz igaz lenne a következő dolgok történnének:
1. Mindenki több rx580 gpu-s gépet akarna építeni = az rx580 ára felmenne és máris nem érné meg annyira (ugye most azért olcsó mert kutyának se kell)
2. Az amd addig csökkentené az 5700 árát amíg az jobb vásárlás nem lenne mint egy több gpu-s modell

Az sli-s/nvlinkes tapasztalatok alapján a 2-es pont mindig is igaz volt.

(#64) arabus válasza DonToni (#61) üzenetére


arabus
addikt

egyszerüen le kell venni a bridge-t és fog menni a bf1 mert az nem sli játék
ez multi gpu nem ugyanaz ehhez nem kell profil a driverben
de ha bridgel használod az már sli-ként érzékeli a driver is.

Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#65) Kansas válasza arabus (#64) üzenetére


Kansas
addikt

Nem hiszem, hogy bármit elérnél az SlI kíd levételével azon túl, hogy elveszted a meglevő SLI-profilok használatának a lehetőségét.
Mert az újfajta multi gpu működéshez SLI híd ugyan nem kell, viszont a programnak támogatnia kell a technológiát. Magyarul amelyik program nem olyan módon van megírva, hogy támogassa, azon nem fog menni, ha viszont még van SLI profil a játékhoz, azt elvileg továbbra is tudod használni.

@DonToni: kukába ne vágd ki, esetleg érdemes lesz eladni, és az árából venni egy 3070-et, ha kapható lesz, vagy egy 3080-at, némi ráfizetéssel, és akkor nem kell foglalkoznod ilyen úri huncutságokkal, mint SLI profil s driverben vagy direktz támogatás a programban...

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#66) arabus válasza Kansas (#65) üzenetére


arabus
addikt

te miröl beszélsz?bf1 nem látod?
és ki mondta hogy minden támogatja?
sli-hez meg nem lesz profil nem látod?

Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#67) DonToni válasza Kansas (#65) üzenetére


DonToni
aktív tag

Ha váltanák, akkor értelem szerint 3080 lenne a következő lépés...
A két vga-n vízhűtés van (NZXT Kraken G12/X42) ezekkel együtt adnám, így azért csak kijönne belőle egy 3080.... :U

-Anti-

(#68) Kansas válasza arabus (#66) üzenetére


Kansas
addikt

Szerinted akik eddig SLI-t használtak, aszerint szedték le/tették fel az SLI hidat, hogy épp olyan játékkal játszanak-e, ami támogatja? Én nem használtam se SLI-t se CF-et(nem láttam értelmét), de kizártnak tartom. Az alighanem driver bug lesz... lehet, drivercsere segít rajta... ja, persze, NV-nél nincs olyan, hogy szar driver, akkor csak rebootolgasson a kedves user és babráljon az SLI híddal(tudtommal nem hot-swap)...

"sli-hez meg nem lesz profil nem látod?"
Látom, hogy te nem látod: "a következő év elejétől már a régebbi kártyákhoz sem adnak majd ki új SLI profilt" Érted, új profil nem lesz, a meglevők nem tűnnek el a semmiben azonnal(később nem kizárt, bár legacy driverben akár vissza is térhetnek)

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#69) Kansas válasza DonToni (#67) üzenetére


Kansas
addikt

Azzal jobban jönnél ki, egy 3080 erősebb a 1080Ti SLI-nél, és nem igényel extra támogatást(meg van RTX :) )

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#70) DonToni válasza Kansas (#69) üzenetére


DonToni
aktív tag

Király! :) Akkor már csak azt kell megvárni, hogy lehessen kapni és minden hiéna megszabaduljon tőle... (180% -os áron)
Egyébként van értelme az SLI-nek, legalábbis pár játékban, amikkel én játszok kihasználták, így 4K-ban simán megvolt a fix. 60fps.
Meg ahogy írtam a Blender is nagyon szépen használja mind a két vga-t, szóval nekem ez (eddig) minden kép win-win szitu volt. :)

-Anti-

(#71) arabus válasza Kansas (#68) üzenetére


arabus
addikt

ja akkor többé nem frissit drivert mert csak a régiben van profil?ügyes.
az meg hogy te nem látod értelmét nem egyenesen arányos azzal hogy nincs.
mondom multi gpu-val már két xt is szépen szalad akkor gondolom két 1080ti is. :R

Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#72) Kansas válasza DonToni (#70) üzenetére


Kansas
addikt

Igen, minden attól függ, te mire és hogyan használod a géped.
Én pl nem játszok egyik RTX-et támogató játékkal sem, tehát jelenleg(!) számomra az RTX-nek az értéke kereken nulla. Azt nem néztem, hogy a kedvenc játékaimi támogatják e az SLI-t, CF-et vagy az új multi-GPU-t, de csak ezért nem fogok drágább alaplapot venni(bár asszem a mostani lapom pont támogatja, de pl egy B550 nem, ahogy a korábbi B350 sem).

Neked ezek szerint volt értelme az SLI-nek, de ha összeszámolod, mi minden kell hozzá hogy jól működjön:
- 2 egyforma kártya(+100% ár)
- megfelelő alaplap
- profil driverben
- játék támogatás
... sokaknak nem áll össze ez a 4

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#73) Kansas válasza arabus (#71) üzenetére


Kansas
addikt

Szerintem neked valamiért becsípődött a multi gpu mánia
SLI, CF értelmetlen, már fénykorában is az volt, nem csak szerintem, de tesztelők és mint látszik, a gyártók szerint is.
A DX12 multi-gpu érdekes lehet még, de nem gondolom, hogy sok játék vagy alkalmazás fogja támogatni, azon egyszerű okból, hogy két kártya árából kapsz olyat, ami többet tud, mint az a kettő összeadva - kivéve az abszolút csúcsot, de annak az ára meg durván elszállt anélkül is... és akkor még extra programozói erőfeszítést is ighényel.
Ne keverd a vásárlóközönséget az értelemmel... csak attól nem lesz valaminek értelme, hogy van olyan akit rá lehet venni, hogy megvegye...

Annak látom értelmét, hogy a második kártyát(pl. IGP-t) más(pl. compute: AI, fizika, stb) feladatokra fogják be...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#74) Robitrix válasza makkmarce (#53) üzenetére


Robitrix
senior tag

fogalmam sincsen hol van nekem egy MAC pro-ra 10-20 millióm? :) Azt se tudom ez egybe szerelt két kártya vagy egy kártya, amire 2 GPU rakható.... minden esetre be van burkolva egy doboz szerű izébe így nem látszik. Minden esetre árulják RX 580X GPSU változatot, van valami kisebb teljesítményű van hozzá valami kisebb teljesítményű VEGA van ez a nagy teljesítményű VEGA GPU és van e dual verzio ahol a 2 kilos modulban 2 GPU van beszerlve e leggyorsabb változatúból. A CPU-ból is van hozzá tizen valahány száltól 28/56 ig. Mint ahogy a meória is igen széles sávban varriálható. én csak a legalapabb modellről láttam egy videót, hogy pakolják ki szerelik össze és probálják ki. az egy gyengébb xeonnal volt és RX 580X grafikával és valami kisebb RAM-mal és háttértárral. Az volt a kapható legkarcsúbb változat potom 3,2 millió körül... :) valahol fent van a youtubon róla a videó magyarok csinálták. De úgy dereng nem vették, hanem marketingből kapták kipróbálásra az Apple-től. Úgy csomagolták ki, mint a hímes tojást. Gondolom, ha elbaxák ki kell fizetni és kinek van 3,2 milliója... :) simán össze lehetett volna rakni egy jó munkaállomás mondjuk AMD 3950X vagy 3960/3970/3990 procival sokkal erősebbet fél áron. Viszont azon nincsen megharapott alma... :) a valós teljesítményéhez képest mocskosul túl van árazva. viszont kurva jól néz ki. Csak a háza vagy 300 ezer.... vagy elvarázsolt milliárdosoknak való gép vagy totálisan hülyéknek, akik semmit nem értenek az informatikához.

(#75) Malák


Malák
aktív tag

Nem kár érte, a koncepció mindig tetszett, de nagyon izzadtságszagú volt mindig.
Majd ha már nem lehet kisebb csíkszélességen gyártani, akkor újra elő fogják venni, ha nem lesz nagyon más irány fejlődni (HA!)

(#76) makkmarce válasza Robitrix (#74) üzenetére


makkmarce
őstag

drágának mindig drága volt, a gond inkább az, hogy már el is avult. Fogsz egy 3995X-et, meg egy RTX 3090-et, és kb egy 2x gyorsabb géped van. Bizonyos feladatokra még gyors, de ha csúcs kell, akkor attól már most messze van, amit az ára nem követ. Ahogy néztem a célközönség nem is a profik voltak, hanem inkább a gazdag youtuber közönség. (mert mondjuk a hozzá kapható monitort is csak félszemmel lehet profinak nevezni egy rendes pro monitorhoz képest).

okoskodom, tehát vagyok

(#77) Cs1csó válasza DonToni (#61) üzenetére


Cs1csó
félisten

Egyszerű: add el és vegyél 1db 3070-et vagy valami nagyobbat.

(#78) Sub-ZeRo


Sub-ZeRo
nagyúr

Régi jó kis gépem jut ilyenkor eszembe, mikor az SLI-ről van szó. Athlon X2 4200, Inno 3D 7600 GST x2 SLI-be kötve. Akkor volt új játék a cod 2. Állatul ment annó 2 kártyával, mint eggyel. Igaz szívás volt, mert bios update kellett az sli-hez de utána működött. Na meg a FEAR is állatul ment. :B RIP SLI :R

"Ha egyedülállóval találkozunk, mindegy, mit mond, de biztos, hogy nem azért van egyedül, mert élvezi a magányt, hanem mert már megpróbált beilleszkedni a világba, de az emberek újra meg újra kiábrándítják."

(#79) Andrew_31 válasza PROTRON (#1) üzenetére


Andrew_31
Modder

R9-es szériánál se volt fizikai kábel a két kártya között.

(#80) BerserkGuts


BerserkGuts
őstag

Csak nem a techspotos cikk volt a meginditó vagy csak véletlen ;] [link] FEATURES HARDWAREThe Rise and Fall of Multi-GPU Graphics Cards

Viszont van egy érdekes régebbi tesztjük hogy miért volt jó: :D
[link]


wow :Y

12600KF/ROG Strix 4070ti/ROG Strix B660/Noctua NH-D15S/ROG Strix AuraEdition 850W/SamsungOdysseyG7 32" 1440p/ThermaltakeTower900/RazerViper8K/F4-3200C14D-16GFX(FlareX)/Kingston A2000

(#81) A.Winston


A.Winston
tag

Engem az érdekelne mikor lehet jó kis amd igp-ket asszinkron módon bekötni nagytesó mellé. :)

nincs

(#82) Tomcat


Tomcat
őstag

Az AMD CrossFire az elterjedt negatív megítélés ellenére meglehetősen jól skálázódik. Amióta az AMD driver beépítve tartalmazza a CF profilokat nagyon kevés azoknak a játékoknak a száma ahol valamilyen anomália előfordul és szinte alig van olyan ahol valamelyik metódus nem működik.

AMD CF in Games

Nálam mindig az volt az alapvető vezérelv hogy 2db megfizethető árú teljesen egyforma VGA-val (...HD5870, R9-280X, RX580,stb) olyan grafikus teljesítményt állítsak elő amit csak az éppen elérhető legnagyobb teljesítményű és legdrágább kártya egymagában elő tudott állítani. Ez eddig nálam mindig is működött és remélem hogy ezután is fog, bárhogy is hívják majd a technológiát magát ezentúl.

Tomcat

(#83) arty válasza Tomcat (#82) üzenetére


arty
veterán

elég fordított logika.... szerintem az sli/cf arra volt jó, hogy amikor már nem tudtál erősebb gpu-t venni, akkor vettél belőle... kettőt :) és vagy jött a plusz, vagy nem jött a plusz....

de hogy X összegért egy megbizhatatlan teljesitményü kártyavárat építs? fura

"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."

(#84) Kansas válasza arty (#83) üzenetére


Kansas
addikt

Nem fordított logika, egyenes, csak tán nem emlékszel rá, hogy volt idő, mikor még az volt a mondás, hogy ha van egy közepes videokártyád(pl Geforce 7600GS), mikor kezd nem elég lenni a teljesítménye, vehetsz belőle még egyet olcsóbban/használtan, és akkor még egy jó ideig el lehet vele lenni, és anyagilag is jobban jöttél ki, mintha negyobbra/újabbra váltottál volna. Ugyanez volt érvényben pl a játékok egy részében a GF6600GT(akkoriban népkártya) és GF6800GT esetében, a két kicsi együtt pár játékban(pl Halo) eléggé elpáholta a 6800GT-t
Akkoriban egy 6800GT árából(90e Ft) két 6600GT-t lehetett kapni...

Ma már ez nem igaz, pl. két 3070 jóval többe kerül egy 3080-nál, és még a teljesítménykülönbség is nagyobbnak tűnik köztük, mint amit SLI-vel be lehetne hozni...

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#85) arty válasza Kansas (#84) üzenetére


arty
veterán

arra pontosan emlékszem, hogy MINDIG nyűgös volt az SLI működése (igen, még a voodoo2-es időkben is :D )

linkelt teszt alatti hsz-ek:
"2db PCI-E 6600GT ~85 körül fogható, 6800GT pedig 100-110"

én tuti nem vettem volna 43 ezerért +1 vga-t, ami sokszor egyáltalán, mintha nem is létezne vs. a 6800GT felárát mindig visszakaptad teljesítményben (vs. 1x6600gt)

elfogadom, hogy a matek nem jött ki mindig, de a mateknak csak 100%-osan működő sli mellett lenne értelme :)

"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."

(#86) Kansas válasza arty (#85) üzenetére


Kansas
addikt

Nézd, az a helyzet, hogy SLI/CF témakörben 100%-ban egyetértek veled, ezért sem volt nekem soha egyik sem :)

Amit nem bánnék az az, ha desktopon is össze lehetne hozni a laptopokhoz hasonló hibrid módot, ha van IGP-d(esetleg valami olcsó második VGA-d, mint pl. GT710 :D ), akkor alapból netezés, filmezés, stb közben a kevesebbet fogyasztó gyengébb kártyát lehetne használni, játékban, 3D grafikában és egyéb komoly terhelés alatt meg működésbe lehetne hozni a "nagyfiút/nagylányt"(ízlés szerint).
Tehát afféle VGA big.LITTLE setupot... :)
Erre a DX12 multi-gpu alkalmas lehetne, némi kernel-szintű támogatás(VGA kártya áramtalanításhoz) mellett...

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#87) Cs1csó válasza Kansas (#86) üzenetére


Cs1csó
félisten

TöbbVGA-ás rendszer otthonra kuka. Se a VGA gyártók, se a játékkészítők nem támogatják.

Ennek sincs értelme, mivel a fogyasztás és a hőtermelés elhanyagolható egy asztali gépnél. Ami fontosabb, hogy a VGA félpasszív hűtésű legyen: játékon kívül a ventilátorok némák, filmezni, netezni és irodai szoftvereket használni így is lehet.
Játék alatt ahogy a teljesítménye egyre megy feljebb a ventilátorok bekapcsolnak és ameddig szükséges mennek is.
Aki teszkógazdaságos fogyasztású gépet akar az vegyen simán IGP-s gépet.

(#88) ricsi99 válasza Kansas (#86) üzenetére


ricsi99
addikt

Volt ilyen opció régebben
Csak el is kaszálták , mert az amd/nvidia nem volt partner abban ,hogy különbőző karik együtt menjen.
Annó én kiprobáltam és működödött...

Egy Gyűrű mind fölött, Egy Gyűrű kegyetlen, Egy a sötétbe zár, bilincs az Egyetlen...

(#89) Kansas válasza ricsi99 (#88) üzenetére


Kansas
addikt

Én nem feltétlenül akarom, hogy együtt menjenek, inkább afféle "Switchable graphics"-szerű setup érdekelne, amilyet a két GPU-s laptopok többsége tud(Intel+NV, Intel+AMD, AMD+NV).
Mert az nonszensz, hogy egy valamire való játékos gép simán bekajál 100W körül kis terhelés mellett is(a PH! 3080-as teszt gépe üresjáratban is!), mégha ennyit lead néma csöndben(bár félpasszív CPU-hűtőről nem igazán hallottam), akkor is.
Csak a könnyű terhelésekre nem akarok külön gépet fenntartani - most véletlenül épp van egy elfekvő mITX Athlon 5350(AM1) konfigom, azt lehet hogy befogom ilyenre, de még ha túlélne is egy pár napos próbaidőt, túl macerás, sokkal jobb lenne, ha a fő gépem tudna spórolósan menni - a tavalyi rendszer 60W-ja már jobb(üresjárat az is, terhelés alatt gyanítom megy feljebb jócskán), de nem hiszem, hogy ne lehetne azt még megfelezni...

De befejezem már a nyavalygást, itt hardcore gamerek vannak akik ballisztikus ívben tojnak a fogyasztásra... legalább is mióta kijött a 3080 :P

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#90) M@cika válasza Darmol (#9) üzenetére


M@cika
őstag

Azért ennél, nagyobb egyezőség kell alighanem. :-)

Nasit a kis fehér medvének!

(#91) Hoffer PC válasza koko52 (#3) üzenetére


Hoffer PC
csendes tag

Én is ezen gondolkodtam... :DD :DD

Üdv: Roland. +36307550213 - WWW.FLEXBYTE.HU -

(#92) ricsi99 válasza Kansas (#89) üzenetére


ricsi99
addikt

Én sem szeretem ,hogyha zabál a gép... de én a csendesség miatt mivel minél kevesebbet eszik idle-ben annál halkabbak a ventik.

Ha meg sok időt csak alapjáraton ketyeg akkor valszeg ,home server + linux isók megosztásáról van szó ... arra meg lehet valami régi core2-es notit kellene befogni aksi nélkül +lekapcsolt kijelzővel egy hétig elmegy ha megdörzsölöd az oldalát...

Egy Gyűrű mind fölött, Egy Gyűrű kegyetlen, Egy a sötétbe zár, bilincs az Egyetlen...

(#93) #16939776 válasza Kansas (#89) üzenetére


#16939776
törölt tag

Egy "rendes" játékos gép fix órajelekkel megy, ami miatt nagyon messze van attól amit szeretnél tőle és 60W alá nehezen fogod betenni "idle".
Ha élesben eltávolítod a rendszerből, majd lekapcsolod a VGA-t, úgy hogy a memóriája nem kapja meg az áramot, majd vissza kapja az áramot, akkor onnan kb.: egy teljes boot-időnyit végig kell várni, mire újra használhatóvá válik a hardver az os számára. Így Inkább egy második gép beszerzésén gondolkozz, ahol a komplett platform megáll mondjuk 20W-nál (soc+mem+ssd), ami altatva 2W-ot eszik.

[ Szerkesztve ]

(#94) Kansas válasza #16939776 (#93) üzenetére


Kansas
addikt

"Egy "rendes" játékos gép fix órajelekkel megy"
Akkor nekem azóta nincs rendes játékgépem, mióta bevezették az energiatakarékos állapotokat a procikban... eszem ágában nincs lemondani róluk.

"Ha élesben eltávolítod a rendszerből, majd lekapcsolod a VGA-t" nem feltétlenül szükséges, elég, ha azt csinálja, mint a notik.

Desktop gépet soha nem altatok, mindig lekapcsolom, ha már nem használom, ki lehet bírni, míg bebootol(UEFI fast boottal nincs fél perc sem). Konzolt például igen, mert a PS4 a PC-mhez képest tetves lassan bootol még SSHD-ről is. Laptopot meg hibernálok, mióta egy kollégám altatott laptopja a hátizsákban feléledt és forráspontig fűtötte a vastagon kibélelt rekeszét, miközben nullára szívta az akkut.

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#95) Cs1csó válasza #16939776 (#93) üzenetére


Cs1csó
félisten

Nálam kiegyensúlyozott energiagazdálkodáson van a Windows - nem is nyúltam hozzá - A Windows tudja mikor kell neki a kakaó és mikor nem. Bár olvastam, hogy az alkalmazások indítására jó hatást gyakorol ha magas az órajel mindig.

(#96) #16939776 válasza Kansas (#94) üzenetére


#16939776
törölt tag

Én a "játék gépet" csak játékra használom, ebben lehet az alapvető nézet béli eltérés.
És nem kell mindenképpen a windows-ra támaszkodni, mert pl.: a Ryzen-ben, van beépített hardveres energiagazdálkodás, aminek van fogalma arról, hogy hogyan működik optimálisan a CPU, de a windows energiagazdálkodásnak és a feladat ütemezőjének erről lila gőze sincs. Ezért nálam, úgy hogy ezek ketten ki vannak lőve, passzívan, ház szellőzéssel el van a CPU "fix" órajelen. Nem szaggatnak a játékok és hideg a CPU-borda. Ha a ház szellőzéstől hideg a borda, akkor olyan rettentő mennyiségű hő nem keletkezhet se idle, se terhelve a CPU-t. Tehát a fogyasztással sem lehetnek óriási gondok.
A GPU meg ugyan annyit eszik IDLE mint az összes eddigi felső kat. (TDP.:250W) gtx kártyám, hidegen 40W körül, melegen 60-70W körül úgy hogy nincs driverből kényszerített energiagazdálkodás.
Mivel a bekapcsolt idő 95%-ában használom, játszok, így felesleges azon rugózni, hogy idle-ben mennyi energiát "pazarol el" azért, mert én kitaláltam hogy "fix" órajelen szándékozom használni a komponenseket.

[ Szerkesztve ]

(#97) Tomcat válasza arty (#83) üzenetére


Tomcat
őstag

Szerintem teljesen nyilvánvaló az AMD CF pozitív skálázódása. Érdemes megnézni a linkelt adatbázist. Ez alapján azt kijelenteni hogy hogy megbízhatatlan vagy hogy nem működik nem felel meg a valóságnak.

AMD CF in Games

Az igazsághoz hozzátartozik hogy a legtöbb kezdeti (0-day) kompatibilitási problémát az újabb AMD driver-ek mindig javították (a megjegyzésekben olvasható hogy melyik kiadás) és legvégső estben ha mégsem működött volna (pl. natív DX12) vagy negatív skálázódás volt tapasztalható akkor a driver egy kártyás működésre kapcsolt. Ez alig néhány címet jelent az elmúlt két évtized terméséből.

Az érem másik oldala hogy soha életemben nem volt volt nVidia kártyám, így az SLI-ről nekem semmi személyes tapasztalatom nincs, azt viszont több helyen is olvastam hogy az nVidia SLI hatékonysága mindig is messze elmaradt az AMD CF-től.

Tomcat

(#98) Kansas válasza #16939776 (#96) üzenetére


Kansas
addikt

"fix" órajelet BIOS/UEFI-ben lehet beállítani, attól hogy Windows-ban nem használod az energiagazdálkodást, az órajelet még nem fixáltad... a feladatütemezőhöz pedig nem tudsz nyúlni, az kernel-szintű, és még mindig több köze van az optimális működéshez, mint neked vagy nekem. Ez a "lila gőze sincs" nagyon szar duma.
Én legalább annyi időt töltök YouTube-on, Netflixen vagy síma szöveges cikkeket olvasva neten, mint játékkal, te ezek szerint célhardverként használod... váljon egészségedre!

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#99) Dr. Akula


Dr. Akula
nagyúr

"Az elavult API-k kilövésével például lényeges erőforrás szabadul fel a fejlesztőknél, amelynek egy részét ezen új lehetőségek kutatására is fordíthatják"

A lehetőségük ugyan megvan rá, kérdés hogy élnek-e vele. Gyanítom nem, hiszen plussz meló, és már így is sokszor a konzol szintje a szűk keresztmetszet, arra kell lebutítani mindent, abban pedig nincs multigpu, hát akkor itt se lesz, hiszen csak egy portot kapunk. Jobban járnánk ha a lusta fejlesztők (inkább: portolók, gányolók) helyett megírná valaki egységesen, hogy ne azokon múljon a használata, mert akkor nem lesz.

(#100) Dr. Akula válasza koko52 (#3) üzenetére


Dr. Akula
nagyúr

Én a helyedben mindenképp megvenném, és az egyiket nekem adnám. :D

Copyright © 2000-2024 PROHARDVER Informatikai Kft.