Hirdetés

2024. április 28., vasárnap

Gyorskeresés

Hozzászólások

(#1) nakos1212


nakos1212
senior tag

Egyrészt 900W-ot PCI kártya méretben esélytelen hűteni, másrészt az NVIDIA rohadtul nem vállalná be azt az arcvesztést hogy kazánokat kell gyártani az AMD-vel való versenyhez.
Ez idáig is nonszensz volt és bárki átlátta.
Viszont remélem már nem spórolják le majd a megfelelő mennyiségű VRAM-ot a kártyákról, néhány esetben a 3060 gyorsabb a 3070-nél, mert előbbi 12, utóbbi 8 gigás, pedig sokkal gyengébb GPU van rajta - ez is nonsensz.

[ Szerkesztve ]

(#2) Youri


Youri
veterán

RTX ON

(#3) adamssss


adamssss
veterán

Már az is elképesztő amit a mai csúcs kártyák és processzorok fogyasztanak. Érdekes ilyenkor egy zöld gittegylet sem hőbörög....

Addig gyorsítottuk a világot míg mi magunk maradtunk le...

(#4) nexwo


nexwo
őstag

Remélem az AMD vonal nem lesz ilyen, ma még nVidia-t használok, de ha eljön a váltás ideje és az AMD még mindig max 400W-ot eszik akkor biztos hogy inkább azt választom.

Cuccok: https://de.pcpartpicker.com/list/fRPZ34

(#5) Atee94


Atee94
csendes tag

A vicc az hogy majd azt a maradék 1-5-10 százalékért cserébe dupla akkora fogyasztással lehet számolni.
A vicc az hogy az rx 6700 xt-ryzen 7 5800x esetében csak azzal hogy picit visszavettem a fogyasztást a ryzen 7 5800x esetében, ppt 144 wattról 130-ra, hozzáigazítottam a tdc-t és edc-t, a max temp 85+-ról 65-70 fokra zuhant 1,5 százalékos all core teljesítményvesztés mellett, még az rx 6700 xt órajelét 2609mhz-ről 2400-re vettem le(átlag 2-5 százalékos teljesítmény vesztés, a fogyasztás 60-70 wattal csökkent, mert annyira alacsony feszültség kell neki.Így teljes kihasználtság esetén benne vagyok a 300 wattban, a seasonic titanium 600 wattos tápom meg 96 százalékos hatásfokkal viszi a rendszert. Az biztos hogy ha cserélem a setupot majd egyszer, nálam a max fogyasztás 300-350 wattban kell hogy maximalizálódjon.

"The only thing here built to last is the engine that turns your world to trash" - Slum Planet, 3teeth

(#6) Busterftw válasza adamssss (#3) üzenetére


Busterftw
veterán

Hasonlo korlatozas kellene mint amit par US allamban bevezettek.
A Dell szorult helyzetben volt mert par Alienware PC-juket nem arulhattak. :D

(#7) copass válasza adamssss (#3) üzenetére


copass
veterán

nem igazán érdekel senkit a fogyasztás, ha a teljesítmény jó.
mert hiába eszik keveset, ha gyengus a teljesítmény.
pl. az új mac studiot úgy hozták fel hogy rtx 3090 verő, hááát nem. rtx 3050...egy közel 2 millás gépben...

[ Szerkesztve ]

"amikor valaki baromságokat beszél, megszületik egy unikornis"

(#8) adamssss válasza copass (#7) üzenetére


adamssss
veterán

A tranzisztor halmozást nem nevezném fejlesztésnek. Azt a hülye is tud. Látszik, hogy sok gyártó abba az irányba megy el, hogy növeljük a fogyasztást aztán majd nő a teljesítmény is. Szerintem ez nem jó.

Az M1 ultra egy egyedi gyerek. Van amiben veri a 3090-et de réteg felhasználásra jó.

Addig gyorsítottuk a világot míg mi magunk maradtunk le...

(#9) lo_jo válasza nakos1212 (#1) üzenetére


lo_jo
senior tag

Mutathatnál olyan tesztet, ahol a 3060 gyorsabb, mint a 3070. Én eddig 2 ilyennel találkoztam, de mindkettő csak a számok tekintetében "győzelem".

1: Mobile GPU-k összehasonlítása. Szép és jó, a 3060 elverte valóban a 3070-t, csak azt felejtette el a "tesztelő" leírni, hogy a 3060 egy 115W-os verzió volt, a 3070 pedig egy 80W-os. Persze ez az nV sara is, hogy ugyanabból a GPU-ból csinálnak 80W és 115W között többet is, amivel átfedik egymást a típusok, ráadásul erre jön még a boost 5-20W többlettel, ami meg a konkrét laptop hűtésétől függ, az meg már tényleg almát körtével.

2: Azok a tesztek, ahol mindkét kártya értékelhetetlen eredményt ért el. Jó példa volt erre egy Far Cry 6 4k teszt, ahol a számok a végén valóban a 3060 javára döntenek, de az egy számjegyű 1% és 0,1% fps egyiken sem eredményez játszható értéket, hiába 30 körül van az átlag. (3060: 0,1% 8fps, 3070: 0,1% 6fps, mindkettőnél avg 32fps)

A valóság az, hogy pár tényleg sarkított példától eltekintve a 3070 előnye megmarad a 3060-nal szemben játékokban és mindenki tudja, hogy azért lett a 3060-on 12GB VRAM, mert a 6 már ciki és valóban kevés lett volna. Én sem azt mondom, hogy a 8GB örökélet, sőt, de azért a több VRAM a gyengébb GPU mellett nem lesz időtállóbb egy fokkal sem játékok alatt.

(#10) #16939776


#16939776
törölt tag

Gyenge a fantáziátok, 2x450w is 900w, azaz két visszafogottabb étvágyú csúcs gpu egy pcb-n.
:P

(#11) #72042496 válasza adamssss (#3) üzenetére


#72042496
törölt tag

Én már a GTX 1060-ról is leírtam, hogy egy benga kazán, de csak mérsékelten tolom ezt a vonalat. Úgy veszem észre, hogy az itteni tagoknál kategóriákkal feljebb van a hőtermelés/zajszint tekintetében a küszöb, mint nálam.

(#12) Alogonomus


Alogonomus
őstag

Leginkább szerintem azért nem valószínű a 900 wattos kártya megjelenése, mert semmi értelme nem lenne. Az AMD simán ugyanúgy emelhetné a fogyasztást, és tartani tudná a perf/watt előnyt.
A jelenlegi kártyák esetén volt némi értelme kiadni a nagyobb fogyasztású Ampere kártyákat, mert az RDNA2 látványosan megakadt 2,8 GHz környékén, de inkább csak 2,6-ig szeretett elmenni. A TSMC N7P chip valószínűleg 2,8 GHz környékén hibákat kezd produkálni, míg a Samsung 8N chip megfelelő tápellátás esetén túlpörgethető, csak nagyon leromlik a hatásfoka.
A most érkező kártyák viszont azonos gyártó nagyon (teljesen?) azonos technológiáját használják majd, így a sima túlhúzás esetén is várhatóan hasonlóan viselkednének. Szóval hiába adna ki az Nvidia egy 900 wattos kártyák az 500 wattos AMD kártya leelőzésére, ha az AMD simán kiadhatna válaszként egy 600 wattos kártyát, amivel megint AMD kártya lenne a leggyorsabb. Ugyanaz a helyzet, mint a Turing/RDNA1 időszakban, amikor semmi értelme nem lett volna kiadni egy RX 5800 XT kártyát 300+ wattos fogyasztással az RTX 2080 Super/Ti ellen , mert az Nvidia is emelhette volna a kártyái fogyasztását az erősorrend fenntartásához, ahogy tette azt az RDNA1 ellen behozott Super kártyák esetén.

(#13) nakos1212 válasza lo_jo (#9) üzenetére


nakos1212
senior tag


Doom Eternal (2020) 4K RT. Egy viszonylag jól optimalizált és okosan megcsinált játék.
Amit te "sarkított példának" említesz, egyre többször fog előfordulni az új játékok, engine-k alatt. és vérciki hogy már előfordul bármilyen esetben most, nem fogok megvenni egy 600USD+ kártyát aminek ilyenjei vannak..

[ Szerkesztve ]

(#14) copass válasza lo_jo (#9) üzenetére


copass
veterán

a vram mennyisége nem a gyorsaságról szól, hanem arról hogy mennyi adatot tudsz használni egyszerre. nagy texturák, részletes modellek.
tehát ami nem fér bele azt behúzza ssd-ről, az meg lassú. ennyi.
én speciel azért vettem 3060-at mert csak 12 GB tudok 4K képet számolni.

"amikor valaki baromságokat beszél, megszületik egy unikornis"

(#15) nakos1212 válasza copass (#14) üzenetére


nakos1212
senior tag

Plusz ahogy látszik a bench képen, a 2080Ti, ami fej-fej mellett halad a 3070-el (GPU kraftban), amúgy bőven elég Doom alá, és a 11GB VRAM miatt sokkal gyorsabbnak tűnik mint a 3070.
Sokak fejében úgy él ez az egész PC-s világ mintha ilyen egyszerű bottleneck calculatoros okoskodás lenne, viszont itt kiderült hogy a GPU bőven tudna annyit mint a 2080 ti, a textúra memória mégis kevés neki, ráaadásul nem is egy extrém esetben, mert egy jól optimalizált játékról beszélünk ami nem használ sok RT effektet.

[ Szerkesztve ]

(#16) eldiablo válasza nakos1212 (#1) üzenetére


eldiablo
addikt
LOGOUT blog

Azért 350-450W-os VGA-k vannak most is és problémás a hűtésük léggel.

(#17) Yutani válasza #72042496 (#11) üzenetére


Yutani
nagyúr

Akkor neked Emily Ratajkowsky is csak egy elhízott tehén. :))

#tarcsad

(#18) nexwo válasza eldiablo (#16) üzenetére


nexwo
őstag

Az alap az AIO lesz már szerintem.

Cuccok: https://de.pcpartpicker.com/list/fRPZ34

(#19) lo_jo válasza nakos1212 (#13) üzenetére


lo_jo
senior tag

Tehát nem sarkított példa, hogy a 6 gigás 2060 jobban teljesít, mint a 8 gigás 3070? Sőt, a 2060 annyira csoda kártya, hogy natív 4k-ban jobban teljesít, mint bekapcsolt DLSS mellett. Ennek inkább ehhez lesz köze: [link]

@copass: Tudom, hogy miről szól a VRAM mennyisége. Itt most csak a gamingről volt szó, teljesen más felhasználás az, ahol a sok VRAM előny egy erősebb GPU-hoz képest, nem véletlen, hogy a workstation kártyák jóval kisebb GPU teljesítmény mellé (még ha ugyanaz a chip is van rajtuk, mint a desktop verziókon, fele fogyasztás -> fele órajel) több memóriát kapnak.

(#20) eldiablo válasza nexwo (#18) üzenetére


eldiablo
addikt
LOGOUT blog

Azzal hűthető, de sok gyári kivitel csak 3 ventis és kész.
Léggel kb 5-10 perc és a full konfigot is elfűti.

(#21) tibaimp válasza nexwo (#4) üzenetére


tibaimp
nagyúr

Az nem mindegy, hogy a 400W-hoz, milyen teljesítmény fog társulni. Most is tudsz venni kis fogyasz6tású VGA-t, csak ott teljesítmény sincs.

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#22) Sinesol válasza tibaimp (#21) üzenetére


Sinesol
veterán

Ironikus ez a cim epp ezen az oldalon, ahol rendszeresen tulzasba viszik az efféle pletykakat…mintha magamnak panaszkodnek magamrol..,

(#23) nakos1212 válasza lo_jo (#19) üzenetére


nakos1212
senior tag

Nyilván képes voltál kiragadni a grafikonon látható játszhatatlan eredmények közül két tök random adatot és erre egy hülyeséget építeni. Az oldal ahonnan hoztam a mérést, nyilván nem egyszer tesztelt, szóval kizárható valami random anomália megléte is.
A hülye is látja hogy az eredmények szerint a 3060 alatt gyakorlatialg nincs élet 4K RT-ben, tök felesleges a 2060-at idehozni.
Viszont az is látszik, hogy a 3060 ugyan köztudott hogy gyengébb GPU - RT nélkül pl. simán látszik, cirka 80 fps körül tud ebben a játékban 4K-ban, a 3070 meg 120 körül, de bekapcsolt RT mellett mégis gyorsabb mert ilyenkor a játéknak több textúra memória kell és a 3070-en ebből kifut.

(#24) ttt


ttt
senior tag

Most kezdek ott járni a mostani cégek, mint anno amikor átvették a stafétabotot az elődöktől.
Ott is már a külön táp meg a több processzoros megoldásokat tudták csak elgondolni, aztán jöttek a friss innovációval rendelkező - addig bukdácsoló - cégek és visszaesett fogyasztással többszörözték a teljesítményt.
Azaz, vagy jön a piacra 1-2 új cég/ötlet vagy saját kardjukba dőlnek a mostaniak az előre látható fogyasztásokkal.

Az energia nem sokára - ha így pazaroljuk továbbra is, és így emelkedik a világpiaci ára és nem lesznek kis napóleonok, akik kereszt finanszírozzák mondjuk más forrásból (az is a te zsebed csak adónak hívják) - iszonyatos hányada lesz a keresetnek. Az amúgy is irreálisan drága hardverek mellé még a magas vellany számla nem lesz opció - már ha enni is akarsz (az is hiper sebességgel drágul)....
Tehát vagy a hardvert kell újra gondolni vagy a szoftvert kell(ene) optimalizálni (utóbbi nem érdeke valós nagyságban egyik csapatnak sem) ahhoz, hogy ne millió forintos fűtőberendezéseken amőbázzon a jónép.

Egyelőre nem erre halad a világ és persze addig, míg a gyártott mennyiségre van fizetőképes kereslet ez változni nem fog.
Persze a hagyományos izzókat meg dobjuk kifele, mert 60 Watt-al szinte semmit se világítanak és legyünk energia tudatosak, meg a wc kefébe is szereljünk netes vezérlést, hogy tudjuk mikor annyira sz.ros, hogy már muszáj legyen leöblíteni.... De a videókártyánk az fogyaszthat 5-6 vagy 8-10 100W-os villanykörte mennyiséget, amellett, hogy haszna annyi sincs , mint a kidobott 60 Wattos Volfram körtének. :U :C

(#25) tibaimp


tibaimp
nagyúr

Az a fura, hogy mindenki sír itt, mintha ez a fogyasztás a világ vége lenne! Eleve, ha játszol fogyaszt csak sokat egy mai modern VGA, alap állapotban nem. Magamból kiindulva, az esetek nagy részében csak hétvégén tudok játszani, nyáron akkor se sokat, eleve elhanyagolható a plusz költség.
De! A népek beépítik az 5kW-os klímát, mert semmi toleranciájuk nincs a melegre/időjárásra és járatják egész nyáron, meg szól a TV, csak úgy, hagy menjen, hogy "zsinyegjen" valami a háttérben, kocsival megy még a WC-re is, nehogy már biciklit/tömegközlekedést használjon, stb, de ezek nem gond...

Persze, az irány, általában véve, nem jó, de el kellene gondolkodni kicsit, úgy általában.... :(((

[ Szerkesztve ]

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#26) zebra_hun válasza tibaimp (#25) üzenetére


zebra_hun
addikt

Teljesen igazad van. Egyébként 3080 tulajként 200-240W a max fogyasztás ultra extrém hiper szuper giga mega max grafikán. 1440 és korlátozva 144 fps-re. Ezeket a 400+W számokat a Benchmarkokon kívül nem sok játék hozhatja ki. FH és Bf 5 amit játszom, de ennyi a fogyasztás. CPU meg 50-70W.
8k felbontás 10.000 fps persze, de az nem az átlag.

(#27) nexwo válasza tibaimp (#25) üzenetére


nexwo
őstag

Elgondolkodtak :) Töltöd a villany autód + nyomatod a klímát és már nem akarsz 2 kW-ot számolni a gépedre illetve 3 fázisú konnektort bekötni otthonra csak hogy a CoD 72 menjen :D Gondolj bele a RAM-nál az a cél hogy egyre kisebb feszen kevesebb fogyasztással gyorsabbak legyenek, erre az (nvidia) GPU meg to*ik a csökkenő fogyasztásra. Nem baj, alakul az alternatíva: Intel ARC, Apple M1 stb..

Cuccok: https://de.pcpartpicker.com/list/fRPZ34

(#28) nexwo válasza zebra_hun (#26) üzenetére


nexwo
őstag

Ugye az a kérdés a 4080-an esetén tudsz-e alulfeszelni úgy hogy ne egy 3080-at kapjál 350W-ra.

Cuccok: https://de.pcpartpicker.com/list/fRPZ34

(#29) eldiablo válasza zebra_hun (#26) üzenetére


eldiablo
addikt
LOGOUT blog

3080Ti Diablo II Resurrected - 320W+ 76% utilization mellett. :U
A gyári kúlerrel throttlingol 5 perc alatt és a termelt hő meg elfűti az alaplapot, RAM-ot. Ezért vennem kellett rá AIO-t és egy új házat ahol elfér a plusz egy radi. Vettem volna 6900XT-t, nem lenne ilyen gondom.

(#30) zebra_hun válasza eldiablo (#29) üzenetére


zebra_hun
addikt

Én a Bf és Forza 5-ről tudok nyilatkozni, ott az átlag 260-280W-ot teljesítményvesztés nélkül ~200W-ra hoztam ki. Persze, tudom 1440 az nem épp divatos, de a gyári extreme preset-tel ezt hozom ki. HWInfo elején és végén.
[link]
Léggel nem tudnám így hűteni, de van örökös bio hűtés.

[ Szerkesztve ]

(#31) Alogonomus válasza tibaimp (#25) üzenetére


Alogonomus
őstag

A legtöbben főleg nem a szoba esetleges befűtése miatt problémáznak, hanem a számítógépházak kiszellőzéséhez szükséges ventilátormennyiség és azok hanghatása miatt. Amerre haladni látszik a helyzet, lassan egy szerverteremben érezheti magát a játékos, és a fülhallgatót már nem az 5.1-es hanghatás élvezete érdekében teszi majd föl, hanem a legalább 10 db 100-120 mm-es ventilátorból származó monoton 35-55 dB kiszűrése érdekében.
Nem az 1-2 ezer watt a lényeg, mert annyi egy szobában fűtési szezonban bőven "elfér", hűtési szezonban pedig akinek van/lesz pénze 1-2 ezer wattos konfigurációra, annak van/lesz pénze légkondira is. A biztosíték pedig ha bírja az 1-2 ezer wattos mikrót, vízmelegítőt, tűzhelyet, porszívót, stb, akkor a gépet is el fogja bírni.

(#32) eldiablo válasza zebra_hun (#30) üzenetére


eldiablo
addikt
LOGOUT blog

Azt tudod, hogy ez így nem mérvadó?
Alacsonyab hőmérsékleten alacsonyabb Vcore-t kap, így a fogyasztása is alacsonyabb. Ezt próbáld ki az üzemi 70-90C°-on, mindjárt meg is lenne a 300W.
Anno GTX 770 OC úgy nézett ki, hogy chillerrel 0 C° alá hűtött vízzel 3D mark alatt 1400Mhz fölé boostolt a kártya automatikusan, miközben a TDP limit-et sem érte el. Hidegben csökken a szivárgás.

(#33) tibaimp válasza zebra_hun (#26) üzenetére


tibaimp
nagyúr

zebra_hun: :R

Alogonomus: ez így egy kicsit túlzás, de részben elfogadható. Nekem a HAF932-ben most is 3 darab 20/23cm-es és 1 darab 14cm-es venti dolgozik, szép halkan, mert van külön venti szabályzó, szóval megoldható minden!
(Sajnos erre, a mai üvegpalota, csoda házak nem biztos, hogy jók.)

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#34) zebra_hun válasza eldiablo (#32) üzenetére


zebra_hun
addikt

Én 1 éve kezdtem el "túrni" a BIOS-t, hamarosan készült is a bio vízhűtés. Jelenleg nem vagyok messze az átlagos vízhőfoktól, de még tartom ezeket. (12C most) Pl ac 5GHz-hez elég 1.1V, de tavaly nyáron amikor összeraktam a pincehűtést, felmelegedett 18C-ra a pinyó. Ok, mások 25-27C-os szobában hűtenek, ez csak kicsi segítség. Ez a video télen készült nyitott pincével, látszik is, hogy ~5C a cuccos. Watt nagyon jó így, de ha a leírásban szereplő videot is megnézed, ott nincs UV, ott már 260-280W.
Persze a cikkhez kapcsolódva, bízom benne, hogy nem kell 8-900W-ot hűteni, mert az már nálam is melegítene. 6900xt-vel én jobban jártam volna, de a gsync monitor miatt maradtam itt. FH5-nél meg nincs meg stabilan a 144 min érték, gsync pont jól jön.

(#35) eldiablo válasza zebra_hun (#34) üzenetére


eldiablo
addikt
LOGOUT blog

Neked nem kell kézzel állítanod a feszültséget a VGA megcsinálja automatikusan, ahogy láthatod is.
Így majdnem 2 tizedet lefarag automatikusan, még szép, hogy alacsonyan van a fogyasztás.
Ha lenne 0.9V alatti Vcore azt állítaná be.

[ Szerkesztve ]

(#36) zebra_hun válasza eldiablo (#35) üzenetére


zebra_hun
addikt

Bocs, lehet bénán fogalmazok. Én adom a fesz limitet, 0.9V-ban határoztam meg, 1980MHz-ben meg a frekit. Ha automatán hagynám, akkor elszáll a fogyasztás, ahogy a másik videon is van.
Benchnél meg pont az ellenkezőjét csinálom, fixálom a feszt 1.1V-on és oda rendelem a kb. 2235MHz-et. Függ persze a tesztprogitól, mindegyiknél mást. Bocs, ha félreérthető voltam, de így elmegyünk off-ba. Firestrike-ba így tartom a rekordot pl fix fesz és frekivel. "Cntr L" (lock)

(#37) Sbig_x válasza eldiablo (#29) üzenetére


Sbig_x
junior tag

A 6900XT ugyan oda ért volna, csak nem 5 perc alatt hanem 8, lévén az a kb 50W különbség nem annyival kevesebb, hogy ugyan úgy ne fűtötte volna be a házat egy idő után.

(#38) 1dude


1dude
aktív tag

Még a fele is sok.

(#39) eldiablo válasza Sbig_x (#37) üzenetére


eldiablo
addikt
LOGOUT blog

Öcsémnek XFX Swift 6900XT van egy CM NR400-as mATX házban. Pont ugyan olyan háza van mint amilyenből a 3080Ti-al költöznöm kellett egy jóval nagyobba. Hivatalosan 280-300W a TDP-je.
Ez pedig 10 perc CP2077 RTX 3080 Ti-al:

Peak 400W volt, ott jön a TDP limiter... :U
Ezelőtt egy Aorus 2080 Super Water Force volt az 350W-volt kitolt TDP-vel, de az messze jobban hűthető volt. Már bánom, hogy eladtam azt a kártyát. :(((

(#40) gbors


gbors
nagyúr

Milyen 900W @Abu? Világosan látszik a számokból, hogy 1500W-ot fog fogyasztani ;]

Amúgy meg sztem eljutottunk az információkáosz olyan szintjére az új generációkkal kapcsolatban, hogy semmilyen "információnak" nem érdemes hitelt adni. Mindent olvastunk már, és mindennek az ellenkezőjét is...

Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

(#41) tibaimp válasza gbors (#40) üzenetére


tibaimp
nagyúr

+1 Ez így van. Majd meglátjuk, mi lesz a valóság. Aztán max, meglepődünk...

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#42) arn


arn
félisten

Dugjatok fel ezeket a cpu/gpu kazanokat :DDD

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#43) Találtgyerek válasza arn (#42) üzenetére


Találtgyerek
addikt

Fűtésre jó lesz. Nem kell ide hőszivattyú meg fűtő klíma. :DDD

06-3o/9759I39

(#44) arn válasza Találtgyerek (#43) üzenetére


arn
félisten

En attertem macbookra meg konzolra, aztan majd veszek megint pct, ha normalis hwek lesznek normalis arban.

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#45) Találtgyerek válasza arn (#44) üzenetére


Találtgyerek
addikt

Azért a Macbook sincs normális áron, azt hozzá kell tenni.

06-3o/9759I39

(#46) arn válasza Találtgyerek (#45) üzenetére


arn
félisten

no igen, ott annyi amennyit rairnak, nem 700 eur aztan lehet 2000 lesz. Ebbol lett elegem, meg a fogyasztasbol. Elvbol nem veszek mar semmit msrp felett, sem ilyen sokszaz wattos kazanokat.

[ Szerkesztve ]

facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

(#47) Találtgyerek válasza arn (#46) üzenetére


Találtgyerek
addikt

A fogyasztás tényleg kicsit magasabb lett. Én most alulfeszlve használok egy 3070Ti-t, ami így is erősebb a gyári teljesítménynél és kevesebbet fogyaszt, mint egy 1080Ti alulfeszelve.
Sokan persze jól megkínálják a 3080-at meg a 3090-et, ott van pár 100W fogyasztás. :DDD

06-3o/9759I39

(#49) Robitrix válasza adamssss (#8) üzenetére


Robitrix
senior tag

Azért nem lineáris a grafikai feldolgozó egységek számának növelése a a feldolgozási sebesség növekedésével. Ha veszem az én GTX 1660-as kártyámat, amiben 1408 shader feldolgozó egység van és veszek egy RTX 3090-et amiben 15360 ha jól tudom. Vagyis elméletben egy 3090-es kártya vagy 11-szer annyi pixelt képes egy időben számolni egy képen, mint az én kártyám. Persze jóval gyorsabb a memória átviteli sebesség, a VRAM méret a sávszélesség de még a memória órajel is stb. Mégis mindent összevetve nagyjából úgy 3-szor olyan gyors nyers teljesítményben egy 3090-es kártya, mint az én 1660-asom. Ráadásul tényleges játék teljesítményben mondjuk FPS számban még ez a 3-szoros különbség se jön ki egy játékban. Ahol az én kártyám csinál mondjuk 100 FPS-ta akkor ott egy 3090-es ugyan abban a felbontásban és minőségben meg csinál 200-220-at. Vagyis a ténylegesen elérhető teljesitmény nem lineáris a feldolgozó egységek számával. Vagyis a grafikai feldolgozó egységek mennyiségének nővelése azért nem csodaszer a teljesítmény szempontjából. Az árakba nem is mennék bele azért. Ok, hogy van mondjuk FPS tekintetében 2-2,5 szeres szorzó, de árban meg ott a 6-7-szeres árkülönbség...

Copyright © 2000-2024 PROHARDVER Informatikai Kft.