Hirdetés

2024. április 28., vasárnap

Gyorskeresés

Hozzászólások

(#1) FragMaster


FragMaster
addikt

FSR3?

"FragMaster felhasználónak 11 pozitív és 0 negativ értékelése van a fórumon!": http://goo.gl/vYc6Ml

(#2) RobbyJr válasza FragMaster (#1) üzenetére


RobbyJr
őstag

Nemsokára jön a hírek szerint.

Nincs lehetetlen, csak maximum Te nem akarod eléggé!

(#3) Raymond


Raymond
félisten

"Scott Herkelman, az AMD grafikus üzletágának alelnöke...megszellőztette, hogy a következő héten esedékes Gamescom alkalmával új termékeket jelentenek majd be."

Ha Scott Herkelman mondta/irta akkor arrol is ketsegeim vannak hogy lesz egyaltalan Gamescom :))

Privat velemeny - keretik nem megkovezni...

(#4) Dr. Akula


Dr. Akula
nagyúr

A cím alapján azt hittem valami nextgent pattintott az AMD hogy átvegye a trónt az Nvidiától, erre csak valami középkategóriás valami...

(#5) podtibi válasza Dr. Akula (#4) üzenetére


podtibi
senior tag

A trón ha úgy vesszük a pénzen múlik és nem csak a vevőn, ha pedig az amd-nek ezen a szegmensen könnyebb uralkodni, akkor hülye lenne nem élni a lehetőséggel. Ugyebár a legjobb videókártya nem csak az lehet amiből kihozod a mindennél jobbat, hanem az is amiből kihozod a legjobb árat, ami jóval több profitot termelhet mindennél.

Aztán az is ott van hogy az amd-nek nem szükséges mindennél jobb kártyákat csinálnia, ha az nvidia-ról lelesheti hogy hogyan is uraljon egy másik szegmenset. Majd kiderül hogy melyik kategória hozza a legtöbb pénzt.

[ Szerkesztve ]

Ezt inkább rád bízom.

(#6) Chiller


Chiller
őstag

Nem látom az évszámot.

(#7) Dr. Akula válasza podtibi (#5) üzenetére


Dr. Akula
nagyúr

Az igaz hogy könnyebb ott uralkodnia ahol tud, mint ahol nem. Vakok közt félszemű a király. :) Sajnos már csak kontroll szerepük van (úgy a 9800pro óta), nem engedik elszállni az Nvidia árait túlságosan.

Ha az AMD az eladások királya, akkor hogyhogy nincs pénze fejleszteni hogy jobb legyen mint a konkurrencia? Csak nem azért mert egyáltalán nincs így, sőt fordítva van? Nem létező bevételből nem jut fejlesztésre se.

Nekünk meg aztán hótmindegy hogy kinek mennyi profitja van, nekünk csak az a fontos hogy a pénzünkért a legjobbat kapjuk.

(#8) Raysen623 válasza Dr. Akula (#7) üzenetére


Raysen623
addikt

Ennél sokkal fontosabb szerintem a gyártók megközelítése a fejlesztéseket tekintve. Zöldek folyamatosan az fps számok után rohannak (tipikus farokméregetéses stílus :) ), míg a pirosak - ha jól olvasom a topic-ot - rámentek a fogyasztás optimalizálásra, ami kevesebb fps-t jelent a sor végén. Ha ezt elengednék, akkor nyílvánvalóan tudnának akkora GPU-t gyártani hogy felvegyék a kesztyűt. De biztosan ez a jó út hosszútávon?

Alulfeszelést meg engedjük el, mert átlag Jóska nem csinálja és egyébként is mindkét gyártó esetén megoldható.

A MÁV-nak öt ellensége van: a négy évszak, meg az utasok.

(#9) hahakocka válasza Dr. Akula (#7) üzenetére


hahakocka
senior tag

Közèpkategben sokszor AMD ásta a legjobb ár èrtèket. Most is alsó S közèpkategben 6000 és szèria. Legtöbb vram azonos erő jó àr pl 6700xt-6800;6900xt S ha jó lesz esetleg a 7700-7800 akkor ott is esèlyes. 7900xt jobb 10% al a 4070ti nèl 20 GB Vram van rajta S olcsóbb 50e el, 4080 vs XTX ugyanez majdnem . Egyedül jelenleg a4090 ahol Nv az úr de azt a Paksot nem sokan tudjàk megvenni 700e Ft èrt S mellè tàp ház a mèrete miatta 1.5 millânàl vagyunk . Rt Ben jobb az NV de pl amikor meglátom hogy az Nvidiás Cyberpunkban is csak 43fps hoz a 4090 a 4080 28 át a 7900xtx 22 T kiröhögöm az egèszet annyit effektben nem is ad hozzà.

(#10) podtibi válasza Dr. Akula (#7) üzenetére


podtibi
senior tag

Nem írtam olyat hogy az eladások királya. Szimplán szerintem könnyebb lehet egy középkategóriát jobban kielégíteni és felépíteni, mintsem végül azon versenyezni hogy ki hozza ki a magasabb fps-t nagyobb fogyasztással. Az intel is megoldotta processzor terén, ha nem is videókártya, hogy piacilag fent maradjon bármi áron és legyen belőle profit. Az amd mért is versenyezzen mindazzal ami csak több pénzbe kerül? Ha könnyebb középen felülmúlni az nvidia-t, akkor ott kell felülmúlni. Az hogy miben lesz az amd jobb, engem aztán nem érdekel, de ettől még több értelme van ott megszorongatni az nvidia-t, ahol jobban meg lehet szorongatni.

Igen. Nekünk a legjobb kell, de nekik attól még mindig a profit számít és ahogy látom ez a "verseny" sem már a vevőről szól, hanem az eladóról. Ez az ami senkit nem izgat, ahogyan tapasztalom.

[ Szerkesztve ]

Ezt inkább rád bízom.

(#11) RobbyJr válasza hahakocka (#9) üzenetére


RobbyJr
őstag

Ez így van ahogy mondod, annyi az Nvidia előnye, hogy az új 4000-es kártyák jóval kevesebbet fogyasztanak.

Nincs lehetetlen, csak maximum Te nem akarod eléggé!

(#12) podtibi válasza hahakocka (#9) üzenetére


podtibi
senior tag

Azért megnézném hogy hogy állna profit ügyileg az nvidia és az amd ha nem volna fsr és dlss. Ezek nélkül jóval kevesebb volna a profit. Nem hiába marketing a marketing.

Ezt inkább rád bízom.

(#13) Dr. Akula válasza Raysen623 (#8) üzenetére


Dr. Akula
nagyúr

Amíg Radeonom volt, mindig a jövőbemutató featurekre mentek rá, csak épp game nem volt ami kihasználja, közben meg olyan sz.r fps-eim voltak hogy inkább váltottam (vissza). Most meg se feature, se sebesség, RT-ben is csak loholnak az Nvidia után. (+DLSS, +frame generation.) A fogyasztás csökkentése jó dolog, csak nem mindegy mi fogyasztja el azt az áramot. Az S3 Trio mégkevesebbet fogyaszt, de mégkevesebbet is nyújt cserébe. :) De annyira most a fogyasztásban se bajnokok.

#9hahakocka: Ez az egyetlen amit csinálni tudott a termékével, hogy beárazza reálisan. Ez azonban nem vívmány, hanem kényszerpálya. Ha jobbak lennének, ők is mernének nagyobbat álmodni, mint tették azt az Athlon64 X2 korszakban. És még ezt az eredményt is nagyban köszönhetik a bányászok okozta VGA hiánynak is, amikor nem volt Nvidia, és az ember már az AMD-re is ráfanyalodott, csak legyen már valami a régi helyett.

(#14) hahakocka válasza RobbyJr (#11) üzenetére


hahakocka
senior tag

Igen kevesebbet 30-40W al? Ha a 7900xt-4070ti-7900xtx 4080 at nézzük. Ennyi előnye volt korábban AMD nek szintén azt senkit se érdekelt. Mert nem nagy érvényű előny. 50+ tápcsere se kell e különbségre. Undervoltolni meg lehet mindkettőt.

Podtibi : Végre igen teljesen egyetértek az FSR és a DLSS egyelőre marketing eszköz semmi más. Veszel egy vadiúj kártyát hogy az alsókategben bekapcsold és 720pről skálázz fel 2023 ban!!!!! Menő. :D A másik hogy a DLSS3 nál minél nagyobb a difi a raszter és a DLSS3 al hozott FPS között annál rosszabb lesz a kép minősége. Ezért DLSS2 t szoktak helyette inkább sokan használni. Az se tökély egy natívhoz képest de annál az is jobb. Ezért tartanak a fake frames FSR3 tól is már sokan hacsak ki nem tudták javítani.

Dr. Akula: Nekem is volt NV-m s éppen Geforce 4 régen pl, meg 950m laptopban. Volt driver hibám 1-2 apró dolog de ezért most azt kell mondjam én is hogy akkor életem végéig rossz az Nvidia vagy mi? Ezt sose értettem. Már rég nem az az AMD legkésőbb a 2019 es adrenalin driverre váltással mint régen Ati korszakban. Legalábbis én nem tapasztaltam azóta se. Míg pl a Geforce drivere ugyanaz az őskövület, az AMD drivere sokak szerint modernebb, s bármit lehet állítani.

[ Szerkesztve ]

(#15) paprobert válasza Raysen623 (#8) üzenetére


paprobert
senior tag

"Zöldek folyamatosan az fps számok után rohannak (tipikus farokméregetéses stílus :) ), míg a pirosak - ha jól olvasom a topic-ot - rámentek a fogyasztás optimalizálásra, ami kevesebb fps-t jelent a sor végén."

Pontosítanék.
Az AMD azért nem hajtja a jelenleginél is jobban túl a kártyáit, mert azok nem gyorsulnának tőle számottevően.
Az NV pedig azért nem, mert nincs rá szüksége, elviszi a koronát így is.

A piros "fogyasztás optimalizálás" egyébként pont nem látszódik sehol, ebben eléggé le van maradva az RDNA3. (perf/watt)

[ Szerkesztve ]

640 KB mindenre elég. - Steve Jobs

(#16) paljani


paljani
aktív tag

Jaj, roppant mód le van maradva az rdna 3 fogyasztásban. A zöldek “kettéhugyozzák” őket, mutatom: 7900 xt (315W) vs 4070ti (285W) ill. 7900 XTX (355W) vs 4080 (320W). 10% vagy az alatti a difi mind a kettő esetben. Mit is mondjak… húha… ég és föld… Ennél már csak az hányásabb érvelés, hogy “egyszer 15 éve volt gondom radeon driverrel ezért csak az nvidia”.

A kotta úgy néz ki, hogy vagy kapsz 10-15%-al nagyobb (raszter)teljesítményt azonos áron (7900xt vs 4070ti) vagy 20%-al olcsóbb árat nagyjából azonos teljesítményért (7900xtx vs. 4080). Meg sokkal-sokkal (sokkal!) több memóriát. Ez utóbbi fog a legtöbbet számítani hosszútávon. Raytracingre maradnak a zöldek, bár az új amdk is bőven jók (a prevgen nvidia tetejét hozzák) lájtosabb beállítások mellett, mert az még mindig megfektet mindent felskálázás nélkül 4K-ban. Lehet választani mindenkinek.

(Arról már nem is beszélek, hogy a legtöbb amd haternek valami komoly 3060-3070 szintű “rettenet” van a gépében, lef*snák a bokájukat ha csak megfoghatnának egy XTX-et..)

(#17) hahakocka válasza paljani (#16) üzenetére


hahakocka
senior tag

Teljesen egyetèrtek bár a stílusod picit azèrt durvàbb.

(#18) PuMbA válasza paljani (#16) üzenetére


PuMbA
titán

Ne elméleti adatokra hivatkozz. Valós fogyasztási adatokat nézz. YouTube-on találhatsz ilyeneket (például az “AMD really needs to fix this” az Optimum tech csatornán) ahol láthatod, hogy több játékban 100-200W fogyasztási különbség van a 4080 és a 7900XTX között.

[ Szerkesztve ]

(#19) paljani válasza PuMbA (#18) üzenetére


paljani
aktív tag

Én a hivatalos (=gyártó által megadott) maximum fogyasztási adatokra hivatkozok, ilyen egyszerű. Minél raszter/raytracing intenzívebb egy adott cím, annál közelebb vannak/lesznek a kártyák ehhez (jövőben megjelenő játékokra ez hatványozotta. Igaz). Lehet az optimumtech-es csóka ezeréves cs:go 1440p low grafikán lemérte a fogyasztáskülönbséget és valóban nagyobb (értsd az rdna 3 lefele nem skálázódik jól) de nézd meg ugyanezt frissebb címekkel, 4K-ban: mindjárt 50-60 Wattra olvad a különbség (RDR2, CP 2077, Hogwarts legacy etc.). Ennyit erről, senki nem 1440p/low-ra vesz felsőkategóriás kártyákat.

Az RDNA 3 többet fogyaszt, ezért cserébe olcsóbb és/vagy nagyobb teljesítményt ad le. Ezt írtam és ezt továbbra is fenntartom.

(#20) Busterftw válasza Raysen623 (#8) üzenetére


Busterftw
veterán

Ehhez kepest az RDNA3 rosszabb fogyasztasi mutatokkal rendelkezik, mint az Ada.

(#21) PuMbA válasza paljani (#19) üzenetére


PuMbA
titán

Látod ez a baj, hogy még most se nézel utána a dolgoknak, csak 1 percet megnéztél abból az 1 darab videóból már leírod a nagy konklúziódat, ami helytelen. Nem csak low grafikán van ez :) Például a Last of Us Part 1 alatt 4K Ultra beállításokon is 100W-os fogyasztás előnnyel dolgozik az RTX4080, miközben még 10%-kal gyorsabb is: RX 7900 XTX vs RTX 4080: The Ultimate Comparison, de szemezz tovább ebben a videóban mert még találsz ilyeneket. Nem csak 50-60W a különbség.

[ Szerkesztve ]

(#22) Rowon


Rowon
veterán

Szerény véleményem szerint nem az a kérdés, hogy az AMD tudna-e jobb kártyát gyártani a 4090-nél, hanem, hogy akar-e? Szerintem ők inkább egy másik szegmenst igyekeznek kiszolgálni ár-érték arányban jó kártyákkal, egy anyagilag érzékenyebb közösséget, mert valószínűleg rájöttek, hogy ez a réteg a szélesebb, ennek éri meg jobban gyártani és eladni. Az AMD fullhd kártyái azért nagyon jók lettek és manapság még az emberek többsége fullhd-n nyomja a pasziánszt.

Az emberiség két legnagyobb találmánya az írás és a mikrohullámú sütő.

(#23) paljani válasza PuMbA (#21) üzenetére


paljani
aktív tag

Szerintem vegyél vissza, én csúnyán írok DE NEM személyeskedek.

A last of us egy ótvaros konzolport (ezer helyen leírták), pont nem vonnék le semmiféle következtetést belőle, de ha valaki ezzel és csak ezzel (!) játszik a csúcskártyáján akkor vegye a 4080-at rá minimum 20%-al drágábban. Ilyen egyszerű.

(Van játék és felbontás ami alatt a XTX még a 4090-et is megveri, ettől akkor jobb lesz mint a 4090? Nagyon nem…)

(#24) PuMbA válasza paljani (#23) üzenetére


PuMbA
titán

Na, jönnek a kifogások meg hárítások, hogy ez a játék nem számít....ajjajj, akkor ennyi volt a beszélgetés :) Zárjuk le a témát. További szép napot!

[ Szerkesztve ]

(#25) Busterftw válasza PuMbA (#24) üzenetére


Busterftw
veterán

Ha az AMD rairja hogy RTX 7900XTX 50W, akkor 50W, hiszen a gyartotol van az info, teljesen mindegy, hogy a gepbe rakva 3x annyit fogyaszt.
Micsoda objektivitas. :N

[ Szerkesztve ]

(#26) paljani válasza Busterftw (#25) üzenetére


paljani
aktív tag

Pontosan melyik kártya és mikor fogyaszt 3x annyit mint amennyit a gyártó ráír?

(#27) paljani válasza PuMbA (#24) üzenetére


paljani
aktív tag

Neked is szép napot!

(#28) Chiller válasza PuMbA (#18) üzenetére


Chiller
őstag

YT-nak élből nem hiszek, ott csak "támogatott" tartalom van 99%-ban.
Értsd: egyértelműen reklám, direkt olyan beállításokat mutogatnak, ami megfelel a fizető cégnek. Biztos újat mondok, de ezek ebből élnek.

Még a hivatalos szöveges-képes-diagramos revieweket is meg kell nézni az embernek már rendesen - de ott legalább össze lehet gyorsan hasonlítani őket feketén-fehéren. Nem 10 db 20-30 perces videóból összeollózni válogatni kideríteni mi az igazság. Kinek van erre ideje?

100-200 wattos különbség igencsak hihetetlen, mikor pld. ezek a max spikeok:

[ Szerkesztve ]

(#29) Raymond válasza Chiller (#28) üzenetére


Raymond
félisten

"YT-nak élből nem hiszek, ott csak "támogatott" tartalom van 99%-ban."

OK :U

"100-200 wattos különbség igencsak hihetetlen, mikor pld. ezek a max spikeok"

Es mi koze a max spike-oknak ahhoz amirol a videoban szo van? Tehat arrol hogy hogyan viselkedig a kartya olyan jatekok alatt ahol nem kell a plafonig tolni a TDP/TGP-t?

Nezd, lehet a homokba dugni a fejet, de ez a tema a megjelenes ota letezo problema es a tulajok azota varnak valami megoldasra vagy javitasra az AMD reszerol. A video arra mutat ra hogy meg mindig nem lett kezelve sehogy. Persze az is lehet hogy nem tudjak sehogy kezelni.

[ Szerkesztve ]

Privat velemeny - keretik nem megkovezni...

(#30) Busterftw válasza paljani (#26) üzenetére


Busterftw
veterán

Teljesen irrelevans a sarkitott peldam, amig a mondandot nem sikerult megerteni, mert a hozzaalasod ugyanaz.
Te a gyartoi ertekeknek hiszel, nem pedig a valos fogyasztasnak.
Tehat mirol akarsz beszelni?

(#31) Chiller válasza Raymond (#29) üzenetére


Chiller
őstag

Úgy értem, ha a max spike 412W vs 334W, akkor az nem 200W különbség. És ez a max, mert az meg hogy normál game között átlagban 284W vs 320W, az remélem senkinek sem szúrja a szemét...

Ránéztem most a videóra, és pontosan azt bizonyítja, amit írtam...
1440p-ben futtatni OW2-t meg F1 22-et egy csúcs GPU-n, 3000+ eurós asztali gépen ? Esetleg LOW-on? Olyan helyzeteket generálnak, amivel kb senki nem találkozik real life.

[ Szerkesztve ]

(#32) PuMbA válasza Chiller (#31) üzenetére


PuMbA
titán

A TechPowerUp a spike-okat FurMark alatt méri, ami olyan terhelést rak a kártyákra, mint egy játék se, így irreleváns ebben a diskurzusban. Nézd meg több TechPowerUp VGA tesztben a fogyasztás grafikont és láthatod, hogy a FurMark alatt teljesen máshogy viselkedik mindegyik VGA.

"Olyan helyzeteket generálnak, amivel kb senki nem találkozik real life."

Ezért nézd meg a második beszúrt videómat, ahol 4K magas grafikával tesztelnek és ott is 100W körüli a különbség az ott tesztelt játékok felében :)

[ Szerkesztve ]

(#33) paljani válasza Busterftw (#30) üzenetére


paljani
aktív tag

Végig arról volt szó, hogy az egyik többel (!) eszik kevesebbet mint a másik a gyártói adatokhoz képest. Egy szó nem volt arról (amíg meg nem jelentél a “sarkított példáddal”), hogy bármelyik is többet enne a gyártói adatoknál.

Tehát miről akarsz beszélni?

(#34) PuMbA válasza PuMbA (#32) üzenetére


PuMbA
titán

Itt a probléma ugye mindig az, hogy egy VGA sosincs 98%-ban kihasználva játékok alatt, hiába írja azt a felirat, mert az csak a parancsmotor kihasználtságát írja ki. Abu írta le ezt anno valamikor. Egy VGA valós kihasználtsága jó, ha 60-70%-ot eléri a játékok alatt és ehhez is jól optimalizált játék kell és emiatt tud ennyit spórolni az NVIDIA a fogyasztáson, mert kiváló az energiamenedzsmentje. Mondom ezt úgy, hogy AMD VGA-m van, egy 6700XT, de amit el kell ismerni, azt el kell :) Az AMD az olcsósággal és a plusz VRAM-mal egyébként ezt jól kompenzálja.

paljani: "amik nem életszerűek szerintem se"

Mert nem mozogsz esport játékok közében. Én Valorantot játszik 144fps-re korlátozva, így a VGA-nak még a ventijei se pörögnek fel, mert 30%-on pörög csak. Életszerű a példa, mert sokak játszanak esport címekkel.

[ Szerkesztve ]

(#35) Busterftw válasza paljani (#33) üzenetére


Busterftw
veterán

"7900 XTX (355W)"

"Én a hivatalos (=gyártó által megadott) maximum fogyasztási adatokra hivatkozok"

Hat pedig ezt irtad.
Ehhez kepest a 7900XTX ezt boven tullepi. de jah vegig arrol volt szo.
A lenyeg azon van, hogy az RDNA3 teljesitenyehez kepest indokolatlanul sokat fogyaszt, mikozben elvileg az energiahatekonysagra mentek ra.

[ Szerkesztve ]

(#36) paljani válasza Chiller (#31) üzenetére


paljani
aktív tag

Valójában az szúrta a szemét a jútubernek, hogy amíg bizonyos terhelések mellett (amik nem életszerűek szerintem se) a 4080 szépen visszaveszi a fogyasztást akár 70W-ig is, addig az XTX nem. Itt valóban lehet <200W különbség közöttük,, de ez bőven a gyártói specifikáció határain belül. Erre írtam, hogy nem skálázódik jól “lefele”.

Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között. Ami meg nyilván nem így van.

(#37) PuMbA válasza paljani (#36) üzenetére


PuMbA
titán

"Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között. Ami meg nyilván nem így van."

Nem minden terhelésen és nem minden körülmények között, én átlagban állítottam vagy akartam állítani ezt, ami teljesen megállja a helyét, hiszen sokan esport játékokban 144 vagy 240fps-es cap-pal játszanak (amik cap nélkül 600fps-t hoznának), mint például én is Valorant alatt, és ilyenkor 30% a VGA kihasználtságom, azaz még a ventik se pörögnek fel. Erre kezdtétek el mondani, hogy nem életszerű, mikor a saját példámon látható, hogy az. Optimum tech is azért tesztelt így, mert ő egy esport játékos! Emellett a mai játékok kb. felében van 100W különbség nagy terhelés alatt is, azaz 4K Ultrán. Ezek a tények, de legyen nektek igazatok, ne offoljunk tovább és békében váljunk szét :R

[ Szerkesztve ]

(#38) Raymond válasza Chiller (#31) üzenetére


Raymond
félisten

"Ránéztem most a videóra, és pontosan azt bizonyítja, amit írtam..."

Ez a video? [link] Hogyan?

@paljani
"Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között."

Ilyet ki irt itt?

[ Szerkesztve ]

Privat velemeny - keretik nem megkovezni...

(#39) paljani válasza Busterftw (#35) üzenetére


paljani
aktív tag

Rosszul fogalmaztam, amikor a “maximumot írtam” simán TBP-t kellett volna, akkor most nem tudnál ezen az egy szón lovagolni…

(kifacsart logikád mentén a 4080 is egy nagy rakás szar, mert peakre benyal az is 380W-ot, aztán “csak” 320W van megadva rá.)

(#40) paljani válasza PuMbA (#37) üzenetére


paljani
aktív tag

Mink mán’ elköszöntünk de spongyát rá! :DD

Az optimumtech nvidia sponsored csatorna, amivel semmi gond nincsen, viszont ez megmagyarázza, hogy miért keresi az XTX-en “a csomót” és nem azért mert húha ranked esportos lenne…

Az a helyzet, hogy mindenre találni példát és mindennek az ellenkezőjére is a játék(teljesítmény) világában. Főleg, hogy a stúdiókat hol a ződ’ hol a vörös támogatja az adott címet illetően. Az egyik raszterben, min fpsekben meg árban erős(ebb) a másik meg fogyasztásban meg RT-ben. Rohadtul nincsenek nagy különbségek, maximu felnagyítottak vagy szituációsak. Ennyi.

(#41) arabus válasza paljani (#40) üzenetére


arabus
addikt

Nincsenek nagy különbségek.
Csak árban...ott viszont elég nagy.
De szerencsére még mindég választhat mindenki.
Az amd kicsit többet kajel az nv-n meg jó húzós az árcédula.
Valójában szerintem teljesitményben nincs egetverő különbség köztük.
Viszont 4090 árából pont beszereztem 3 radeont egy 24gb,egy 16gb,egy 8 gb.

Xeon Platinum 8468,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

(#42) Raymond válasza paljani (#40) üzenetére


Raymond
félisten

"Az optimumtech nvidia sponsored csatorna"

Az ilyeneket honnan szeded? :U

Privat velemeny - keretik nem megkovezni...

(#43) Rowon válasza paljani (#40) üzenetére


Rowon
veterán

Pumpával ne kezdj el vitatkozni, mert soha nem lesz vége. :P

[ Szerkesztve ]

Az emberiség két legnagyobb találmánya az írás és a mikrohullámú sütő.

(#44) Busterftw válasza Raymond (#42) üzenetére


Busterftw
veterán

Biztos a 7900XTX dobozan volt, hivatalosan az AMD-tol.

(#45) himpike


himpike
aktív tag

"Persze jók a programok, minden jó... csak sok köcsög van..."

(#46) paljani válasza Busterftw (#44) üzenetére


paljani
aktív tag

Jaja, közvetlen a sárga warning cimke alatt amire az volt írva, hogy “Please note that this card may consume up to 3 times the rated TBP as the famous hungarian prohardver forum user Busterftw pointed out!”

(#47) Chiller válasza PuMbA (#32) üzenetére


Chiller
őstag

Na de várj akkor tehát azt mondod, hogy a furmark spike-nál kevesebbet spikeol game alatt? Ez nyilván igaz lehet, de akkor logikusan végiggondolva game alatt még kisebb lehet a max spike fesz radeon alatt, tehát még kevesebb a különbség a két gyártó között. :F

"mint például én is Valorant alatt, és ilyenkor 30% a VGA kihasználtságom"
Itt megint csak felmerül a kérdés, minek a 3000 eurós gép 30%-ra...

Örülök ha környezetbarát módon használod, ne érts félre :R
Csak ha esport akkor (tudtommal) a többség vagy valami olcsó középkategóriás géppel nyomja (mert csak erre telik), vagy csúcsgépen minden alkatrészt maxra tolva csilliárd fps-el full lowon.

[ Szerkesztve ]

(#48) Feri1984


Feri1984
tag

Idegből megy itt az adok-kapok kérem szépen.
Volt nekem is amd konfigom (5600x + 6800XT) ,csak volt.
Nekem sajnos igen sok gondom volt a driverrel.Játék közben kifagyások sorozata volt,aztán az asztalon fogadot a kis ablak hogy jaj az amd képernyőillesztő nem válaszolt.Csinálhattam,állítgathattam én akármit amit a fórumokon tanácsoltak.Friss winfos is lettmár a gépen.Azt felnyomtam apróra.Kaptam érte egy rtx 3080-at 1:1be.
Érdekes módon utána nem volt gondom.
Most egy inno 4090 zakatol.Csak az összehasonlításhoz.
Cyberpunk 2077 (Mert hát ez csak nem konzol port)
Natív 4K no dlss,no rtx,mert abból ugy amd gyenge
Minden más max
Igen,undervolting van.0,9v engedtem neki a képen látható órajelen,memóriához nem nyúltam.

Undervolting nélkül,csak a telesség igényével.

Csak azért hogy egy 4090-t is lehet etetni 280w-tal és még így is erősebb bárminél.

(#49) Busterftw válasza paljani (#46) üzenetére


Busterftw
veterán

Csak a gyartoi ertekekben lehet bizni, megmondtak itt.
Ha mast mernek ki a falbol, az kamu es Nvidia fizetett teszt. :K

[ Szerkesztve ]

(#50) paljani válasza Busterftw (#49) üzenetére


paljani
aktív tag

Picit összezavarodtam újfent, mert még a linkelt youtube videókban sem láttam magasabb fogyasztást mint amire az adott kártya paraméterezve volt. Hol mértek ki többet mint a TBP? (Mínusz spike-ok).

Copyright © 2000-2024 PROHARDVER Informatikai Kft.