Melyik játék alatt voltak ilyen gondjaid?
Gyorskeresés
Legfrissebb anyagok
- Retro Retro Kocka Kuckó 2024
- Bemutató Spyra: nagynyomású, akkus, automata vízipuska
- Bemutató Route 66 Chicagotól Los Angelesig 2. rész
- Helyszíni riport Alfa Giulia Q-val a Balaton Park Circiut-en
- Bemutató A használt VGA piac kincsei - Július I
Általános témák
LOGOUT.hu témák
- [Re:] [bb0t:] Gyilkos szénhidrátok, avagy hogyan fogytam önsanyargatás nélkül 16 kg-ot
- [Re:] [gban:] Ingyen kellene, de tegnapra
- [Re:] Fogyásom története
- [Re:] Elektromos rásegítésű kerékpárok
- [Re:] [bambano:] Bambanő háza tája
- [Re:] [antikomcsi:] Való Világ: A piszkos 12 - VV12 - Való Világ 12
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] [sziku69:] Fűzzük össze a szavakat :)
- [Re:] [Sub-ZeRo:] Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- [Re:] [ubyegon2:] Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
Hozzászólások
paljani
aktív tag
adr0001
tag
Azt csiripelik hogy az is lesz, itt. Már kíváncsi vagyok hogy a 3060Ti-m 4060Ti lesz-e hirtelen az AMD jóvoltâból.
"If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"
Busterftw
veterán
Miert a spike-okra kulon parameter van a dobozon?
Vagy amelyik ertek nem teged igazol, azt ne vegyuk figyelembe.
Egyetertek PuMbA-val, jonnek a kifogasok meg a haritasok.
adr0001
tag
Lehet azon vitatkozni hogy egy 760i vagy egy Ford Mustang fogyaszt-e többet, csak nincs értelme.
"If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"
arabus
addikt
Biztosra veheted hogy lesz hardveres megkötés.
Nem hinném hogy engedik hogy az uhd graphics-al 70 fps-el Asetto Corsazzak.
Meg mindenki 6700xt-t vegyen mert minden is elfut rajta 90e-ért.
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
Feri1984
tag
Konkrétan az egész steam könyvtáramat végig próbáltam.
Volt hogy bírta egy 1óráig is de volt hogy gép bekapcs,játék indít,load game...pufff képernyőillesztő nem válaszolt.
Fellehet tenni a kérdést hogy előtt 1060/1070/ utána pedig 3080/4090 kártyával volt-e ilyen hibám VALAHA!!! is.Spoiler SOHA.
[ Szerkesztve ]
paljani
aktív tag
Ez kezd komédia lenni, rajtam kéred számon, hogy a TDP/TGP/TBP stb. miért nem tartalmazza az ilyen 1-2 századmásodperces tüskéket? Nem te tekergeted ezt a “beszélgetést” össze-vissza “véletlenül”?
De akkor tanuljunk egy kicsit: a gyártók ezeket tipikusan az ajánlott tápmérettel fedik le. Ezek olyan rövid ideig tartanak, hogy a tényleges fogyasztást érdemben nem befolyásolják, tehát ha te bármiféle (pl. átlagfogyasztási) következtetést akarsz levonni akkor nemcsak rossz úton jársz, de rossz kontinensen is vagy egyszerre.
paljani
aktív tag
Értem. Ha “csak” 1-2-3 játékkal van gond az simán belefér a driverszar témába, de ha az összessel, akkor ott egészen biztosan valamelyik hardverelemmel (pl. alaplap, táp, maga a kártya) vagy akár többel egyszerre kellett legyen valami.
adr0001
tag
Csak azért várom mert eleinte open-source-nak hirdették, amit aztán később nem cáfoltak. Vagy ha igen, akkor arról lemaradtam. Aminek egyébiránt csak akkor van igazán értelme, ha tisztán szoftveres megoldásról van szó.
Nyilván vmilyen compute shader megoldás lesz és akkor én egy DX12 ultimate HW szintre lôném be a követelmènyt. Azoknál a kártyáknál marad is annyi kraft hogy ezt is csinálja meg a játék render-rel is foglalkozzon.
Párszor már leírtam itt a PH!-n, egy HD7970 2ms frametime-mal renderel 2160p/23,976-> 60fps-t (1000x jobb minõsêgben mint bármelyik TV)
nV-n a sziliciumba égetett rész csak a mozgásvektorok keresését gyorsîtja két kép közötti kûlönbség vizsgálatakor...
Maga a technológia faék egyszerûségû (az artifactok eltûntetése már nem annyira), és remélem az AMD-nek lesznek tökei ahhoz hogy kamura hivatkozva nem korlátozza a hozzáférést egy olyan cucchoz amit egy mosógép/kvfõzõ/anyám mikrója is simán kiköhõgne.
"If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"
arabus
addikt
Idővel okosabbak leszünk.
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
Feri1984
tag
Ugyan abba a gépbe berakva a 3080at minden probléma megszünt.
+ a 6800xt idle 44fokos volt 33% venti mellett.
3080 32 fokos.
Fórumokon találtam megoldást.azt mondták a memória pörög maxon valamiért vrr monitor miatt.át kellett volna állítani valamit a catalistban de amikor ezt megtettem a monitor sötétült el és csak a restart segítet,persze a a beállítás nem lett elmentve és megint forró volt a kártya.
Most a szívemre teszem a kezem én mindig szúrkoltam az amd-nek de saját tapasztalatok alapján sosem jönn össze nekik.
Most is a 7000-s vgák vapor chamberes hűtésével csak a problémákat olvasom a fórumokon.
100fokos 7900xtx-ek zsák szám.
4090en nem megy 70fok közelébe.
Proci oldalon ugyan ez.
5600x-em 4,6gh 360as aio hűtéssel játék közben melegebb volt mint az rtx 3080.
Tehát hiába a kisebb fogyasztás proci,vga oldalon egyaránt ha mégis melegszenek,valamint fps droppok és hardveres/szoftveres problémákkal küzdenek.
Egy szónak is száz a vége: drukkolol az amd-nek megint a 8000s procik/vgak kapcsán de amíg a fenti dolgokat nem oldják meg ln maradok intel/geforce oldalon még ha drágább is.
De ez csak egy ember véleménye 😊
[ Szerkesztve ]
paljani
aktív tag
Ami szar az szar, ezen nincs mit szépíteni. Én tök megértem, ha valaki ilyen tapasztalat(ok) után közelébe sem megy az adott márkának/gyártónak többet. Nekem eddig (~25 év/15 kártya vegyesen) szerencsém volt, ha gondok voltak is mindkét oldalon, nem ennyire meredekek, inkább csak apróbb, dühítő szarságok.
adr0001
tag
Giga 6600XT-m ugyanez, 1-2 hetes korában újrapasztáztam. Megszűnt minden gondom utána. Sok kedvem nem volt visszaküldeni, ezért csináltam én. Legközelebb bármi is legyen az, visszapattintom annak aki elkövette. Egyre trehányabbak a gyártók, és ha én oldom meg a kvázi DOA baját a szaruknak akkor pluszban csak az RMA listájukat karcsusítom. Így arra jutottam hogy a DIY ezen formája kontraproduktív lehet
visszaküldeni, aztán meg csak szedjék szépen össze magukat.
"If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"
Feri1984
tag
Ha már beszélgető partnerekre leltem ki mit gondol a pletykákról mi szerint az amd nem csinál csúcs vga-t a következő szériánál.
Valamint az nvidia a papír forma szerint 2 évente,vagyis jövőre esedékes next gen kártyákat el halasztotta 2025re.
A háttérben valószínű a MI fejlősése miatti hardverkereslet áll.
Mindkét gyártó inkább a ilyen felhasználású kártyákat fogja gyártani a gamer kártyák helyett.A jelenlegi kártyák előellítását is csökkentik.Ezzel újra kisebb kínálatot teremtve,ami ugye az áraknövekesésével jár.
Véleményem szerint megint csodás minimum 2 év áll a játékosok előtt.
Lehet érdemes lenne karácsonyra spórolni azoknak akik gondolkodnak gép fejlesztésen.Jövőre ne hogy megint pislogjunk mint ponty a szatyorban az árakat látva.
[ Szerkesztve ]
paljani
aktív tag
Én azt olvastam, hogy az RDNA 3 refresht kaszálták el, ami javította volna a teljesítményt. A jelenlegi XTX-ek teljesítménye ~20%-al az eredeti cél alatt vannak.
Most meg még az RDNA 4-ről is lehet olvasni, hogy csak a kisebbek jönnek, de ez rafinált dolog is lehet, tekintve hogy nem monolitikus felépítésben gondolkodnak, hanem chipletekben. Lehet (például) a kicsikből összegyúrnak 4-et és kész is az ultra high end cucc. Mindenféle hírek vannak meg másnap azok ellenkezői is.
Abban egyetértek, hogy mindenki vegye meg a legnagyobb GPU-t amire van budget, abból nagy gond nem lehet. Aztán attól senkinek nem lesz lassabb a kártyája, hogy vannak kint újabbak/gyorsabbak. De halogatni nem érdemes, hol kriptó hol AI hol kiskutyafüle: az árak csak nőnek és a jobb eset ha van készlet, a rosszabb ha drága valami és nincs is.
Sontir Fel
őstag
Azért ez megint sarkítás, bár talán érthető a keserűség.
Referencia 6800xt-t hajtottam közel 2 évig, OCzva is volt, ahogy a 6900xt-m is. Nem állítom, hogy nem volt soha driver gond, de ilyen szintű soha. Sőt, a legtöbb probléma az OC-ra vezethető vissza
+ végig AMD cpu
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
adr0001
tag
Volt már ilyen, előre bejelentés nélkül. A Poraris is kijött és utána 1 évig kb. semmi nem történt. Középkat. volt a javából, mégis, vitték mint a cukrot a Pascal ellenében is, mert ment is és az árazása jó volt. GPU fronton az AMD legnagyobb, legjobb, és leghűségesebb vásárlói a Sony és a Microsoft. A R&D Department elsôsorban az ő igényeikre figyel sztem. Az nV meg az AI-re. Egy ex-bányászkártyákkal teleszórt PC piacon ezen ne is csodálkozzunk.
"If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"
Feri1984
tag
Neked sarkításnak tünhet,én csak leírtam a tapasztalatomat.
Neked akkor szerencséd volt mindkét kártyával.
Nekem és mások nem.
Ha oc-ra is vezethető vissza?én nem oc-tam.
Sőtt próbáltam undervoltozni de annyira új volt a kártya hogy afterburner nem támogatta,catalyst,bocs adnerarin meg folyton összeomlott.
Ahogy fentebb írtam a widows asztalt bámúlva,tehát semmi más program nem futott és a kártya 44fokos volt.ha jól emlékszem a memória meg 65fokon füstölt.prõbáltam levinni a ramok órajelét de mintha nem is állítottam volna semmit.ugyanúgy pörögtek a ramok.
Látom írtad a procit is,nekem is volt 5600x.nem volt vele gondom.
viszont
all core 4,6ghz turbó,kis pbo
jelenleg 11700k all core 4,8ghz.
Tudod mi az érdekes?ugyanazzal a proci hűtővel,ventik és fordulatszámmal a +2 mag és 200hz órajel ellenére a 11700k hűvösebb.nincs delidelve.
14nm vs 7nm.
125w tdp vs 65w tdp
Kérdés hogyan lehet ez?
paljani
aktív tag
Úgy lehet ez, hogy a Ryzen chip (die) mérete 80 mm2 a core I7-é meg 276 mm2. Sokkal nehezebb a kisebb felületről elvezetni a hőt, mint a nagyobbról. És ugye nem is magát a die-t hűtöd, hanem a kupakot rajta ami tovább rontja-ronthatja a hatásfokot. Az, hogy a ryzenek melegek-melegebbek azzal alapvetően nincsen gond amúgy.
MolGabi
aktív tag
Van esély egy RX 7600XT bejelentésre is a közeljövőben? Vagy inkább úgy kérdezném, az előző generáció idején mikor adták ki a feljebb húzott alsó kategóriás kártyákat? Szerintem a 4060 16GB kártya után ésszerű lenne egy válasz az AMD-től egy pl. 7600XT 16GB vrammal, még ha erőben nem is egy felsőkategóriás kártya. Hosszabb távon jobb a több vram.
[ Szerkesztve ]
Feri1984
tag
Köszönöm a választ.Logikus.
Igen,nincs baj vele csak nekem "viszket" tőle az agyam egy kicsi része.
Kisebb nm technológia+kevesebb fogyasztás és mégis nehezebb hűteni.Nálam ez +5-8 fok volt a két proci között,idle és terhelés alatt egy aránt.
Félre értés ne essék,nem az intelt akarom magasztalni.
Ott is vannak azért hőfokok amiket nem tudok hova tenni.
Egy két proci igényesebb játáknál 135-140w kajálása közben
70-75 fok.Ami ugye megint nem baj de ugyan csak viszket az a valami hogy a max 300w fogyasztású kártyám meg 65.
És mit csinál az intel megint ősszel a 14.gennel.
Megint kis reszelgetés,megint kis órajel húzás,megint kis étvágy növelés.
13900k prociről láttam videót ,all core 5,5ghz.
Cinebench alatt 300w fogyasztás.
Jó,ez egy terhelés teszt és igen,játék közben nem lesz ilyen soha.értem én de akkor is.ne már.
Raymond
félisten
4060 16GB nincs, 4060Ti 16GB van csak
Privat velemeny - keretik nem megkovezni...
MolGabi
aktív tag
Szerintem érthető volt és nem az adott típuson volt a hangsúly, de köszönöm a felvilágosítást.
arabus
addikt
Nincs esély nem is volna létjogosultsága.
150-160ezres ársávban kéne lennie egy ilyennek ahol esélye sincs.
Rengeteg használt kártya van forgalomban 6800-ak 140e körül vehetőek,6700xt-k pedig 90-ért mindkettő erősebb tőle.Ne felejtsd el nem mindenki csak gamingre vásárol vga-t.
Sok területen a 7600 jócskán best buy vétel.
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
Sontir Fel
őstag
Felvetődik a kérdés, hogy, aki megvásárolta tőled, az is ezekkel a problémákkal szembesült vagy sem. Amennyiben igen, ott akkor elképzelhető, hogy hibás a kártya. RT-t leszámítva szerintem - és emlékezetem szerint - a 6800xt kicsit combosabb mint a 3080, nem beszélve a több memóriáról. 5600xről 11700ra váltás szintén érdekes döntés. 5800x3d kényelmesebb lett volna szerintem. Egyik barátom akart 11900at venni, hogy majd szénné OCzza, aztán jöttek a tesztek, hogy egy 12400 hozzá kb a szintet, el is engedte... Ha már Intel vonal
A melegedős kérdésedre látom már kaptál választ. Emlékszem engem is meglepett minden alkalommal a váltás, romlott vagy 10 fokot az érték CPU cserék alkalmával: 2700, 3600, 5600x, 5800x3d
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
Feri1984
tag
Nem tudok a kártyáről többet.
Igen kényelmesebb lett volna váltani 5800x3d-re de sokkal drágább is lett volna.
Alaplapomat annyiért adtam el mint amennyiért vettem.Mert megjöttek a 7000 amd proci a rohadt drága alaplapokkal,így a régi lapok ára is felment.Legalább is akkor nagyon mentek.Az áráért boltban vettem egy vadi új msi z590 tomahawk-ot és még maradt 5000 a zsebemben.A proci csere meg +25k volt de abből lejött az 5k.
Igy az egész csere 20k-ba fájt.Ekkor tájt ha jól emlékszem még használtan is 140k körül mentek a 5800x3d-k.így ez +50k-ba fájt volna.
Feri1984
tag
Korrigálok +70k lett volna
Aprósólyom
addikt
Azt a videót azért vannak, akik kritizálják és nem alaptalanul. pl. Techpowerup elég sokféleképp méri a fogyasztást és egy ideje a játékonkénti átlag fogyasztást is közlik, tehát rengeteg adatot össze lehet vetni és ugyan van különbség, de közel sem akkora, mint amit az Optimum tech csatin reprezentált a srác.
#48 Feri1984: Még így is a teljes PC 400W felett eszik a konnektorból a tápegység hatékonysága miatt. Akkora teljesítményből már pirítóst is lehetne készíteni
[ Szerkesztve ]
Jevons paradox
PuMbA
titán
Aki kritizálja az szűk látókörű. Attól, hogy valakinek csúcskártyája van nem azt jelenti, hogy csak nagy gépigényű AAA játékokkal kötelező neki játszani, hanem azt is, hogy játszhat könnyed szórakoztatókkal is mint pl. Among Us, Fall Guys vagy hamarosan megjelenő Party Animals. A TechPowerUp ilyen játékokkal nem tesztel, ezért jön ki más eredmény Ne felejtsük el, hogy a TechPowerUp sem egy mindenható tesztoldal, mert sok dolgot kihagynak a tesztjeikből, például ezt.
[ Szerkesztve ]
Aprósólyom
addikt
A szűk látókörűséget elkerülvén vedd figyelembe, hogy a TUF kártya egy AIB OC kártya szemben egy nVidia ref. kiadással. A TUF kártya max load-on 40 wattal többet eszik az AMD ref.-hez képest TP teszt szerint. Nem csak az órajel miatt, hanem a VRM/PCB design miatt is vannak eltérések fogyasztásban/hatékonyságban. Bizonyos esetekben nem kevés. (pl. XFX változat 60 Wattal eszik többet az AMD refhez képest.)
Techpowerup ugyan nem tesztel low/med. grafon, ez igaz, viszont a VGA-k fogyasztásának a skálázódását csökkentett terhelés esetében másként: 60Hz+V-sync kombóval szokta mérni. Persze nem ugyan az mint low/med. graf beállítás, de ez az opció is nagyon jól mutatja, hogy miként képest az architektúra optimalizálni magát light load-on. Ott sem mutatkoznak akkora fogyasztásbéli különbségek.
Hiába látok a videókon HW mérőeszközöket, más számok és hogy jóformán csak egy kisebb youtuber reprezentálta a jelenséget az összességében szkeptikussá tesz.
Ha majd egy hitelt érdemű tesztcsapat foglalkozik a kérdéssel és reprodukálni tudja az eredményt. Akkor azt mondom OK.
Addig ezeket a 200+ watt különbségeket én fenntartásokkal kezelném.
De ha van forráshivatkozásod ne tarts magadban én kíváncsi vagyok rá.
Jevons paradox
paljani
aktív tag
Tegnap este megnéztem pár YT összehasonlítást az újabb címeknél (4K - Max - 4080 vs 7900XTX)
- Atlas Fallen - 310W vs 345W
- LOTR: Gollum - 290W vs 345W
- Dead Island 2 - 320W vs 345W
- Diablo IV - 300W vs 345W
- Sons of the Forrest - 300W vs 346W
- Remnant 2 - 297W vs 366W
…aztán bealudtam. Szóval egy erős átlag 15-20% fogyasztáskülönbség van a 4080 javára, de azért nem többszáz wattok, ez utóbbi nagyon szituációs (1440p - minimum graf - 2 játék talán?) ahogy miszter optimumnvidiatech Úr is elismeri a videójában.
MolGabi
aktív tag
"Ne felejtsd el nem mindenki csak gamingre vásárol vga-t.
Sok területen a 7600 jócskán best buy vétel."
Nekem a jelenlegi RX580 után ez is óriási lépés lenne, de ahogy már sokszor ki lett tárgyalva, ugyanazért az árért jobbat is kap az ember, mint egy 7600. A 8GB 5 éve még jó dolog volt, ma már, főleg ha sok évre tervezi az ember, már nem túl biztató. Játékra is jó azért a 7600, ahogy az 580 is még helytáll, még ha kompromisszumokkal is, főleg a rosszabb portoknál. Személy szerint azért nem szívesen választanám a 7600-at, mert nem érzem azért az összegért azt az ugrást teljesítményben, tudásban, mint amit a korábbi gépfejlesztésnél. Ezért is gondolom azt, hogy nekem személy szerint a 6800 tudása lenne a következő, észszerű lépés.
A 7600-nak akkor lehetne szerintem reális ára, ha újonnan 80e Ft körül lehetne kapni. A 6000-es széria és a napokon belül érkező jelenlegi széria hiányzó tagjai miatt túl sok a lehetőség, ráadásul a használt piacon hirtelen rengeteg 6700XT lett, az árak ebből kifolyólag mennek lejjebb, szemben a 6800-as szériával, ami még mindig szerintem drága használtan is, már ha lehet kapni. De remélhetőleg heteken belül változnak a dolgok, főleg ha lesz "új" generáció és teljes lesz a 7000-es család is.
Azért kíváncsi leszek a Gamescom-ra, nem csak hardveres témában, remélem az idei nem lesz akkora csalódás, mint az elmúlt évek rendezvényei.
[ Szerkesztve ]
PuMbA
titán
Na ezeket a játékokat még én se néztem, jó információk! Én még például PS2 emulátorozok is PC-n, ami közbe szintén kevésbé jár a GPU, de ugyanúgy AAA játékokkal is játszok, oda pedig kell a 6700XT összes ereje.
Ha egybe vesszük a nagy gépigényű és a kis gépigényű játékokat, úgy kellene a tesztoldalaknak meghatároznia egy átlagfogyasztást szerintem. De hát mivel ez nincs, ezért kell több tesztet megnézni és abból összekaparni az adatokat, ha valaki alapos adatokat akar egy kártyáról.
[ Szerkesztve ]
Sontir Fel
őstag
Ezt értem, de miért jobb a 11700 mint az 5600x ? hacsak nem valami masra kell jatekon kivul
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
Feri1984
tag
Ez egy nagyon érdekes táblázat egyébként.Csak nem tükrözi a valóságot.
Tapasztalat alapján és nem túlzok!
Cyberpunk +25 fps
Call of Duty +20 fps
RDR 2 +20 fps
Mafia Remake +20 fps
Egyenlőre gondolom elég,ja és eltüntek a random fps droppok.
És hűvösebb.
paljani
aktív tag
Teljesen tökéletes a 8GB memória a 7600-asokra. Meg öt év múlva is az lesz, ugyanis ez egy belépőszintű (1080p) kártya. Hamarabb fogy ki a nafta belőle, mint a textúraméret kihízza a 8GB-ot 1080p-n, ha meg mégis, akkor lejjebb viszi az ember a textúra minőséget és kész.
A sokak által hivatkozott RX 580 (8GB) sose volt belépőszintű kártya, sőt a polaris-ok teteje volt, alatta volt az RX 550 2GB, RX 560 4GB, RX 570 4GB meg az RX 580 4GB. Ezért öregedett “ilyen jól”. Irreális összehasonlítgatni a mai belépőket ezzel, meg elvárni, hogy ugyanaddig és ugyanolyan jók legyenek mint az RX 580 volt. Azt inkább egy 7900XTX vagy 4080-tól lehet és ezek valószínűleg meg is fogják ugrani ezeket az elvárásokat…
Sontir Fel
őstag
Nem tudom, nem volt ilyen Intelem soha.
Itt is hasonlo az eredmeny:
[ Szerkesztve ]
BFBC2/Steam/BF2-3-4/Erszoft/BF42/: Mr.Norissz Origin: Mr_Norissz
(#88) Sontir Fel válasza Sontir Fel (#87) üzenetére
Sontir Fel
őstag
Feri1984
tag
Én csak azt mondom amit tapasztaltam.4090 alá kevés volt 5600x.
Feri1984
tag
Vagyis kevés lett volna mert akkor még 3080 dolgozott de gyakrabban volt 80-85%on mint felette.az fps számokkkal lehet kicsit túloztam.de 11700K +20k ért nekem megérte.
[ Szerkesztve ]
Dr. Akula
félisten
4K-ban már nem oszt-nem szoroz mi van alatta, minden procival kb. ugyanannyi az fps.
PuMbA
titán
"Teljesen tökéletes a 8GB memória a 7600-asokra. Meg öt év múlva is az lesz, ugyanis ez egy belépőszintű (1080p) kártya."
Ezt most meg tudom cáfolni neked, mert már ma problémás a 8GB VRAM rajta. Diablo 4 esetén a High textúrákat még 720p-s YouTube videó alatt is látom hogy homályosak az Ultrához képest és az Ultrához pedig nem elég a 8GB: [link]
"Hamarabb fogy ki a nafta belőle, mint a textúraméret kihízza a 8GB-ot 1080p-n"
A textúra minőség nem befolyásolja A teljesítményt, így ennek a mondatnak nincs értelme Low és Ultra textúra alatt is ugyanannyi fps-t tudnak a videókártyák.
[ Szerkesztve ]
paljani
aktív tag
Sajnos nem. Amit linkeltél az a két legerősebb CPU tesztje, pont semmennyire nem támasztja alá, hogy 4K-ban mindegy mi lenne a 4090 alatt.
Itt viszont szépen látszik mennyire NEM mindegy milyen CPU van a 4090 mellett (summary 11:42-től).
(Nekem viszont jó a linkelt videód, mert korábban írtam ide, hogy van olyan felbontás és játék, amiben az XTX megveri a 4090-et is, na ebben pont látni ilyet, többször is ).
Dr. Akula
félisten
Akkor itt van ez, szintén 4K, 9900k - 13900K-ig csak Intel összehasonlítás (de ha a korábbi alapján a 7800X3D ugyanaz mint a 13900K, akkor mondjuk az is benne van ). Néhol van jelentősebb különbség, de a legtöbbnél alig vagy egyáltalán semmi. Cyberpunknál pl. pont semmi. Mivel különböző felbontásoknál a kisebb felé haladva nyílik az olló, valószínűleg 4K-n belül is ott van komolyabb eltérés, ahol nem annyira nagy a terhelés.
Az XTX nem tudom hogy kerül ide, az előbbi videóban a tech specnél elmondják hogy 4090-el tesztelnek. A procikat váltogatják, nem a videokártyát.
arabus
addikt
Nekem van egy 7600-am izig -vérig jó kis kártya.
Ha fhd-ra keres valaki akkor optimális.
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
paljani
aktív tag
Ennek az értelmezésnek ugorjunk neki mégegyszer szerintem. Szóval hogyne befolyásolná a textúrák minősége (=mérete) a gpu teljesítményét? Minél nagyobbak annál több erőforrás kell a renderelésükhöz és annál több a VRAM igénye is. Manapság ez mondjuk kevésbé hangsúlyos (főleg 1080p alatt) fps oldalról, de attól még így van.
De megpróbálom átfogalmazni: Hamarabb kell levenni/kikapcsolni egy belépőszintű kártyán a grafikával kacsolatos effekteket mint hogy kifogyjon a 8GB VRAM-ból, hogyha ezt nem teszi meg.
(Mondjuk így se hangzik jobban… A lényeg, hogy 1080p mid-high beállításokhoz még sokáig elég lesz a 8GB VRAM).
(Amúgy ha továbbnézed a videódat 5:39-től, akkor látható, hogy elég a 8GB az ultrához).
PuMbA
titán
"Ennek az értelmezésnek ugorjunk neki mégegyszer szerintem. Szóval hogyne befolyásolná a textúrák minősége (=mérete) a gpu teljesítményét? Minél nagyobbak annál több erőforrás kell a renderelésükhöz és annál több a VRAM igénye is. Manapság ez mondjuk kevésbé hangsúlyos (főleg 1080p alatt) fps oldalról, de attól még így van."
Ez egy általános tévhit, de ne higgy nekem, próbáld ki. Amivel most éppen játszol játékokkal, nézd meg az fps-t alacsony és magas textúrán. Ugyanannyi lesz A nagyobb textúráknak csak több VRAM kell, GPU erőforrás nem!
"(Amúgy ha továbbnézed a videódat 5:39-től, akkor látható, hogy elég a 8GB az ultrához)."
Igen, de közben többször akadozni fog a játék, ez a videó lényege Nem egy kellemes játékélmény úgy.
[ Szerkesztve ]
paljani
aktív tag
Kevertem a videód ezzel, szori. Túl sok van már megnyitva.
Megnézted amit linkeltem? A Digital Foundry 4 és 8+ mag között szépen mért 30-80% különbséget. Amire te hivatkozol az mind 8 vagy annál sokkal több mag csak eltérő generációk.
Kolléga meg egy 6 magos 5600-at cserélt egy 8 magos I9-re. Persze, hogy ugrottak az fps-ek felfele…
PuMbA
titán
Egy kis segítség videó. Már 8 évvel ezelőtt is kimérték a textúra minőség állításának hatását 4K felbontásban és mérési hibahatáron belül volt még ezekkel a régi, nagyon gyenge hardverekkel is:
GTA V Texture Quality Comparison & Benchmark
#100 paljani: Így van, de csak akkor van köze, ha nem elég a VRAM A GPU erőnek nincs köze hozzá, ahogy eredetileg állítottad, ezért simán ráférne a 7600-ra is a 12 vagy 16GB memória és akkor akadozás nélkül Ultrára rakhatnád a textúrát például Diablo 4-ben.
[ Szerkesztve ]
paljani
aktív tag
“Igen, de közben többször akadozni fog a játék, ez a videó lényege”
Akkor mégiscsak van köze a taxtúra méretnek az fps- esekhez, nemigaz? Ha túllógnak a VRAM-on akkor szépen beszaggat az egész a faszba, amíg swappelget a RAM-ból.