Hirdetés

2024. szeptember 13., péntek

Gyorskeresés

Hozzászólások

(#1) Bici


Bici
félisten

Nem tudom mennyire általános, hogy a ZLUDA gyorsabb, mint a HIP, de ha igen, akkor az AMD-nek el kellene gondolkodnia ezen. :U

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#2) BiP


BiP
nagyúr

Az AMD helyében én megvenném/alkalmaznám a fejlesztő csapatot, hogy azt a tudást nálam kamatoztassák.

(#3) Alogonomus


Alogonomus
őstag

Nem volt elegáns dolog, hogy az AMD így kitolatott a projektből, de az Nvidia márciusi döntése már egyébként is eléggé meggyengítette a ZLUDA helyzetét.

(#4) martonx


martonx
veterán

Iszonyú kínos helyzet az AMD-nek, hogy sok program nagyságrendekkel gyorsabban fut a CUDA-nak köszönhetően a régi 1070Ti-omon, mint az új RX 6700XT-n.

Én kérek elnézést!

(#5) Predatorr


Predatorr
őstag

Nekünk meg nincs szükségünk a sokat fogyasztó, gyenge, bugos AMD VGA-kra.

[ Szerkesztve ]

"Amely probléma nem megoldható, azt meg kell szüntetni."

(#6) Nemfértkiaze válasza Alogonomus (#3) üzenetére


Nemfértkiaze
kezdő

Az nv cucca a cuda. Gondolom elkerülik a pereskedést.

(#7) nuke7 válasza Predatorr (#5) üzenetére


nuke7
veterán

nyilván ha nem játszol akkor nem érdemes AMD-t venni.
Raytracing-ben kicsit még jobbak, de LLM training-ben meg nyilván behozhatatlan az előnye az nvidia-nak (szerk. egyelőre :DDD) .
Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz :)

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#8) Busterftw válasza Alogonomus (#3) üzenetére


Busterftw
veterán

Márciusban csak a driverben frissült az EULA, de ez a honlapon már több éve így volt. Tehát nem a ZLUDA miatt reagálták le márciusban.
Itt ph-n nem frissült a cikk.

"Nvidia has banned running CUDA-based software on other hardware platforms using translation layers in its licensing terms listed online since 2021, but the warning previously wasn't included in the documentation placed on a host system during the installation process. This language has been added to the EULA that's included when installing CUDA 11.6 and newer versions."

(#9) martonx válasza nuke7 (#7) üzenetére


martonx
veterán

"Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz"

Az a baj, hogy ez az elmélet. A gyakorlat meg az, hogy bugos a driver, gyakran még olyan alap játékok se futnak rendesen AMD GPU-n, mint pl. Fortnite. Vagy csak olyan luxusod támadna, hogy nyáron underclock-old a hősugárzód (RX 6700 XT), na minden driver frissítésnél elfelejti a beállításokat az AMD nyomorult szarja.
Ha meg az ember véletlenül videót vágna, 3D progival szórakozna, netán AI-val, akkor az AMD tudománya rögtön megáll :(
Szóval szvsz leginkább pénz pocsékolás AMD-t venni :( Mondom ezt AMD fanként, RX 460, RX 570, majd RX 6700 XT tulajként.
A valahogy hozzám keveredett 1070 Ti röhögve viszi a nem játék terheléseket, miközben Fortnite-ban kétszer annyi FPS-t nyom, mint a 6700 XT. A minimum FPS-ről nem is beszélve.

Én kérek elnézést!

(#10) nuke7 válasza martonx (#9) üzenetére


nuke7
veterán

hát én 6800-al tolom 3060ti árban és azt cserélve és maximálisan meg vagyok vele elégedve :D
a driver valóban szeret felejteni de pl. nem pörgeti magát akkor se a kártya ha 3-4 monitor van rákötve... ehhez a mutatványhoz külön progit kellett leszedni az nvidia kártyához és abban manulálisan underclockolni meg megmondani neki, hogy mi minősül 3d terhelésnek... :K szóval az se jobb.

Vegas pro nekem teljesen jól bánik az AMD hardveremmel, AI-ra valóban nem venném, de ezt irtam is...

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#11) martonx válasza nuke7 (#10) üzenetére


martonx
veterán

Több monitorral nincs tapasztalatom, az egy nagy monitor híve vagyok.

Én kérek elnézést!

(#12) b. válasza nuke7 (#7) üzenetére


b.
félisten

"Viszont gamer-ként semmi értelme nvidia gpu-t venni, konkrétan ugyanazért az árért egy kategóriával jobb AMD-t kapcsz"

Ez konkrétan hazugság.
Alza árak a legolcsóbat néztem mindegyikből FHD vagy 1440P computerbase.
- RX 7600= 113 K , RTx 4060= 116 K. 4060 raszterben erősebb 4 % kal, RT ben 17 % kal.

- RX 7600XT = 144 K, RTX 4060 Ti = 154 K.. RTX 4060 Ti 15 % kal erősebb , RT ben 23% kal [link]

-7700 XT = 195 K 4070 = 225 K raszterben a 4070 14% kkal erősebb RT 27 % kal [link]

- 7800XT = 216 K 4070= 225 K, 4070 super =243K a 7800XT 6 % kal erősebb raszterben mint a 4070 és 10 % kal gyengébb mint a 4070 super. RT ben a 4070 23 % kal erősebb mint a7800XT a 4070 super 45 % kal erősebb.

- 7900 GRE : 319 K , 4070 Ti =303 K , 4070 Ti super = 353 K. A 4070 ti 13 % kal, RT ben 28 % kal a super 27 % kal erősebb raszterben és 55 % kal RT ben... [link] [link]

- 7900XT= 324 K 4070 Ti super = 353 K 4 K raszterben egál, 1 % kal erősebb a 4070 Ti super , RT ben 30% kal erősebb.

- 7900XTX =439K, 4080 Super =470K. 4 K raszterben egál, 1%, RT ben 30 % kal erősebb a 4080 ... [link]

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#13) joysefke válasza martonx (#9) üzenetére


joysefke
veterán

Nekem is 6700XT-van, egy Red Devil. Ezek a kártyák kifejezetten energiahatékonyak tudnak lenni, ha minimálisan korlátozva van a fogyasztásuk. Az enyémen ehhez van BIOS kapcsoló Silent / OC állásokkal. Érdemes silentre állítani. Ha erre nincsen lehetőség, akkor 170W-ra korlátozni.

(#14) Nemfértkiaze válasza b. (#12) üzenetére


Nemfértkiaze
kezdő

Valóban, normál áron eddig illően alá voltak árazva az amd kártyák, de most az alzán komoly rtx akciózás folyik. Csak nem elkezdtek helyet csinálni az 5ezreseknek?

[ Szerkesztve ]

(#15) martonx válasza joysefke (#13) üzenetére


martonx
veterán

És, hogy korlátozod 170w-ra?

Én kérek elnézést!

(#16) BlueSteel válasza b. (#12) üzenetére


BlueSteel
tag

A 7900 gre Alzán hónapokig 250k korul tanyázott, csak most elfogyott a készlet a Sapphireokbol. A többi teljesen valid, amit írsz.

Nem beszélve pl.a DLSS-ről és egyéb feature-okrol. Nálam egy Asus Dual 4070 maradt egy 7800xt-vel szemben. Remélem a következő Radeon generáció előrelépés lesz RT-ben, egyéb dolgokban, lesz AI alapú felskálázás, mert szeretnék majd váltani.

(#17) anulu válasza nuke7 (#10) üzenetére


anulu
félisten

"de pl. nem pörgeti magát akkor se a kártya ha 3-4 monitor van rákötve..."

ööö, 3 monitor (Samsung G5, DP-n, Surrounddal 7680x1440) most meló közben (leginkább browser alapú dolgok). ez azért nagyon nem a "szétpörgeti magát" :)
gyári nv driver van csak fent, semmi egyéb mókolós cucc.

[ Szerkesztve ]

"Jelenleg a cloud nem más mint a sales által elhazudott és eladott utópia, egy ígéret, csalánba csomagolt mézesmadzag, amit az üzemeltetés f@$zával vernek" | Feel the power! Intel Core i7 | iPhone 14Pro 256GB | iPad Pro 2017 64GB

(#18) tranceplanet válasza martonx (#4) üzenetére


tranceplanet
addikt

Ácsi, tudod értelmezni?:
" Iszonyú kínos helyzet az AMD-nek, hogy sok program nagyságrendekkel gyorsabban fut a CUDA-nak köszönhetően a régi 1070Ti-omon, mint az új RX 6700XT-n. "
Segítek
Egyik AMD sem rendelkezik CUDA maggal, más architektúra! A szoftver fejlesztők CUDA magra optimalizálnak, ez mondjuk azért van mert az Nvidia a boss, kb 75% piaci részesedés körül.
Megvan a Gsync történet? Most már freesync is elterjedt, érted "free". Megértem, hogy az Nvidia szeretne monopol helyzetben lenni, nincs messze tőle és mindent lenyomni a VGA vásárlók torkán erőből, nem gondolva rá nekik mire van igényük. Szerintem gusztustalan a hozzáállás részükről, persze értem le akarja uralni a piacot, ez az AMD nedves álma is. AMD kicsit korrektebben áll a piachoz, nem tolja fullba a kretént. Mielőtt bárki fanboy vádjával élne, mindkét gyártótól van termékem. Nekem nem szimpi az a bőrdzsekis csávó.

" Könnyű döntések-->Nehéz élet ; Nehéz döntések-->Könnyű élet " - Válassz!

(#19) joysefke válasza martonx (#15) üzenetére


joysefke
veterán

Ha van rajta BIOS kapcsoló, akkor abból a silent opció valószínűleg ezt csinálja. Egyébként Adrenalinból (itt van áramfelvételi korlát állítási lehetőség) vagy BIOS moddal. A 6000-es szériánál ez utóbbi ahogy olvastam elég egyszerű volt.

(#20) Kansas válasza joysefke (#19) üzenetére


Kansas
addikt

A kapcsoló tipikusan nem igazán, hanem a ventiket leszabályozza, és kicsit elengedi a melegedést. A frekiket minimális mennyiségben lejjebb húzza, TDP-kerethez tudtommal nem nyúl.Amikor megjelent, több teszter(pl GN) is beszélt róla, tesztelte a fogyasztást/teljesítményt mindkét kapcsolóállásnál.
Olyan esetben javasolt ha a ház jól szellőzik és/vagy nem vagy hőfok-náci.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#21) nuke7 válasza b. (#12) üzenetére


nuke7
veterán

hát őőő azt tudom, hogy 130 körül volt a 3060ti és a 6800 is amikor a kártyát váltottam...

https://youtube.com/user/nuke7

(#22) martonx válasza tranceplanet (#18) üzenetére


martonx
veterán

Tudom, hogy nem az AMD tehet róla, arról tehet, hogy olyan árban adja a cuccait, mintha jók lennének. Játékra nem jók, ezt kitárgyaltuk. Általános gyorsító feladatokra se jók, mert mindenki Cuda-zik.
És itt kanyarodok vissza a cikkhez, hogy nem is látszik, hogy az AMD tenne valamit ez a helyzet ellen. :(

Én kérek elnézést!

(#23) joysefke válasza Kansas (#20) üzenetére


joysefke
veterán

Nálam emlékeim szerint a fogyi is lejjebb megy. (Red Devil)

#22 martonx:
Nálam jól működik a 6700XT. Fortinte-t nem ismerem, de ha egy játékban a 1070Ti dupla olyan gyors mint egy 6700XT akkor ott valami baj van. Nem feltétlenül a VGA-val.
Az R5-3600 egyébként elég gyors ahhoz multis játékhoz?

[ Szerkesztve ]

(#24) Nemfértkiaze válasza joysefke (#23) üzenetére


Nemfértkiaze
kezdő

Az ár/teljesítmény viszony számít. Jelenleg nem reális az árazás, talán akciózásba kezdett az nv? Ki tudja? Majd gondolom reagál az amd, ha elkezdenek polcon maradni a kártyák. Vagy visszafogják a termelést, ami általános reakció egy ideje. Kb bármit jobban megéri gyártani nekik a felszabaduló kapacitáson.
Bár én csak az alzán láttam ilyen “olcsó” példányokat, más magyar wbbótban innó3d rtx-ek a legolcsóbbak és róluk nem az ugrik be, hogy bestby.

[ Szerkesztve ]

(#25) Kansas válasza martonx (#22) üzenetére


Kansas
addikt

Marhaság. Játékra teljesen jók, főként ha raszteres grafikát futtatsz natív felbontáson. Jellemzően több VRAM-ot is adnak, magasabb teljesítménnyel ugyanannyiért, vagy ugyanazt a teljesítményt kicsit olcsóbban. Gondolom adnák ők még olcsóbban, ha azzal tudnának elszívni vevőket az NV-től, de nem tudnak, azért pedig nem fognak árat csökkenteni, hogy egy rövid NV-s adok-kapok után a zöld szemüvegesek vigyorogva vegyék továbbra is a Geforce-okat, csak kicsit olcsóbban. Jókat szoktam vigyorogni, mikor a HUB néha megszavaztatja a nézőit, mennyivel olcsóbban kéne adnia az AAMD-nek a kártyáit, hogy inkább azt vegyenek NV helyett, és kijönnek ilyen 20-30%-ok... annyiért az AMD nem fogja adni, ha a zöldek a fejükre állnak se. Adja rögtön már veszteséggel, vagy mi?
Valóban, ha RT-t akarsz tolni DLSS-sel, akkor nem AMD kell neked, meg CUDA-hoz sem, de azon azért ugye nem lepődsz meg, ha a konkurencia zárt szabványait nem annyira akarják támogatni.
Cserébe elhozza neked ingyen a felskálázást a GTX1070-edre, amit az NV pont leszar. OK, nem pont DLSS-szintű felskálázást, de az NV NIS-énél sokkal jobbat.
Az NV driver funkcionalitása pedig most kezdi utolérni az AMD-ét, évek múltán...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#26) BiP válasza Nemfértkiaze (#14) üzenetére


BiP
nagyúr

Nem hiszen, az még arrébb van. A januári CES-re várják a bejelentést, utána ki tudja, mikor jelenik meg az 5000es széria.
Szóval még kb.fél év, és addig lesz egy iskolakezdési kampány meg egy holiday season (karácsony+újév), amikor akciózni meg sokat kaszálni szoktak.

(#27) nuke7 válasza anulu (#17) üzenetére


nuke7
veterán

aha, lehet, hogy a sorround az más...meg lehet, hogy 4090-ben jobb 2D motor van..? :F nekem a kijelzők így voltak:
- 2560x1080 21:9
- 1440p 16:9
- fullHD tv 16:9
a kártyákra kötve, DP és HDMi vegyesen - nyilván a tv-n nincs DP.

1080, 1070, 1070ti, 3060ti mindegyik up-to-date driver és mindegyik azt csinálta, hogyha mindhárom képernyőn történt valami, de szigorúan 2d (böngésző, stream, film, stb.) akkor 3D órajelekre kapcsolt és ugye melegedett, hiába volt kicsi a terhelés viszonylag.

NVinspector-al kellett csinálnom nekik külön szabályt, hogy 4-5% terhelés alatt ne kapcsoljanak 3D órajelekre.

te biztos jobban értesz hozzá, csakhát egyáltalán nem találkoztál ezzel a felhasználással amivel ez előjön ezekszerint. Létező bug, nézz utána, nincs más megoldás rá, csak az nvidia inspector. (legalábbis másfél éve még nem volt, kerestem mindenfelé, elhiheted...)

#18 tranceplanet : nekem se szimpi, ráadásul itthon a pc-vel játszom meg fejlesztek meg videót vágok és arra sokkal jobban megérte nekem az AMD.
Persze van nvidia részvényem, és örülök a majdnem monpol helyzetüknek de nyilván a termékeiket amíg nem CUDA-zok meg RayTrace-elek nem éri meg megvennem :DDD

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#28) fejesprf


fejesprf
csendes tag

Látom sok itt az Nvidia fanatikus, meg is értem hiszen ők uralják a piacot, valaki itt meg is írta 75%-ban, legyen így.

Nekem viszont RX 6800 van a gépembe előtte egy fos 3070TI volt ráadásul G-sinc-nek nevezi ami FREE-sinc de-hát, fene tudja, tegye. Sokan játszanak régi Nvidia kártyákkal az AMD ő értük is tett ám pl: FSR. A 3070TI-re visszatérve sajnos az nem adott folyamatos képet, akadozott, dadogott, a hogwarts legacy alatt 1080p-n ugyanez volt több játék alatt is ahol igenis a V-ram mennyisége számít, ráadásul az drágább is volt jóval!

Fogyasztást tekintve is a 3070TI 310w fölött is képes volt kajálni persze az átlag 270w kőrűl volt a 6800 227w maxon de általában 190w.

Persze van amit én is utálok az AMD-ben, Mindig változtatja a drivere felületét mintha azzal jobbá válna, pedig csak idegesítővé válik tőle.

Aki azt mondja hogy csak Nvidia kártyával lehet játszani az, tuti nem is próbálta egyik korszerű AMD-s kártyát se ki!
Tudom mindjárt jön a vga piac 75%-a és úgy is legyőz. ;]

[ Szerkesztve ]

fejesprf

(#29) martonx válasza joysefke (#23) üzenetére


martonx
veterán

Abban is volt az 1070 ti, nem a proci kevés, az RX 6700 XT vs. Fortnite nem bírják egymást. Ami azért a világ egyik legelterjedtebb multishooterénél elég gáz.

Én kérek elnézést!

(#30) nuke7 válasza Kansas (#25) üzenetére


nuke7
veterán

hát igen, próbáld meg nVidia driverben kapcsolgatni az overdrive-ot vagy a reBar-t... :U :D

https://youtube.com/user/nuke7

(#31) nuke7 válasza martonx (#29) üzenetére


nuke7
veterán

nálad a hiba szerintem szerintem valahol máshol lesz, nem a GPU a ludas :N
Fortnite fullHD:
"RX 6700XT with Ryzen 5 5600X average 267 fps, 1% lows 131 fps
RTX 4060 with i5 12400F average 317 fps, 1% lows 141 fps
RTX 3060 with i5 12400F average 267 fps, 1% lows 51 fps
RTX 3070 with i5 12400F average 282 fps, 1% lows 131 fps"

https://youtube.com/user/nuke7

(#32) anulu válasza nuke7 (#27) üzenetére


anulu
félisten

surroundnál alap, hogy 2-3-4 ugyanolyan monitort raksz rá, mert a képfrissítést is sync-eli. amikor több monitorom volt, mindig surroundban ment, szóval csak arról van tapasztalatom.

mivel nálad nem csak a felbontás, de nagyon jó eséllyel a frissítés is különböző volt, igazság szerint nem is csodálom, hogy hülyét kapott a GPU :U

"Jelenleg a cloud nem más mint a sales által elhazudott és eladott utópia, egy ígéret, csalánba csomagolt mézesmadzag, amit az üzemeltetés f@$zával vernek" | Feel the power! Intel Core i7 | iPhone 14Pro 256GB | iPad Pro 2017 64GB

(#33) martonx válasza nuke7 (#31) üzenetére


martonx
veterán

RX 6700 XT óta volt már újra is telepítve a win11. Driver mindig latest. Az internet tele van RX 6xxx kártyák Fortnite bugjaival.
Ja és alaplap is lett már azóta cserélve az RX 6700 XT alatt.

Én kérek elnézést!

(#34) Kansas válasza martonx (#33) üzenetére


Kansas
addikt

Ha ennyire fontos neked a Fortnite, akkor cserélj kártyát olyanra aminek garantáltan semmi baja vele, nem kell ragaszkodni a Radeonhoz, főleg ha az a meggyőződésed, hogy nem jók játszani...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#35) martonx válasza Kansas (#34) üzenetére


martonx
veterán

Tudom, azon vagyok ;) Per pillanat is kint van Hardveraprón.
Hosszú ideig szerettem a Radeon-okat, de mióta az 1070 Ti-al megláttam a másik oldalt, hát nem hiszem hogy valaha is visszaváltanék a szopásvonalra.

Én kérek elnézést!

(#36) nuke7 válasza anulu (#32) üzenetére


nuke7
veterán

oké, de a 6800-nak meg se kottyan :D (se a driverének ;) )
(amúgy mindegyik 60hz - asszem. A sharp tv-ben nem vagyok biztos :D )

#33 martonx : hát figyu, egy játék nálad áll szemben kb. minden benchmark-al, meg az összes többi játékkal, szóval ahogy érzed, ha szerinted ez ennyit nyom a latban, akkor oké, cserélj kártyát - DE! ne általánosíts, mert az viszont nagyon nem igaz :N nekem pont az nvidia-val volt rossz tapasztalatom, de nyilván CUDA meg RayTracing az jó vele, ami nekem pont nem volt fontos 🤷‍♂️

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#37) Busterftw válasza nuke7 (#36) üzenetére


Busterftw
veterán

Hany eves teszt ez? :D

(#38) nuke7 válasza Busterftw (#37) üzenetére


nuke7
veterán

hogy érted, hogy hány éves?
az összes kártya szerepel benne tudtommal:

ránéztem a játékokra:

szerintem nagyon régi nem lehet, ha a legújabb kártyák is szerepelnek benne... :U

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#39) BiP válasza Busterftw (#37) üzenetére


BiP
nagyúr

Ez a TPU (TechpowerUp) oldal relative performance chartja. Összesítenek egy rakat játékot, és aszerint van a lista %-os arányban feltüntetve. Én szeretem, összehasonlításhoz a legegyszerűbb.

Megj: nincs benne minden kártya. Vagyis benne van, csak nem egyszerre.
Minden kártya esetén picit más a lista.

(#40) hokuszpk válasza Busterftw (#37) üzenetére


hokuszpk
nagyúr

ez nem "hanyeves teszt" ; hanem a techpowerup gpu database altal felallitott teljesitmenyize.
// azert mondom, hogy "ize", mert minden kartya specnel van, es az a 100%, aminek az adatlapjan vagy. 7800XT screenshot mellekelve //
en mar parszor nekifutottam, hogy az eppen errejaro kartyakkal fogast talaljak rajta, de nagyjabol sose sikerult.

Első AMD-m - a 65-ös - a seregben volt...

(#41) joysefke válasza martonx (#29) üzenetére


joysefke
veterán

Nem játszottam Fortinite-vel, de ez egy külsőpályás online kompetitiv shooter tehát jó eséllyel CPU igényes. A RyZEN 3600 manapság már nem az a proci ami ilyesmit kiszolgál.

FORTNITE CHAPTER 5 RTX 3060 - PERFORMANCE MODE 1080p - RYZEN 3600 (youtube.com)

Ez a videó elvileg RTX 3060 + RyZEN 3600-zal készült. Ha nem fake, akkor az "1%" és "min" FPS értékek jól mutatják, hogy kevés a proci vagy legalábbis a beállításokon kéne változtatni. (FPS limit esetleg vagy valami magasabb felbontás?)
Ha lehetőséged van érdemes lenne mondjuk egyy 5600X-szel megpróbálni, hogy jelentősen javul-e a helyzet.

[ Szerkesztve ]

(#42) nuke7 válasza hokuszpk (#40) üzenetére


nuke7
veterán

szerintem nagyjából jól mutatja az erősorrendet aztán 1-2%-on lehet vitatkozni vagy adott játéknál pont nem erősebb az amúgy gyengébben szereplő kártya, dehát ez benne van mindig a pakliban.

https://youtube.com/user/nuke7

(#43) Predatorr válasza nuke7 (#7) üzenetére


Predatorr
őstag

:)) :)) :))
A hit nagy dolog! Kár, hogy matematikailag és statisztikailag sem alátámasztható. De gyorsan mondj ugyanannyiért valami sokkal jobb AMD-t a 4080-amnál! :P Persze, sokkal jobb az AMD, ha nem foglalkozunk a fogyasztásával, rt, cuda és egyéb képességeivel, driveres gondjaival, de akkor támogasd inkább az Intel VGA-kat.:))

[ Szerkesztve ]

"Amely probléma nem megoldható, azt meg kell szüntetni."

(#44) AuraSync válasza nuke7 (#7) üzenetére


AuraSync
őstag
LOGOUT blog (1)

4080 után 6900XT-t vettem annó mert a tesztek szerint a legtöbb játékban jobb volt egy kicsivel.
Pár nap használat után rohantam vissza NV-re és eldöntöttem, hogy soha többé AMD lehet akármilyen jó. :K

S23 Ultra / Watch 6 / Q80T 65" / 14600KF / RTX 4080 S / JBL / S3000 Pro

(#45) martonx válasza joysefke (#41) üzenetére


martonx
veterán

De ugyanez a proci az 1070ti-al meg elég?

Én kérek elnézést!

(#46) martonx válasza Predatorr (#43) üzenetére


martonx
veterán

Plusz találunk olyan játékot, ami a mi konfigunkon véletlenül jól is fut... :D akkor tényleg jó.
Aztán amikor egy fisfos noname Fortnite full HD mediumban laggol, vagy a sehol se jegyzett Assassin's Creed el se akar indulni, akkor kognitív disszonancia ide-vagy-oda illik elgondolkozni, hogy megérte-e a pénzt.

Én kérek elnézést!

(#47) b. válasza AuraSync (#44) üzenetére


b.
félisten

Szerintem elirtad valamelyik típust.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#48) Predatorr válasza martonx (#46) üzenetére


Predatorr
őstag

Volt pár ATi kártyám, azok még jók voltak. Aztán AMD-k (meg pár nV), a 7870XT-nél meguntam az olcsóság árát. Kiadás után fél évvel jön az első használható meghajtó, 2 év múlva meg durván indul az avultatás, de amúgy sem indul jó pár játék,nagy felbontásban meg az addigi szerény erő is eltűnik. Áttértem nV-ra, és megint minden futott, éveken át. Vártam az új XTX-t, és meggyőzött: az első teszteket látva rendeltem is a 4080-at. :D Akkor még jó áron el lehetett passzolni a 2080-at, szóval nagyon drága sem volt, és úgyis minden VGA vásárlás után elkezdek félretenni a következő 3 évre, mert a hossszú játékélményért megéri a befektetés havi ktg. alapján is.

[ Szerkesztve ]

"Amely probléma nem megoldható, azt meg kell szüntetni."

(#49) martonx válasza Predatorr (#48) üzenetére


martonx
veterán

Ezt írtam én is, RX460, RX570, sőt jut eszembe RX580 is volt, csak akkoriban tört ki az új bányász láz és két hónappal később kétszer annyiért adtam el, amennyiért vettem :D kiváló kártyák voltak.
Aztán jött pár év NV 1660 Super, 1070 Ti, igaziból minden oké volt, de a szívem visszahúzott a Radeonokhoz. Aztán kb. másfél éve újra visszatértem AMD-hez RX 6700 XT papíron olyan jó volt, olcsó is volt (3xxx-ekhez képest), de valami időközben a Radeon vonalon borzasztóan elszaródott.
Iszonyú sokat tud a Radeon driver, vezérlőpult, ehhez képest NV-é egy faék. Cserébe az NV-é továbbra is működik, a Radeon-é meg csak elméletben működik :D amennyi fórumot olvasptam az elmúlt másfél évben, meg amennyi biost állítgattam alaplapot cseréltem, drivereket próbálgattam :D RX 6xxx-től kezdve külön szakirodalma van már lassan az interneten a BIOS, driver stb. trükköknek, hogy bírjuk normális működésre a fos RX kártyánkat.
Miközben néha odaülök a közben már félre is rakott ryzen 5 1600 + gtx 1660 S géphez, és röhögve fut rajta a Fortnite.

Én kérek elnézést!

(#50) traz75 válasza martonx (#9) üzenetére


traz75
tag

6700XT mint hősugárzó? Egy Sapphire Nitro RX 6700 XT-m volt, kb minden idők egyik legjobb hűtéssel rendelkező kártyájának nevezném...
Mondom ezt semmilyen fanként, HD 3670, HD 4650, HD 4850, HD 5870, HD 6600, HD 6850, HD 7950, R7 270, R7 270X, R9 280, R9 280X, R7 370, R7 370X, R9 380X, RX 470, RX 480, RX 560, RX 570, RX 580, RX 5700, RX 6700XT, majd RX 6800 (illetve jelenleg Ryzen 5700G :D) tulajként. A HD előtti meg az Nvidia vonalat most inkább nem sorolnám. :)
Update, többször szerkesztettem mert a 2xx ill. 3xx vonalnak elfelejtettem a hülye Rx elnevezéseit. :D

[ Szerkesztve ]

Szart nem veszek, nem adok el. :) ui : minőségi trágya eladó :D

Copyright © 2000-2024 PROHARDVER Informatikai Kft.