Hirdetés

2024. május 8., szerda

Gyorskeresés

Hozzászólások

(#51) tibaimp


tibaimp
nagyúr

Ha ez így igaz, akkor nem lesz semmi. Az én 2070-ben van 2304 cuda mag, a 3070-ben meg 3072. Jelenleg a 2080 Super-ben van ennyi, ehhez még hozzá jön egy kis optimalizáció plusz órajelek, és simán +40-50% gyorsulás az előző generációs 2070-hez képest. De lehet keveset írtam...

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#52) F e Z o válasza tibaimp (#51) üzenetére


F e Z o
veterán

A következő sorozat **70-esei az eggyel régebbi sorozató **80Ti-kel szokott egy pariban lenni teljesítmény szempontjából, ezen nem kell csodálkozni...

H2O über alles!

(#53) Puma K válasza F e Z o (#12) üzenetére


Puma K
veterán

Múltkor arra lettem figyelmes, hogy a Division 2 képes majdnem 9GB-nyi VRAM-ot használni:

15 órás nyúzás során más-más játékkal játszva jöttek ki ezek a maximum értékek a VGA-nál.

Overwatch inkább a GPU hőmérsékletet tornássza fel 70°C környékére, viszont a VRAM-ot tuti a Div2 hozta össze.

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#54) tibaimp válasza Puma K (#53) üzenetére


tibaimp
nagyúr

És mindezt 1440p-n?

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#55) GreatL


GreatL
őstag

Fele fogyasztás lesz (a kocsmában), dupla teljesítmény (a munkahelyen) és harmadannyiba fog kerülni (használtan)!

Intel Core i9-9900K víz | 32 GB | GBT RTX 3080 Ti Gaming OC | 48" LG C1 TV | Samsung(.hu) Galaxy S22+ 256 Vodával | Voda Samsung Galaxy A54 | Pocketbook Inkpad 3 Pro

(#56) janos666 válasza GreatL (#55) üzenetére


janos666
nagyúr
LOGOUT blog

-25% fogyasztás lesz idle-ben, másfélszeres teljesítmény úgy, hogy megint elcsúsztatják egymáshoz képest az árérzékeny kategóriákat (mint ahogy pl. sokkal inkább az RTX2060 volt a GTX170 utódja, mintsem az RTX2070), és olcsóbb lesz annyival, hogy most talán nem emelik meg az egyes kategóriák nyitóárait, és a félgenerációs frissítéskor sem, így egy év múlva egész megfizethetőnek néznek majd ki az eredeti modellek ... használtan. :D

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#57) Puma K válasza tibaimp (#54) üzenetére


Puma K
veterán

A Division 2-nél már nem emlékszem pontosan mekkora mértékű felskálázást használtam a recés élek és a teljesítménycsökkenés minimalizálása érdekében.

Az Overwatch-ot 126%-os felskálázással használom ultra grafikán.

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#58) Televan74 válasza tibaimp (#51) üzenetére


Televan74
nagyúr

Ha nem iparkodik a konkurencia, akkor a 3070 sem lesz 2070 árában. Beteszik a 2070S és a 2080S közé. :DDD

Amikor nincs remény! Jusson eszedbe nincs isten, csak én!

(#59) tibaimp válasza Televan74 (#58) üzenetére


tibaimp
nagyúr

Sajnos igazad lehet!

Puma K: az OK, de az LG monitor ami a leírásodban szerepel, ha jól látom 1440p-s, vagyis azon a natív felbontásán nyomtad gondolom, vagy valamit elnéztem?

[ Szerkesztve ]

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#60) Puma K válasza tibaimp (#59) üzenetére


Puma K
veterán

A 2560x1440 a monitorom natív felbontása.

De az Nvidia driver-ből lehet szorzókat állítani a DSR részen adott játékra-program vonatkozóan ami adott mértékben az adott monitor natív felbontását felskálázza.

Így tudok 2560x1440 felbontás helyett 5120x2880-as felbontásban játszani a GTA IV-gyel.

De ha az adott játék grafikai beállításainál ott a lehetőség a felskálázásra, akkor azt használom.

A GTA V-öt így futtatom 2560x1440 helyett 1,750 szeres felskálázással 4480x2520-as felbontáson.

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#61) tibaimp válasza Puma K (#60) üzenetére


tibaimp
nagyúr

Ezt nem tudtam, köszi az infót.
Mondjuk így érthető a sok vram fogyasztás.

[ Szerkesztve ]

A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...

(#62) Ragnar_ válasza ted_tris (#43) üzenetére


Ragnar_
addikt

"De leszarom.
Hasznalj amd-t.
Csak ne terits.
Nekem volt anno 6 egymas utan.
Azert olcso mert szar..."

Melyik piacvezető Intel is felezte a teljes HEDT termékpalettája árát , mert az AMD asztali teteje 3900x verte a teljes Intel HEDT felhozatalt ? Ott ahol nem a 4-6 magig skálázódó konzolport játékok vannak, hanem olyan szoftverek amik kihasználják a korszerűbb gyártástechnológiát ? :DD

"Tele a youtube 9900kf vs ryzen 3800x osszehasonlitokkal.
A battlefiled 1-ben 50+ fpst vert a ryzenre. Pedig jo sok szalat kepes hasznalni a frostbyte.
A cinebench amit mutogatni lehet csak."

Első video Youtubeon 9900k oc vs 3800x BF1 188vs184 FPS.. RTX 2080OC-val Ultrán. Oke én értem, hogy ott a 2080Ti is, de már a 2080OC is 250k egy Ti pedig már 400.
És nagyságrendileg ugyanez a helyzet a többi játékban is. Mindez biztonsági rések nélkül olcsóbban. De nem akarlak semmire rábeszélni, ha Intel fan lennék lehet, hogy én is inkább sima 6 magos i5-öt vennék HT-s 6/12-s R5 helyett 65k-ért. (Ami meg ugye olyan, mint a 8700k) ;]
[link]

[ Szerkesztve ]

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#63) sb válasza Ragnar_ (#32) üzenetére


sb
veterán

Igen, kicsit el van tévedve a kolléga.
CB single-ben R20-ban konkrétan gyorsabb a 3900X 4.6-os max boosttal mint a 9900K 5GHz-en. CB15-ben meg 1-2% a lemaradása.

Szóval nem előny az 5GHz, jobb az IPC a másik oldalon és így kisebb órajelen lassan fele annyi fogyasztásból hozza a csúcsot is. Az optimumot 3-4GHz között (rohadt sok magnál) meg még nagyobb perf/W aránnyal hozza.

Ezen kívül érdemes még megnézni a multitasking teszteket is, Compterbase-en mérték, ott is gyorsabb volt az AMD két feladattal, azonos magszámmal, mint az Intel. Nem nagyon van már olyan terület ahol nemhogy kikapnának, de egál helyett ne húznának el.

A játék optimalizáltság még igaz. 200fps felett meg 3-5%-nyi előnyre ott még lehet "verni". :)

(#64) Black-core válasza Puma K (#60) üzenetére


Black-core
aktív tag

Nekem GTA V 49 colos samun 5120x1440 minden max + skála = 24GB Vram :Y :B

(#65) Puma K válasza Black-core (#64) üzenetére


Puma K
veterán

Milyen VGA kártyád van?

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#66) eldiablo válasza Tanisz (#50) üzenetére


eldiablo
addikt
LOGOUT blog

Titan V is HBM2. :U

(#67) Black-core válasza Puma K (#65) üzenetére


Black-core
aktív tag

Jelenleg egy rx 580 8Gb és imádkoztam is, hogy ne kérjetek képet mert 4db fps el nehéz kooperálni. :D

(#68) Prof válasza antikomcsi (#21) üzenetére


Prof
addikt

Jatekok latvanyvilagat mindig a mainstream olcso gepek teljesitmenye szabja meg, es az utobbi evekben mar nagyon regen a konzoloke. Ha jonnek erosebb konzolok akkor par eve mulva lesz pozitiv valtozas es nem csak az fps/felbontas hajhaszas megy majd.
Kb. 80% Pc jatek konzolport, sot lassan mar rengeteg mobilport.
Ennek ellenere veszik a hulladek Rdr2-t, igy is sok evvel a konzol megjelenes utan. Ami amd hardverre tervezett jatek ellenere pcn rosszabbul megy amd-n, mint nvidian vmi csoda folytan..

(#69) GreatL válasza Prof (#68) üzenetére


GreatL
őstag

Végre valaki nem ömleng az RDR2-ről... mindig kapok ha írok róla (nemisszép, vacak, gta MOD).

Intel Core i9-9900K víz | 32 GB | GBT RTX 3080 Ti Gaming OC | 48" LG C1 TV | Samsung(.hu) Galaxy S22+ 256 Vodával | Voda Samsung Galaxy A54 | Pocketbook Inkpad 3 Pro

(#70) Televan74 válasza Prof (#68) üzenetére


Televan74
nagyúr

Az Assassin's Creed Odyssey -ben is ott az AMD/Radeon logo ,mégis gyorsabb az Nvidia kártyáin. :DDD

Amikor nincs remény! Jusson eszedbe nincs isten, csak én!

(#71) M107 válasza Televan74 (#70) üzenetére


M107
addikt

:R

Elég gépigényes game is, tegyük hozzá bár nem az én világom ettől persze lehet imádni.
megnéztem High preset, 880K 16 GB DDR3 1866 mhz, ITX Sapphire Pulse 570 4GB 22-35 Fps stabilan.

A fórumon, bármit leírhatsz, én csak az igazat írom le. :) Utálom ha hülyének néznek ! - Addikt - vissza az őstag címet :) )

(#72) Cassi válasza Prof (#68) üzenetére


Cassi
senior tag

"sok evvel a konzol megjelenes utan"

1 év az a sok év

(#73) janos666 válasza M107 (#71) üzenetére


janos666
nagyúr
LOGOUT blog

"22-35 Fps stabilan" -> LOL Mióta stabil az, ami (35-22) / ((35+22)/2) = 45, tehát kb. +/- 22%-ot ingadozik fel/le az átlagtól, illetve a minimum érték felétől (12) nagyobb a mozgástere (13)? Vagy úgy érted, hogy nem fagyott ki a program? :D

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#74) Puma K válasza janos666 (#73) üzenetére


Puma K
veterán

Minden embernél más az ingerküszöb és mások az igények.

Viszont ilyen ingerküszöb mellett én a helyében elgondolkodnék egy konzolra váltáson. Feltéve ha leginkább játékra van tartva a gép és nem zavarja a kontroller...

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#75) b. válasza Televan74 (#70) üzenetére


b.
félisten

Control elején ott van az NV logo mégis gyorsabb radeonon. De akár Metro is :)

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#76) X Factor


X Factor
addikt

Ha a 8/16 helyett tényleg 10/20-as felállásban is lesznek elérhető kártyák, akkor a renderfarmok nem csekély mennyiségű 1080-at és 1080ti-t boritanak a használt piacra :D

Make things work

(#77) carl18


carl18
addikt

Ha a RTX 3060 tudja a RTX 2080 szintjét már nagyon jó kártya lesz. 8 gig a ramot tuti megkapja...+ Főként az árazás lesz a lényeg.
Pont valamelyik nap néztem a GTX 1660 jelenleg olyan gyors mint egy GTX 980TI. Szerintem az elég jónak számit :))

Hiába szúr, itt Ryzen a úr!

(#78) <Lacy85> válasza carl18 (#77) üzenetére


<Lacy85>
addikt

"Pont valamelyik nap néztem a GTX 1660 jelenleg olyan gyors mint egy GTX 980TI. Szerintem az elég jónak számit"

Ez kb. mindig is így volt. Az aktuális széria tagja mindig olyan teljesítményű, mint előző generációban az egyel nagyobb számozású.

GTX 980 = 1070 = 1660Ti
GTX 780 = 970 = 1060
GTX 770 = 960 = 1050Ti, stb.

(#79) b. válasza <Lacy85> (#78) üzenetére


b.
félisten

A GTX 980 teljesítményét az 1060 hozta, nem az 1070. az a 980 Ti-t hozta.
Ha Pascal szintű előrelépést szeretnénk akkor a 3070 nek a 2080 Ti-t kellene hoznia.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#80) #00137984


#00137984
törölt tag

Megint Nvidia videókártyára leszek kénytelen váltani, de remélem a GTX 1070 Ti még évekig állja majd a sarat. Amig a játékok fejlődése nem olyan látványos, miközben a játékélmény alig változott, és még ez a Ray Tracing sem érdekel...

(#81) #00137984


#00137984
törölt tag

Csak halványan megjegyezném, hogy minden más CPU-t mellőző témát elemző cikkben (Nvidia videókártya) a Ryzen procikról olvasni nekem már nagyon unalmas és alkalmasint átugrom ezeken... Nem igazán érdekel. :)

[ Szerkesztve ]

(#82) Prof válasza Cassi (#72) üzenetére


Prof
addikt

Igazad van 2018 oktobere nekem nagyon regnek erzodik mar

(#83) Prof válasza carl18 (#77) üzenetére


Prof
addikt

Sajnos a jelenelgi 2060 learazas nekem azt sejteti nem akarnak ezek egyhamar 3060at kiadni, csak a 3070,3080 fog jonni. Valoszinu sokkal jobb raytracing miatt nem akarnak a 2070/2080-nak konkurrenciat egy dragabban 7nm-en gyartott kartyaval ha AMD nem kenyszeriti oket.
En ugy latom az NVidia ul a piros gomb elott amin az van gyartas indit 7nm-en, azonnal megnyomjak ha kijon megbizhato info a Nagy Navirol (felteve ha versenytars a highend szinten nekik). Addig is gyujtik a zsetont az olcson 12nmen gyartott kartyakkal es soprik a keszletet.

(#84) Prof válasza #00137984 (#80) üzenetére


Prof
addikt

Azert vard ki az uj 7nm-es Nvidiat/ illetve Nagy Navit. Valoszinu atrendezi az ar/ertek feature kategoriakat.
Amig jelenlegi konzolgenre tervezik jatekokat, sokat ne varj olyan 2-3 ev mig kovetkezo konzolgenre, illetve Stadia/egyeb cloud streamszerverre (5g elterjedesere idozitik) tervezett jatekok jonnek. Hiaba csinalt MS "szuper eros" Xbox One X konzolt ott malmoznak es alig van ra jatek ami kihasznalja, mert nem az az elterjedt etalon mainstream konzol.
Szerintem az Intel is akar 2-3 ev mulva ertekelheto cloud szerverbe rakhato gpukat gyartani, akar multigpu tamogatassal.
2020 a hype eve, igazi valtozasokat kb. 2022-23 fog hozni, ha minden terv szerint megy.

(#85) Prof válasza Televan74 (#70) üzenetére


Prof
addikt

Megneznek vmi frame per frame osszehasonlitast AMD-n es NV-n adott grafikai beallitasok mellett szerintem valami susmus van, nem azonos dolgok futnak le egyik ill. masik kartyan.
Nagyon sok fpst lehet nyerni szinte lathatatlan grafikai reszletesseg butitasokkal, amit mondjuk a Geforce driver szinten megcsinal ha detektalj a jatekot.
Amikor jonnek az Intel igp ilyen megy olyan gyros mar az AMD APUval szemben ott altalaban rosszabb a grafika az intelen nem csoda, hogy gyorsult...

(#86) MeszesKPT válasza Prof (#84) üzenetére


MeszesKPT
őstag

A cloud gaming már 10 éve hype szinten van és még vagy addig az is marad, semmi több. Google-nek sem sikerült megugrani a lécet, érdemes olvasni a felhasználói számokról.

Amperet illetően szerintem aki eleve nem a mostani középkategóriában nézelődik, annak érdemes most már kivárni.

(#87) Stillx válasza MeszesKPT (#86) üzenetére


Stillx
csendes tag

Az nvidia nagyon kiszámítható!!! Ár/teljesítmény kőbe van vésve!! Szóval a 3070 nagyon maximum 2080s szintet fogja megütni azonos áron! Az új széria csak annak lesz jó akinek a 2080 ti kevés.

(#88) egyedülülő


egyedülülő
őstag

Izgalmas dolgok ezek. A 2070-emet szeretném váltani akár Superre vagy sima 2080-ra. Nem tudom milyen árban lesznek ezek az új kártyák, megéri e várni.

"Ha lenéznénk az űrből a földre, nem látnánk az országhatárokat. Csak egyetlen kis bolygót látnánk."

(#89) b. válasza Stillx (#87) üzenetére


b.
félisten

vagy drága ? :F

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#90) BeZol válasza Ragnar_ (#62) üzenetére


BeZol
őstag

Tetszenek az 1% és 0.1% Low értékek... Néhol 1/3 annyi, mint Intelnél. Ez pont az, hogy be-beakad a játék érzésre, mert olyan kevés fps-re ugrik le. EZ PONT AZ, AMIT MINDENKI UTÁL! Vesz egy drága gépet, és be-beakad neki a játék, szánalmas. Aláírom, sok játékban rendben van a dolog, DE ha TE épp azzal játszol rendszeresen, aminél ezt produkálja?! Vagy kijön egy új játék amivel tolni akarod és épp nincs normálisan optimalizálva AMD-re és hasonló mikrolaggokat érzel, akkor kb. felgyújtanád a gépedet... EZ ÍGY LUTRI!
Tudom, hogy nincsenek egy árban a procik (bár cserébe alaplapoknál amd drágább), de INKÁBB költenék egy olyan gépre többet, aminél nincsen mikrolagg/stuttering ÉS minden játékban hozza ezeket a jó értékeket, minthogy majd xy játéknál ami épp érdekel szívjam a fogamat... És ez nem csak AMD processzorokra igaz, hanem AMD videókártyákra is. Elég olvasni a navi-s topikot, mennyi driver probléma van a kártyákkal MÉG MINDIG! (szeptember óta!!!) Szóval ha valaki a nyers benchmarkokat nézegeti és mellé az árakat, akkor AMD-t vesz, viszont kicsit a dolgok mélyére ásva már problémás az egész.

Nekem volt AMD videókártyám még anno 4870+4890 hibrid crossfire-ben. CS:Source alatt nuke-on fényproblémák voltak (sose javították ki), Battlefield Bad Company 2 béta még tökéletesen ment, mikor kijött a végleges játék, már nem ment a crossfire. 1,5!!!! évvel később jött egy driver, amivel működött, de a rákövetkező driverrel már nem ment! Jött ki később másik játék ami miatt kellett az újabb driver, és nem tudtál egyszerre a két játékkal játszani, mert más vga driverrel mentek rendesen a kártyák... Az új 5xxx széria topikjába beleolvasgatva pontosan ugyanezek a problémák vannak most is, csak már crossfire nélkül 1 kártyával... A legjobban azon röhögtem, mikor vki nem tudott LoL-ozni, mert a launcher crashelt a vga driver miatt :DDD , érdemes végigolvasni a problémákat, kinek épp mi jön elő, BOTRÁNY!

Volt Ryzen 7 1700X-em is, ami mint már tudjuk nem egy fényes széria (de akkoriban a benchmarkok kb. nem ezt mutatták, az tegyük hozzá!), az is botrányos volt több játékban, mert az átlag fps is pocsék volt sok helyütt. Konkrét példa nekem a World of Warcraft (amit csak több millióan tolnak napi szinten, régi játék, és nem egy új AAA cím ami jobb esetben 3 hétig van nyüstölve és megy a levesbe). Gondoltam 8mag16szál, tökéletes lesz x264 alapú streamelésre a proci, a probléma csak az volt, hogy míg questelgetéskor és 5fős instákban tulajdonképpen rendben volt az fps (talán 75 alá nem ment és 100-120 körül voltam), addig raideken 20fővel (mythic raid) ÁTLAG 38fps-em volt!!! Ki kellett kapcsolnom az SMT-t, hogy 8/8 legyen, fel kellett pöckölnöm 3.85GHz-re (3.9ghz-en már eldobta magát), és így 55 körüli fps-re tudtam feltornászni, akkora CPU limitem volt (mert inkább 1-2szálat használt csak a játék), mindezt 1080Ti-vel! Aztán így már gondoltam mehet a streamelés, igazából 3.7ghz-en is eldobta magát a gép x264 kódolással olyan 2 óra játék után, és az fps is botrányos volt már így is, úgyhogy hagytam a fenébe. Az új 3xxx széria már aláírom egész jó lett, de az igazi konkurencia (játékok szempontjából) a 4xxx széria érkezésével érkezhet meg az Intellel szemben, mert akkor az IPC + órajelnövekedés + javított memóriakezelés következtében pariban kellene lenniük, már csak a minimum fps-ek lehetnek problémásak. Ha még ott is pocsék lesz, akkor játékra továbbra is felejtős, mert visszatérve, mi van ha épp abban a játékban szerencsétlenkedik a proci, amivel rendszeresen játszanék? :F

BF V-nél bejön a single player benchmark... Gondolom te sem nyomod neten 64 fővel. Ezeket a beépített benchmarkokat lehet nézegetni meg postolgatni az eredményeit, de hogy a játékban töltött idő 99%-ában nem single playerben fognak az emberek ilyen és ehhez haosnló játékokat nyomni, az is biztos. Itt egy régebbi BF V ryzenes teszt 1080p-ben, ahol pl. látni érdemes, h ez a 2xxx-es ryzen képtelen volt 130as átlagfps-nél többre, ergo már egy RTX 2070-essel "kimaxoltad" a játékot (minimum fps alapján látni, h 5% körül még abban is hagyott!), kár volt RTX 2080 v. 2080Ti-t vásárolni, mert képtelen volt kihajtani. De ez csak egy BF V, ami köztudottan jól optimalizált játék, és már van 3xxx ryzen és fél éven belül itt a 4xxx, viszont minden egyes játéknál utána kell nézni, hogy mit alakít az adott processzor xy videókártyával "VALÓS" játékkörülmények között!
Nekem pl. a WoW fontos, és ott nem minden virít úgy, ahogy kéne, még az olcsó 8700K sem (4.2ghz-es proci, 40% körül kihajtott RTX 2060 és 40 fps körüli érték... és ez még nem a raid része a dolgoknak, AHOL KRITIKUS h akad-e a játék vagy sem)!
PUBG sem fenékig tejfel: Ryzen 1080p-ben 2080Ti-vel (tudom túlzás, nem átlagos kártya) csak 60-70%-on hajtja ki a videókártyát, az Intel pedig 85%+, és 120 helyett 180 fps-ek vannak...

A lényeg, h vásárlás előtt tájékozódni kell, h xy játékkal van-e probléma vagy sem. Aki nem akar tájékozódni, az vegyen Intelt és Nvidiát, mert ott minden úgy megy, ahogy mennie kell. Azóta nincs driver problémám, random beakadozgatás, semmi idegeskedés, minden úgy működik ahogy működnie kell, és ennek így kéne lennie AMD-nél is, de "még" nem sikerült nekik.

Mindenkinek tájokozódnia kell, hogy a saját felhasználásához mi a jó vétel, és nem szabad minden benchmarknak hinni!!! És igen, lesz amihez AMD-t érdemesebb vásárolni, és lesz amihez Intelt, DE be kell látni, hogy annak ellenére, hogy papíron azonos v. jobb teljesítményt olcsóbban kínál az AMD, annak bizony van árnyoldala is, ahogy fentebb is leírtam pár példát, de aki meg munkára használja, ott megint programonként változhat, hogy most melyik gyártó a nyerő választás.

(#91) nuke7 válasza BeZol (#90) üzenetére


nuke7
veterán

hát, a 0.1% nem érzed semmennyire, én legalábbis biztos nem...
az 1%-ok meg elég közel vannak egymáshoz a linkelt videóban... szóval lehet magyarázni bizonyítványt, de nem véletlenül van most az intel lépés kényszerben :N

Én witcher 3-al sokat játszom, direkt visszatekertem a videót, nem látom egyszerűen azt a 0.1% "mikro-lag"-ot.. :N
Szerintem az AMD + nvidia a nyerő páros ;)

[ Szerkesztve ]

https://youtube.com/user/nuke7

(#92) BeZol válasza b. (#79) üzenetére


BeZol
őstag

Én is ebben reménykedek, pont pár napja számolgattam haverommal, hogy nyers feldolgozóegységek alapján +20%-ot mindenképp tud a 3070-es egy 2070 Super-hez képest (nem a sima 2070-hez képest!). Ehhez jön még, hogy jobb órajelek várhatóak.
Anno 980Ti és 1070 viszonylatban (28nm vs 16nm) a memória GDDR5 maradt (GDDR5X-et 1080 és felette kaptak, 1070Ti GDDR5 maradt), csak 1750MHz helyett 2000MHz (+14%), a CUDA magok száma 2816-ról 1920-ra csökkent (+46% gtx 980Ti-nek), és az alap gpu clock 1000MHz-ről 1500 fölé ment (+50%), közben a turbó is pöttyet jobb lett persze, fogyasztás is csökkent, ÉS egyforma erősek lettek! Tehát hiába csökkent a feldolgozóegységek száma, ezt órajellel ellensúlyozni tudták.

Most jönnek a kérdések, hogy vajon GDDR6-ban mennyi tartalék lehet órajelnövelésre (talán semennyi :F ), de ha szimplán azt nézzük, 28nm-ről 16nm-re ugrásnál (57,14%-osra kicsinyítés) tudtak kb. +50% órajeltöbbletet adni a gpu-nak, akkor 12nm-ről 7nm-re ugrásnál (58,33%-osra kicsinyítés, tehát majdnem ugyanakkora előrelépés!) is képesek lehetnek erre, hiszen minden egyes nm-beli ugrásnál magasabb órajeleket kaptunk kisebb fogyasztással párosítva (980Ti 250W, 1070 160W, ami egyben kb. a kicsinyítés mértéke úgy, hogy h a kevesebb nyers erőt +50% órajellel megpakolták és kb. egyforma a két kártya).

Tehát a kicsinyítés mértéke közel azonos lesz a gyártástechnológiának köszönhetően, csak 28nm -> 16nm helyett 12nm -> 7nm.
Azt már tudjuk, hogy 2070 Super-hez képest +20% nyers erő biztosan lesz a 3070-esben (legalábbis pletykák alapján).
Ha 980Ti kontra 1070 horderejű váltás lenne, akkor az RTX 2070 Super 2560 CUDA magja = 1742 CUDA magú 3xxx szériájú kártyáéval +50%-os órajel mellett (210W helyett 140W-tal), ergo az RTX 2070 Super utódja 1742 CUDA magos 3xxx lehet +50% gpu clock-cal (1605MHz-es Base Clock-ról 2400MHz-es Base Clock, és ezekre jön a turbó érték), ami így leírva a "hihetetlen" kategória, de gtx 9xx széria 1000-1100MHz-es base clockjai után az 1070-es 1500 feletti értéke is annak tűnhetett!
Az RTX 3070 pletykált 3072 CUDA magja az RTX 2070 Super erejének megfelelőjű 3xxx szériás 1742-höz képest +76%.

A nagy kérdés, hogy az órajeleket mennyire tudják feltornászni. Nyers erő alapján +20% a minimum előrelépés 2070 super -> 3070 viszonylatban, a fentebbi kalkuláció alapján pedig +76% is lehetséges. A végeredmény valahol a kettő közé várható.

Techpowerup-os összesítések alapján a founders edition-ös 2080 Ti a founders edition-ös 2070 Super-re 1080p-ben 24%-ot, 1440p-ben 31%-ot, 4k-ban 37%-ot ver.

HA csak 20%-kal lenne erősebb a 3070-es, akkor 2080 Super környékén tanyázna a teljesítménye, HA viszont 76%-kal lesz erősebb, akkor 2080Ti-t is kenterbe veri.
HA abból indulunk ki, hogy anno a 980Ti teljesítményét hozta az 1070-es, akkor legalább 24-37%-kal kéne erősebbnek lennie a 3070-esnek a 2070 Super-nél.

A kérdés az, hogy mennyire tudják és akarják kiaknázni a gyártástechnológia nyújtotta lehetőségeket, mert piacra dobhatnak "csupán" RTX 2080 Ti erejű kártyát is 270W körüli fogyasztás helyett 180W-tal, 2/3 annyi feldolgozóegységgel és 50%-kal gyorsabb base clockkal.

Az RTX 3080-as specifikációi alapján, hogy 3840 CUDA magja lesz, ott pedig a 2070 Super-hez képest akár 2,2-szeres teljesítménybeli ugrás is lehetséges.

Ez 1440p értékek alapján
RTX 2070 Super: 100fps
RTX 2080 Ti: 131fps
RTX 3070: 176fps
RTX 3080: 220fps

A pletykák alapján "According to Taipei Times, the new GPU based on the Ampere architecture would use 7-nanometer chips, which would boost performance by 50% and halve power consumption" nem fognak 76%-ot gyorsulni, hanem csak 50%-ot, DE a 3070-esben +20% CUDA mag lehet, ergo már majdnem meg is van a 76% :)
Lesz itt gyorsulás kérem szépen :U , csak ne legyen az, hogy megint drágul minden és 600ezer Ft lesz egy 3080 Ti...

(#93) b. válasza BeZol (#92) üzenetére


b.
félisten

szerintem nem szabad nagyon sokat várni,ha valóban nem lesz áramemelés ahogy pletykálnak róla. egészséges 30-35 % -t érdemes várni RT ben pedig ennél jóval több gyorsulást remélek.

Bizakodásra ad okot, hogy a Turinggal ellentétben újra xx4 GPu-t kap a 3070, mint a Pascal esetében, azaz azt amit most a 2080 kapott így a 3060 képes lehet egy 2080 sebességére.Már persze ha a pletykák igazak.

Videocardz.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#94) egyedülülő


egyedülülő
őstag

Ezt a 3060 hozza a 2080 szintet enyhe túlzásnak érzem.

"Ha lenéznénk az űrből a földre, nem látnánk az országhatárokat. Csak egyetlen kis bolygót látnánk."

(#95) b. válasza egyedülülő (#94) üzenetére


b.
félisten

pedig azt hoznia kellene 350 dollárért( ha annyi lesz mint ahogy mondják, hogy nem változik az ár az alsó szegmensben a felsőben pedig csökken valamelyest) ha versenyképes akar lenni a 400 dolláros 5700 XT vel.
Pascalnál már volt erre példa.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#96) nuke7 válasza <Lacy85> (#78) üzenetére


nuke7
veterán

ez így eléggé mellé, mert a 1070 azért erősebb a 1660ti-nál... :N max alulról közelíti, 8-10%-al van mögötte ;)

https://youtube.com/user/nuke7

(#97) <Lacy85> válasza nuke7 (#96) üzenetére


<Lacy85>
addikt

Régebben néztem teszteket. Pár FPS volt köztük.

(#98) hokuszpk válasza b. (#93) üzenetére


hokuszpk
nagyúr

nahat. az Adoredtv pont ilyen tablazatokat hozott le a 3xxx Ryzenrol.

Első AMD-m - a 65-ös - a seregben volt...

(#99) atesz999 válasza GodGamer5 (#1) üzenetére


atesz999
tag

A Gtx970 3,5 GB memóriája 5 év után is elég FULL HD -ben bármilyen mai játékra. A 6GB is elég lesz 3-4 évig simán az átlag felhasználónak. CSak okosan kell beállítani a grafikai beállításokat.

(#100) Ragnar_ válasza atesz999 (#99) üzenetére


Ragnar_
addikt

Szerintem a16-20Gb VRAM lehet, hogy nem is a 4K-hoz kell majd, hanem az RTX teljesítményhez.. De ez csak tipp. Manapság valóban semmi nem eszik 12Gb VRAM-nál sokkal többet 4K-ban sem.

[ Szerkesztve ]

Ryzen R5 1600X - ASUS PIRME-B350 PLUS - 2x8Gb G.Skill Aegis 3GHz - Gigabyte 1070 G1 Gaming

(#101) nuke7 válasza <Lacy85> (#97) üzenetére


nuke7
veterán

igen, 75fps esetén ez kb. 5 fps eltérés :K

https://youtube.com/user/nuke7

(#102) MeszesKPT válasza BeZol (#92) üzenetére


MeszesKPT
őstag

Szerintem ez azért erősen wishful thinking. Vagy tényleg amennyivel erősebb lesz, annyival drágább is. Sajnos erre is láttunk már példát.

(#103) janos666 válasza nuke7 (#96) üzenetére


janos666
nagyúr
LOGOUT blog

Decemberben nézegettem teszteket, mikor a HDMI 2.1 VRR miatt "valami Turing"-ra kellett cserélnem a 1070-et, és akkor azt láttam, hogy kb. a 1660Ti lenne vele egálban, picivel alatta a 1660S, vagy kicsit felette a 2060. De játéktól is függ: úgy tűnt, hogy az újabbak jobban fekszenek a Turing-nak, így hozza be átlagban a 1660Ti a 1070-et (régi játékban elmarad, újabban viszont mellé, némelyikben pedig fölé is lép), a 1660S pedig csak új játékokban van közel egálban (régiekben egyértelműen lemarad).

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#104) MeszesKPT válasza janos666 (#103) üzenetére


MeszesKPT
őstag

Milyen vga-val tudod használni a HDMI 2.1 VRR-t?

(#105) janos666 válasza MeszesKPT (#104) üzenetére


janos666
nagyúr
LOGOUT blog

Benne volt a hsz-ben, hogy csak Turing-al. Azon belül bármi jó (akár a 1650 is).
Remélem, hogy az Ampere hozza majd a 48G sávszélt is. :)

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#106) MeszesKPT válasza janos666 (#105) üzenetére


MeszesKPT
őstag

Átsiklottam, gondolom akkor LG OLED-re van kötve. Milyen felbontáson és range mellett működik? Köszi.

(#107) janos666 válasza MeszesKPT (#106) üzenetére


janos666
nagyúr
LOGOUT blog

A tartomány minden felbontásban 40-120, de még csak 1440p120-ban lehet használni, a 2160p120-at (ami 8bit YCC 4:2:0-al beférne a 2.0 sávszélbe) nem kajálja a TV. Viszont a frametime tüskéknél felvillan kicsit a kép (kicsit fényesebb a képkocka, mint kéne), nem tudom, hogy ez nVidia vagy LG hiba. Gondolom utóbbi, de passz, hogy javítják-e firmware-el, és nem egészen értem hogy kapott így "G-Sync Compatible" matricát (tudom, hogy ennek a hitelesítési szintnek sokkal lazább a követelményrendszere, de azt hittem ebbe is beletartozik valami alapvető képminőség teszt).

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#108) b. válasza janos666 (#107) üzenetére


b.
félisten

ez csak szabvány HDMI VRR nem? nem gsync hitelesített.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#109) janos666 válasza b. (#108) üzenetére


janos666
nagyúr
LOGOUT blog

Szabvány HDMI 2.1 VVR implementáció, ami bármely, a DP 1.xa VESA A-Sync implementációhoz hasonlóan a nem hitelesített készülékhez is bekapcsolható kézileg, de azon túl a konkrét TV (jelen esetben LG 55 C9) kapott G-Sync Compatible hitelesítést is, benne van az nVidia listájában.

Ez a gyakorlatban is úgy nézett ki, hogy majdnem egyszerre jelent meg a kérdéses nVidia driver és a hozzá tartozó firmware US modellekre. Ekkor kézileg be tudtam kapcsolni NVCP-ben a G-Sync-et a még nem frissített EU TV-hez is (ugyan úgy, mint egy nem hitelesített DisplayPort-os monitor esetén is teheti a felhasználó), majd némi késéssel az EU-s TV modellek is megkapták az új firmware-t, és azóta automatikusan is bekapcsol már a G-Sync (nem emiatt, de kipróbáltam már, hogy "clean install" után bőszen felugrott az értesítés róla, hogy a driver "gratulál" a G-Sync kijelzőhöz, automatikusan bekapcsolta nekem), de a villódzás maradt.

Egyébként nem katasztrófa, egy átlag felhasználónak talán fel sem tűnik, mert ritkán és nem erősen villan.

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#110) janos666 válasza janos666 (#109) üzenetére


janos666
nagyúr
LOGOUT blog

Erről most eszembe jutott, és puszta érdekességből kipróbáltam újra, hogy vajon működik-e már a legújabb beta driver-el (450.12) a G-Sync, ha egy passzív DisplayPort -> HDMI adaptert használok a VGA és a TV közt (~1$ kínai kacat). Régebben ilyenkor teljesen eltűnt a G-Sync tab az NVCP-ből, de most elérhető maradt és tényleg működik is!
:Y
Most már csak egy olyan passzív adapter kéne, ami elbírja a DP port maximális sávszélességét, és akkor elvileg akár mehetne is a 2160p120 RGB. ;]
(Kár, hogy tudtomal nem létezik ilyen, ami adapterként is árulnak, még HDMI 2.0 sávszélhez sem, nem hogy a fölé, 2.0-hoz is csak alaplapra integráltról tudok...)

Nem tudom, hogy ez vajon annak az előszele-e, hogy az Ampere-n nem lesz natív HDMI 2.1, hanem kap egy PCB-re integrált passzív DP->HDMI konvertert, hogy legyen DP 1.4 sávszél a HDMI 2.0 porton "tuning" jelleggel.

De ami most jobban érdekelne ezzel kapcsolatban, hogy a Pascal kártyákon mi történik ilyenkor (mert azzal érvelt az nVidia, hogy a Pascal HDMI része nem elég jó a HDMI 2.1 VRR-hoz, nem csak anyagi/marketing okokból korlátozza ez Turing-ra, de ez az érv teljesen elvész, ha DisplayPort-ot használunk).

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#111) janos666 válasza janos666 (#110) üzenetére


janos666
nagyúr
LOGOUT blog

Na, egy "pixel clock patcher", és megy a passzív adapteren át a 2160p60 és 1440p120 is. Bezs@r@s, kiderül, hogy teljesen feleslegesen cseréltem le a GTX1070-et RTX2060, pár hetet hetet kellett volna csak várnom erre a driver-re, hogy működjön HDMI helyett DP portról a HDMI VRR az 1$-os adapterrel. :))

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#112) MeszesKPT válasza janos666 (#111) üzenetére


MeszesKPT
őstag

Köszönöm a részletes leírást. Azt jól gondolom, hogy azért 2160p-ben van 40-60 Hz között VRR már most is 4:4:4 mellett?

(#113) janos666 válasza MeszesKPT (#112) üzenetére


janos666
nagyúr
LOGOUT blog

Igen, bár nem sok értelmét látom.
Az 1440p ránézésre jobban hasonlít a 2160p képre, mint az 1080p-re. Nyilván nem olyan éles hatású, és persze több aliasing marad a képen (szerintem ez ma a 4k igazi előnye, hogy nem kell rá SSAA, miután az MSAA már 10 éve kihalt, még sincs helyette normális új megoldás), de szerintem abszolút élvezhető. Cserébe elbírja egy megfizethetőbb VGA kártya is akár 100+ fps-el, és -6ms lag is, ha 60 helyett 120Hz-el van hajtva a TV, na meg a mozgóképfelbontás is sokkal jobb magasabb fps és Hz mellett. (Kár, hogy nem lehet tesztelni az 1080p240-et úgy, mint a 2017-es TV-ken az 1080p120-at, ahol kikapcsolt a színkezelés, hogy elbírja a SoC, bár nem érné meg úgy használni).

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#114) ÁdiBá válasza Tanisz (#50) üzenetére


ÁdiBá
addikt

Nem hiszem, szerintem egyiksem lesz HBM2 es, kizárolag a GA100-as.
GA100 8GPC*8TPC*2SM 6144bit ?GB?
GA102 7GPC*6TPC*2SM 384bit ?GB? valósznű - 12GB / 24GB
GA103 6GPC*5TPC*2SM 320bit 10GB/20GB
GA104 6GPC*4TPC*2SM 256bit ?GB?
GA106 3GPC*5TPC*2SM 192bit ?GB?
GA107 2GPC*5TPC*2SM 128bit ?GB?

ÁdiBá

(#115) Egon válasza <Lacy85> (#30) üzenetére


Egon
nagyúr

(olyan TDP mellett, hogy leég a falról a villanyóra)

Az adatlapodat elnézvén, a fenti kijelentésed tükrében különösen bájos az az RX 580... ;] :C Hiába na, vörös szemüvegesen szép az élet... :C

"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

(#116) Alogonomus válasza Egon (#115) üzenetére


Alogonomus
őstag

Azért a zöld szemüveget levéve nézzél kicsit szét az RX 580 fogyasztását illetően, és máris nem csak a 180+ wattos modelleket fogod észrevenni. Nekem például 150 wattos Aorus kártyám van, de a 140 wattot is csak szökőévenként éri el, miközben csendesen hozza a FullHD játékélményt. 1435 MHz-re felengedve kezd csak hangosabb lenni.

[ Szerkesztve ]

(#117) janos666 válasza Alogonomus (#116) üzenetére


janos666
nagyúr
LOGOUT blog

Mindkét oldalon vannak különböző TDP-re konfigurált kártyák és olyanok is, amiken tág keretek közt állítgatható a gyári alapértéktől fel és le is. Viszont...


[link]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#118) Jacek válasza MeszesKPT (#106) üzenetére


Jacek
veterán

Jelen pillanatban 1440/120hz , tudja a 4K/120 a TV de csak 2.1-es HDMI-vel ami jelen pillanatban nincs semmin. 4K/60 megy természetesn most is.

[ Szerkesztve ]

(#119) MeszesKPT válasza janos666 (#113) üzenetére


MeszesKPT
őstag

Értem, köszi.

Nagyon remélem, hogy az Ampere-re már végre 2.1-es HDMI kerül, hogy mehessen a 2160p 60+ Hz gond nélkül. Akik régebbi játékokkal játszanak, azoknak nagyon jól jönne. Én például elsősorban szimulátorozok és eddig is meg volt a teljesítmény, de mégsem tudtam kihasználni. Na majd 2020-ban talán végre minden adott lesz.

(#120) b. válasza MeszesKPT (#119) üzenetére


b.
félisten

régebben volt arról szó, hogy a 2.0b frissíthető lesz 2.1 re vagy valami ilyesmi , hogy nem hardveres akadálya van a dolognak. Aztán lehet keverek valamit.

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#121) janos666 válasza b. (#120) üzenetére


janos666
nagyúr
LOGOUT blog

Feature-ök vehetőek át (mint ahogy már meg is történt, pl. Turing VGA-kkal és XBox One konzolokkal van VRR, ALLM, stb, utóbbit pár TV gyártó is átvette 2.0 sávszélű portokra), de 48G sávszél nagyon valószínűtlen (nincs is rá példa). Szerintem célszerűbb lett volna HDMI 3.0-nak nevezni a 2.1-et, mert most először nem csak a TMDS órajel nő (akkor talán lehet most játszani, "overclock" jelleggel kicsit többet kisajtolni a 2.0-ás forráseszközökből), hanem változik az átviteli séma DP 1.x szerűre (a DP pedig most vált majd át ThunderBolt szerűre a 2.0-ás verzióval :DDD).

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

Copyright © 2000-2024 PROHARDVER Informatikai Kft.