NVIDIA GeForce RTX 4090 spotted reaching 3.0 GHz and 616 Watts with GPU stress tool
EA: It's in the crate!
NVIDIA GeForce RTX 4090 spotted reaching 3.0 GHz and 616 Watts with GPU stress tool
EA: It's in the crate!
◄►Clevo® X170SM-G "DTR" Laptop *i9-10900K @ 5GHz (AIO Water System)*2x32GB=64GB 3200MHz CL20 RAM*RTX 3080 16GB MXM*4x2TB=8TB M2 SSD -_- LG® V30+ ThinQ DS 4/128GB "Blue"►Samsung® S20 Ultra 5G◄SM E80 3.5mm Jack►"Szép, a kinek esze nincs, de még szebb, a kinek van."◄►
Még ki sem jöttek a kártyák, de alzán már drágult 16k-t a 4090 Suprim
Persze nem meglepő, szerdán még úgyis újraszámolják.
EA: It's in the crate!
Én meg egy nap különbséggel 20k olcsósodást láttam a min-max értékekben. Fog még itt hullámvasutazni az ár rendesen, szerintem.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Masreszt a 3xxx gen tagjai kezdenek eltunedezni, de ha van akkor is csak bontott es meglehetosen dragan
A vegen kenytelen leszek 4080/16-ot behuzni mert mas ertelmes nem lesz
[ Szerkesztve ]
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
(#909) ImpersonatoR válasza -=RelakS=- (#908) üzenetére
Ez jobb mint gondltam. (ha nem kamu)
RTX 4090 -rol nincs valami TS eredmény ami nem fake ?
Ha nem kamu, akkor a 4080 16GB lesz sok embernek.
V1200 - 18CORE - SUPRIMX
Ha ezt tenyleg tudja akkor tuti. Remelem nem lesznek ilyen ertelmetlen boszmesegek mint a 4090-nel.
Fogyasztás nem indokolja.
¡GLORIA A LAS PLAGAS!
Azt jól látom a cikkben, hogy az ígért 350W-on belül nyalja meg a 3GHz-et?
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Ha bili-re kikerül a videó akkor nem kamu,én úgy tudom kinn volt,de törölték,abból van a kép...de nem értem ,most akkor a 4080 is jön,vagy kinn van...
... vagy maga az Nvidia. (nem tudom volt-e már)
Overwatch 2 1440p
Tom's Hardware ugyanerről
A 12 GB-os 4080-nál szerintem az MSRP-be a bohócorr és a bohócsapka is bele kellene, hogy férjen. (A 3090 és a 3090 Ti lehagyása a grafról is elég beszédes egyébként...)
Persze minden kártya lehet jó, az ártól függ (nem a teljesítmény a gond), ez az egész jelenleg vicc kategória.
[ Szerkesztve ]
"Everything is high risk, if you are a pussy."
Hsz-ekben irjak hogy eleg kamu szaga van, 1% GPU load, no fan % speed/RPM.
A legnagyobb probléma amit látok, hogy még nem volt semmi kép elkészült 4080-ról, vagy hogy valakinél már ott lenne.
Ezen felül meg kellene a belsős driver hozzá - erősen kétlem, hogy a mostani, amit odaadtak a tesztelőknek 4090 review készítéséhez már tartalmazná a 4080-at is, hiszen a 4080 launch is hasonló lesz.
Kb csak nvidia tudna szivárogtatni...
EA: It's in the crate!
Engem annyira nem lep meg, a launch majd valamikor Novemberben lesz, az Nvidia meg tudjuk milyen az NDA-vel kapcsolatban.
Majd talan Oktober vege fele mar jonnek hasonlo kepek/webshop placeholderek mint most a 4090-rol.
Azok nincsenek átkapcsolva a maxra, a pillanatnyi értéket mutatják. Ettől még lehet kamu persze, de ez ebből pont nem derül ki.
Jo de ha megnezed a graphot pl GPU-loadnak?
Nem valami egeszseges kep. Oke hogy 1440p ULTRA-n CPU limit lehet.
A graph nem mond semmit, mert ha _esetleg_ valós, akkor a graphon csak annyi látszik, hogy ahol a teszt ment már rég kifutott az ablakból (minden nagyon alacsony).
Hat egy gyors kereses utan az emberek altalaban arra panaszkodnak, hogy egy kezdeti 100% utan 40-50%-van csak a GPU load masok csak 60-80% irnak.
Itt konkretan nullatol megy kb 20%-ig egy pillanatra 50% aztan vissza nulla.
Nincs FireStrike-om de tesztek alapjan nem igy kellene ennek kineznie.
Nagyon úgy néz ki, hogy jövőhéten a TUF 3090Ti-t lecserélem egy szintén TUF 4090-re.
ASUS ROG STRIX Z790-E GAMING WIFI ֎ Intel® Core™ i9-14900K ֎ G.SKILL Trident Z5 RGB 64GB (2x32GB) DDR5 6400MHz CL32 ֎ Arctic Liquid Freezer III 420 A-RGB Black ֎ ASUS TUF Gaming GeForce RTX 4090 OC Edition 24GB GDDR6X ֎ SAMSUNG 1TB 980 PRO M.2 PCIe ֎ Lian Li O11 Dynamic EVO XL
Nem félsz, hogy kigyullad a ház?
Busterftw: Felesleges itt kamu oldalakról csevegni. 12-én minden kiderül. Majd akkor lesznek vidik a tesztről.
V1200 - 18CORE - SUPRIMX
Ezt most nem tudom dekódolni. A timespy graphon semmi gyanús nincs, a GPU-z graph meg kb megfelel egy teszt lefutott-böngészek állapotnak. Hol látok 100% meg 60% GPU Loadot? Biztos megvan hogy kellene kinéznie egy ilyen grafnak?
/nem validálni szeretném, lehet akkora kamu, mint a ház, de nincs a screenshoton semmi, amivel lebukhatna, leaglábbis én nem látok ilyet. Annyi látszik csak, hogy lement a teszt, vissza is hűlt már annyira a kártya, hogy el is ment passzívba. Ami lehet, hogy meg sem történt, vagy valami mai kártya garpha, lehet bármi, de nincs itt semmi gyanús. Egy validnak tűnő kamu screenshotot könnyű előállítani, úgy, hogy ne bukjon le.
[ Szerkesztve ]
Ha valós, akkor ez jobb, mint, amire számítottam.
Oke akkor itt egy pelda, ha jol latom TimeSpy-rol vol szo, ott meg kb 1 perces scenek vannak, tehat a GPU load graphnak igy kene GPU-Z alatt kineznie:
Jol lathato, hogy amikor indul az elso scene akkor ramp up van aztan megy fullon a GPU load. Majd valt masik scene-re es igy tovabb, igy nezne ki kb GPU-Z alatt is.
Ehhez kepest itt ezt latjuk:
De az alsó egy olyan állapot, amikor kifutott a teszt. Használtál már GPU-Z? Az ott szkrollozik. Addig látod a múltat, ameddig egy ablaknyi távolságban történt. A screenshotot lőhettzék a teszt után 15 perccel is, amikor már semmit nem fogsz látni belőle.
[ Szerkesztve ]
jó 80%-ot hoz. (gondolom ezek DLSS3-as játékok)
Gangsters on the Boardwalk http://play.google.com/store/apps/details?id=com.hattedskull.gangsters
Amire ugye forrasod nincs, tehat ugyanugy lehet kamu is, mint amennyire valos.
Köszönöm, hogy leírtad negyedszer is, amit előtted leírtam háromszor. Ahelyett, hogy megköszönnéd, hogy segítettem értelmezni azt, ami látsz.
[ Szerkesztve ]
Egyaltalan nem azt irtam le, azt irtam, le hogy a benchmark lehet kamu, mert a gpu load alig ment. Egy TimeSpy benchmark gpu load nem igy nez ki, last fentebb.
Te csupan annyit felteteleztel, hogy ez keszulhetett a benchmark utan is, ami ugyanolyan talalgatas mint az enyem vagy a kommentek alatti hsz-ek a cikk alatt.
Akkor nézzen is úgy kí.
Adja Isten, hogy ez valós legyen és nem fake. Mondjuk szerintem az.
Van itt 4090 vs 3090 TI is, amitől könnybe lábad a szemem.
[ Szerkesztve ]
1, Tuti DLSS3 meg minden csicsa be van kapcsolva amit kihasznál az új gen.
2, Jelen állás szerint közel 1000€ a különbözet a kettő kártya között.
Én majd arra leszek kíváncsi, hogy ahol nincs semmi bekapcsolva, ott mekkora lesz az erőfölény.
Nem hiszem, hogy örömödben fog akkor könnybe lábadni a szemed.
Én azt írtam le, hogy a képből nem derül ki, hogy kamu-e. Aki képet látva kamut kiált, az csak szimplán fogalmatlan Hogy a graphnak hogy kell kinéznie, ezen meg inkább lépjünk szerintem át. Ezt ebben a pillanatban lőttem, a cikk alá kommentelgetők hülyeségei alapján ez is nyilván kamu.
Ne szaproítsuk a fogalmatlanságot, ne hemperengejünk el benne, szimplán lépjünk csak át rajta, és maradjunk annál, hogy a kép kamutartalma a pixelek alapján nem dönthető el, bármit is hord össze a nép kommentben.
[ Szerkesztve ]
1.
A beallitasokat mutatja, en nem lattam bekapcsolva DLSS.-t.
Mindkettőtöknek lehet igaza, de én inkább arra voksolok, hogy a gpuz csak úgy idle lett elindítva.
A ventik lefutása még ott van, de terhelés nem volt. Elég meredek az esés, inkább kézzel szórakoztak. Egy baromság az egész, pár nap és kiderül.
Felőlem lehet egy atomerőmű is, akkor is k...va drága.
Ilyen egy valós TS fixált, nem auto frekivel. 3. menetnél is tartja.
[Timespy]
[Firestrike]
Biztosan jó lesz, de ~2000€, ne nevettessük ki magunkat. Elég volt egyszer...
[ Szerkesztve ]
A DLSS3-at nem lehet csak úgy bekapcsolgatni, azt implementálni kell. Van lista, hogy melyik játékban van már benne. a GoW nincs köztük.
(#942) -=RelakS=- válasza ForRedGlory (#936) üzenetére
Doom Eternal Raytracing off? Gááááááz
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Illetve spéci monitor is kell hozzá, nem? AMi támogatja az Nvidia Reflexet, vagy mit
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Jah bocsi most nézem.
Mark PC 11 ezer feliratkozó.
Bocsi én vagyok a fasz.
Elnézést kérek mindenkitől.
Nem. Nvidia reflex van már két éve a ampereken is. Gsync kell hozzá, de hát az már annyira nem spéci, hog ytalán már nincs is monitor, ami ne lenne az.
[ Szerkesztve ]
Nem idle lett elindítva, mert vannak szép értékek, ahol át van kapcsolva max-ra a counter. HA -valós akkor valamilyen teszt biztosan futott.
"Én majd arra leszek kíváncsi, hogy ahol nincs semmi bekapcsolva, ott mekkora lesz az erőfölény."
Linkeltem nvidiás benchmarkot/cikket, hozzá kötődő Tom's Hardware cikket a 915-ös hsz-ben, arra zéró reakció van, ellenben a YT-os fiszfasz ki tudja milyen forrásból érkező/kamu benchmarkokra tízesével jönnek a hsz-ek, fejtegetések.
"Everything is high risk, if you are a pussy."
Egy szó, mint száz, gpuz egy rakás sz@r. Sosem értettem, hogy hitelesítésként, miért pont azt...
Hwinfo a 4 oszloppal (nem 3, mert az fos), az már nagyvonalakban ok, ill msi ab grafikonjai kinagyítva. Ez az 5mm magas sor egy... nem írom le még egyszer, de hasznavehetetlen sz....r
Abból az látszik hogy owerben a 4090 megy mint a barom, a 4080 16gb az bőven lemaradva követi (a 2 között tátongó űrt majd a 4080Ti kitölti egyszer), a 4080 12gb meg egy dlss 3-al felvértezett 3090Ti, aminek 4070/Ti-nek kéne lennie, olcsóbban mint az msrp ár. (Ezért nincs 3090/ti a grafikonon)
Raszteres brutalitást a 4090től kell varni, ott a 60% meg lesz (tekintve az adatokat a gpu-ra vonatkozóan)
[ Szerkesztve ]