- gban: Ingyen kellene, de tegnapra
- Luck Dragon: Asszociációs játék. :)
- Kempingezés és sátrazás
- hcl: Döglött tabletből wifis kijelző kókány
- eBay-es kütyük kis pénzért
- hege8888: Retro Kocka Kuckó 3
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- btz: Internet fejlesztés országosan!
- LordAthis: Ismét egy "Idióta" A.I. Projekt, hogy meglovagolja az aktuális trendeket...
Hirdetés
Új hozzászólás Aktív témák
-
[Samsung Foundry Taking Extreme Steps To Win 3nm Orders From NVIDIA For Next-Gen GPUs]
Projekt Nemo terv a Samsungnál, hogy visszanyerje az Nvidia megrendeléseket. -
hokuszpk
nagyúr
válasz
Alogonomus #47597 üzenetére
a magasabb freki pont azert problemas, etetni kell a feldolgozokat ; amik ugye ha nincs adat, akkor csak malmoznak ; bar vannak mindenfele elagazasbecslok, meg josgömb-egységek, amik elore kitalaljak, hogy mit kell behuzni a memoriabol, cache nelkul kb. tizedere esne a sebesseg ; az ős Pentium idejeben meg biosban kikapcsolhato volt az L1/L2 ; na az L1 kikapcs kb. a 286 szintjere lokte vissza azt a csucstechnikat ; az L2 nemvolt olyan drasztikus, de pl. a Mendocino / Covngton ( utobbiban nemvolt L2 ) magos Celeron 300 osszehasonlitasnal is szepen latszott, hogy azert csak kell az oda.
-
HSM
félisten
válasz
Alogonomus #47597 üzenetére
"a magas frekvencia minél hatékonyabb kihasználásához"
Ehhez éppen kritikus a megfelelő mennyiségű és sebességű cache (is). -
Alogonomus
őstag
válasz
Petykemano #47589 üzenetére
Eleve onnantól kezdve csak könnyed szórakozásnak számított a teszt, amikor Steve is leszögezte, hogy az Intel a minél magasabb üzemi frekvenciát hajszolja, míg az AMD a minél hatékonyabb működést.
Az Intel kezdetektől a magas frekvencia minél hatékonyabb kihasználásához alakította a processzorai belső logikai/szerkezeti felépítését, ami így nyilván nem tud sokat profitálni a nagy kapacitású belső cache előnyeiből. -
HSM
félisten
válasz
proci985 #47594 üzenetére
Igen, az eredeti teszt is játék-fókuszú volt.
De fenntartom az eredeti állításom, miszerint igazából bármilyen felhasználásnál nem várható nagy különbség 24, 33 és 36MB L3 között, különösen nem, ha gyors DDR5 memória-alrendszer van mellette.És mivel a 7950X3D-n a játékok (jól beállítva a CPU-t, lásd: [link] ) az X3D-s CCD-t használják, így gyakorlatilag egy picivel emelt órajelű 7800X3D a végeredmény játékokban, ahogy írod is.
Rendkívül érdekesek egyébként a TPU eredményei, ahol azt kapcsolgatták, melyik CCD-n fusson a játék a 7950X3D-n: [link] .
Annak sajnos semmi értelme, hogy mindkét CCD-t használja a játék, már a Zen2 idején világosan látszott (magam is teszteltem, tapasztaltam a saját 3600-asomon) hogy a CCD-közti kommunikáció eléggé elrontja a skálázódást a késleltetésre hagyományosan érzékeny játékokban. Főleg, hogy a mai játékok közül kevés képes 8 erős magon felül is skálázódni. Ezen nyilván lehetne processzor specifikusan optimalizálni, de nem lenne sok értelme, amikor 6-8 erős mag elérhető olcsón, egyben, és elég is.A cache egyébként szerintem nem igazán igényel célzott optimalizációt, a nagyobb méret "magától" is jól működik, ha egyébként a kód jó és akkora adathalmazon dolgozik, ami nem fér bele a kisebb L3 méretbe.
-
proci985
MODERÁTOR
ez oke, csak ez a tesz kizarolag jatekokat nez.
7950X3D meg gyakorlatilag egyik CCDn ad csak tobb memoriat, szoval ha oda limitalja a vegrehajtast, akkor igazabol van egy 7800X3D.
foleg, ha optimizacio szempontbol meg probaljak oldani, hogy a non-X3D modelleken is jol fusson, az engine spec reszet ezert nem fogjak szetbranchelni.
-
HSM
félisten
válasz
Petykemano #47592 üzenetére
Hasonlóan emlékszem én is a 5600X és 5600G fronton.
Szerintem érdemes megnézni, mit mértek a 7950X3D-vel skálázódást a 7700X-hez képest: [link] .
Szerintem szépen látszik, hogy hiába háromszor akkora az L3, a sebességelőny bár jelentős, de nem földbe döngölős így sem. Megfigyelhető az is, hogy a gyorsabb memóriákkal szűkül az X3D előnye (ahogy utaltam rá). Sőt, néhány esetben a gyors ramokkal ott volt a 7700X is a lassú ramos 7950X3D nyakán. -
Petykemano
veterán
Igazad lehet abban, hogy elhamarkodott az ítélet.
Talán ott ment félre, hogy annyira hangsúlyozták, hogy a frekvenciával skálázódik csak.
Ami eleg valószínű, hogy a frekvenciávak kb lineárisan a cache mérettel meg kb logaritmikusan skálázódik.A ryzenek esetén nekem az az emlékszerű megfigyelésem, hogy az 5600X és 5600G közötti kb 10%-os gaming különbségért kb 45-55%-ban felel a frekvencia és 16MB vs 32MB L3$ különbség.
Ebből fakadóan 3-8MB cache különbség a 20-30MB magasságban valóban csupán 1-3%-ot magyarázhat -
hokuszpk
nagyúr
"Ryzeneknél, amik jobban támaszkodnak az L3-ra, sincs egetverő különbség a 16MB-os és 32MB-os modellek között azonos órajelen"
ezt 5700G és 5800X tulajként meg tudom erősíteni ; amikor a 3800XT -t (pbo hangolva 4.85Ghz ) 5700G -re cseréltem ( szintén 4.85Ghz a vége ) azt megéreztem ( az 5700G L3 feleakkora ) az 5700G cseréjét 5800X -re kb. észre sem vettem ; pedig utobbi vége 5.05 és a 3800XT -hez hasonlóan 32MB az L3.
-
HSM
félisten
válasz
proci985 #47586 üzenetére
800W már elég durva, az már fűtőtestnek is elmegy.
#47589 Petykemano : Érdekes teszt. De szerintem a konklúzió nem megalapozott. Egyfelől nagyon gyors, DDR5 7200-as memóriákat használt, ami csökkenti a cache jelentőségét. Másfelől cache memóriáknál nem nagyon van jelentősége néhány MB különbségeknek. Főleg 33MB és 36MB csak nagyon határesetben okoz különbséget, de a 24MB is ugyanazon nagyságrend. Ryzeneknél, amik jobban támaszkodnak az L3-ra, sincs egetverő különbség a 16MB-os és 32MB-os modellek között azonos órajelen, pedig az nagyobb különbség és a memória alrendszerük is lassabb valamivel. Cache léptékben nézve ami jelentős különbség, az az AMD-féle 3D-cache, ami háromszoros méretű L3-at eredményez (32MB szemben 96-al). Az már jelentősen képes növelni a találati arányt, ezáltal tehermentesíteni/gyorsítani a memória elérés sebességét játékokban. Valószínűleg a Ryzeneken sem lenne semmi jelentős előrelépés, ha létezne egy mondjuk 36MB L3-as modell, amit megmérhettek volna.
Tehát a mért értékekből szerintem határozottan nem következik, hogy az Intel nem gyorsulna egy mondjuk hasonlóan 64MB-os extra L3-szelettől. -
Petykemano
veterán
Roppant érdekes teszt és eredmény: az Intel jelenlegi architektúrája esetén nem volna gyakorlati haszna, ha ők is 3D v-cache segítségével bővítenék az L3$ kapacitását. [link]
-
Raymond
titán
-
Busterftw
nagyúr
-
proci985
MODERÁTOR
ja, nekem egy ponton kb 880W volt a hatar, es 800Wot rendesen be is huzott folyamatosan a rendszer. most kb 600Wal azert sokkal egyszerubb a helyzet
viznel CPUnal foleg az a baj, hogy a blokknak is vannak hatarai, mert relative kicsi a felulet.
GPUnal lattam kartyat elfozni blokkot, de az ilyen ~450W (vagy folotte) volt, egy uvegre huzott 290Xel. ijeszto volt, ahogy a kb ket kilos rezblokk elkezdett forro lenni.
-
-
proci985
MODERÁTOR
hazszellozes ilyen fogyasztas mellett eleg kritikus azert, meg ha a GPU is a CPUt futi az magaban +10-15 fok az ambientre, szoval exponencialisan romlik a hutoteljesitmeny. ugy meg mar 80 fok korul vagyunk mindjart. lehet izombol legcsatornazni, persze, viznel valamennyire en is azt csinalom.
szoval a halkan, kenyelmes es nem kulonosebben melegen harmas meg eppen oke.
-
HSM
félisten
válasz
proci985 #47582 üzenetére
Persze, nyilván egy jó víz az ideálisabb, főleg 150W felett, ezt nem vitatom. Csak azt szerettem volna hozzátenni, hogy vannak azért olyan léghűtők is a piacon, amik kényelmesen és halkan elbírnak még 150W-al, vagy akár kicsit többel is, különösebb melegedés nélkül, megfelelő szellőzésű házban.
-
proci985
MODERÁTOR
legelso verzioju Thermalright IFX14em is volt (ill van), backplatevel, meg az osszes upgradevel.
rosszul emlekeztem, [link] kb 40es deltaT (23fokos ambient) mellett megfogta a kb 160+Wot. marmint valosan annyit, smallFFTvel egyensulyig stresszelve.
jelenlegi viznel ilyen reszleteset nem csinaltam, de kb 23mas szoba mellett 28-30as folyadek mellett ilyen 50 a max kupak a gyakorlatban 150Wba nyalo 1800X es 3900X mellett, es akkor mar atfutott masfel liter folyadekot a setup ujkoraban. 5950Xnel lehet ujramerem, mondjuk lassan ideje egy atmosasnak.
-
HSM
félisten
válasz
proci985 #47580 üzenetére
Azok többsége csak 4 hőcsöves, az elég nagy difi.
Amire én gondoltam, Thermalright Ultra 120EX REV.4, Alpenföhn Matterhorn, hasonlók. Én utóbbit használok a mai napig, a régi X58 rendszerem alatt vidáman hűtött kb. 200W-ot is: [link] . Most a Ryzen 5600 alatt nyilván jéghideg, azt passzívan is elvitte [link] .... -
HSM
félisten
válasz
Petykemano #47578 üzenetére
Mikor melyik áll érdekükben. Ha egyik sem megy, akkor jön valami kitérő, pl. +50% Ai vagy hasonló.
#47577 proci985: Egy jó minőségű, legalább 6 hőcsöves, 12 centis ventilátorokhoz tervezett egytornyos léghűtő jól szellőző házban 150W-ot kényelmesen meghűt klíma nélkül is...
Elvileg egyébként az Intel dokumentáció erre ajánlja a PL1 limitet, hogy legyen úgy beállítva, amit még bír a hűtő tartósan.Mindenki kedvére testreszabhatja a működést a lehetőségei és igényei függvényében.
-
proci985
MODERÁTOR
válasz
Alogonomus #47576 üzenetére
mondjuk azt vedd figyelembe, hogy leghuto nagyon 188W sustainedet mar nem bir el, vagy csak nagyon melegen*. viz talan oke.
gyakorlatilag egy tesztrendszer ha nem is uj, de minimalis (es fix) loadoutra, rendesen csinalva. szoval ahhoz kepest egy valos rendszeren tobb process fog futni.
ja, a 7800X3D miatt vannak ennyire meghuzva, kulonben mindenhol elveszne a perf korona.
*Thermalright IFX14el (kb D14 kategoria) oke volt, 23 fokos szobaban, epp 80 fok alatt smallFFTvel terhelve, friss levegovel es ket 1300rpmes 140es highend ventivel. szoval szuper szellozes mellett es legkondival, vagy 90 fokig engedve oke, esetleg halkan 100 fokig. de eleg necces volt azert, hogy pillanatok alatt felugrott, aztan a huto megfogta.
-
Alogonomus
őstag
válasz
proci985 #47575 üzenetére
igazabol teszteknel kizarolag a jatek fut es semmi mas
Szoros eredmények esetén ezt én is sokszor elővettem már érvként, de a különböző háttérfolyamatok és például a discord azért 5%-nál többet nem ront a helyzeten. Habár a tesztelők váltig állítják, hogy a tesztrendszerük nem friss telepítés, ráadásul minden tesztelt játék és asz eredményeket naplózó alkalmazás egyidőben ott van a gépen, szóval jól imitál egy tipikus otthoni számítógépet.
Itt viszont most nem 5-10% különbségről lenne szó, hanem sokan akkora teljesítményromlást vizionáltak a kényszerű 253 wattos korlát, majd újabban a már 188 wattos korlát kapcsán, ami a tesztrendszeren csak 95 watt alatt jelentkezett.
Egy mindennel telepakolt és még csak nem is karbantartott rendszer esetén valószínűleg már a 95 wattos korlát mellett is jelentkezne komolyabb visszaesés, de a 188 wattból várhatóan azért le tudja majd fedni a 14900K azt a számítási igényt is, hiszen tiszta rendszeren 140 wattból elvan. Persze hozzá kell tenni, hogy ugyanezt a 7800X3D megoldja 50 wattból. -
proci985
MODERÁTOR
válasz
Busterftw #47573 üzenetére
az is eleg sok egyebkent
Alogonomus: igazabol teszteknel kizarolag a jatek fut es semmi mas, szoval valos eletben (pl fut a discord, a virusirto meg meg par dolog), ennel varhatoan rosszabb a helyzet.
jatek egy dolog, de a csucs asztalikat nem feltetlenul (csak) arra veszik.
-
Alogonomus
őstag
válasz
hokuszpk #47571 üzenetére
Igazából az eredeti (4096 wattos) BIOS-ok esetén is 253 watt alatt maradt a 14900K/KS fogyasztása a játékok esetén, de még a 188 wattos határ sem fog valószínűleg hatalmas csökkenést okozni játékok futtatásakor. A 14900K is megelégedett átlagosan 140 wattal, de még a 14900KS is elvolt 170 wattal, szóval a 253 wattos határba bőven belefértek még a "legéhesebb" játékok is.
A 253 watt és 188 watt a minden magot megdolgoztató esetekben jelent komoly korlátozást.Egy korábbi teszt alapján még 95 wattos korláttal is általában viszonylag jó teljesítményre volt képes a 14900K. 95 watt alá érve esik jelentőset a teljesítménye már játékok alatt is.
-
hokuszpk
nagyúr
válasz
Petykemano #47567 üzenetére
a hwunboxed méregette pár játékkal 253/253W limittel átlag 4% körül jött ki a teljesitmenycsokkenes. azert megneznem mondjuk a 188/253 -as limites mereseket is, vagy eppen a fentebb emlitett 125/188W -t
-
HSM
félisten
válasz
Petykemano #47567 üzenetére
Nem hiszem, hogy olyan jól állnának a konkurenciához képest, hogy ez beleférne.
Főleg most, amikor ez így működik már amióta ez a Turbo rendszer be lett vezetve a Sandy Bridge óta.
Sokkal inkább ott a gond szvsz, hogy a beszámolók alapján brutális számban lehetnek most azok a CPU-k, amik nem bírják ezt, nyilván emiatt sok a garanciális probléma, és a negatív média visszhang sem tesz jót az eladásoknak, különösen, hogy a legdrágább, leggyorsabb otthoni flagship modellekről van szó.
-
paprobert
őstag
válasz
Petykemano #47567 üzenetére
Egyből meglesz a +30% gen on gen.
-
Busterftw
nagyúr
Úgy néz ki Intel rendet tesz a mobo gyártók között:
-
HSM
félisten
válasz
proci985 #47563 üzenetére
Ráadásul az egyenletes eloszlás nagyon jóindulatú egyszerűsítés, mivel a hő jelentős része a magokon koncentrálódik, a méretben szintén jelentős IGP és cache-ek nem kifejezetten nagy fogyasztók.
Nem lepődnék meg azon sem, ha ilyen teljesítmények mellett szobahőmérsékleten már maga a foglalat is olvadóbiztosítékként funkcionálna. Illetve hűthetetlenség miatt a CPU is (thermal) throttlingba kezdhet 100 fokon, és akkor mindegy is a beállított limit.
-
proci985
MODERÁTOR
válasz
hokuszpk #47560 üzenetére
mindezt 257mm2 feluleten.
egyeletes eloszlast szamolva erdekes lenne, hogy mi az az anyag, amivel ezt le lehetne adni. marmint azon kivul, hogy 2x8pin EPS eseten mondjuk 12Ves agankent laza 40+ amper menne at, szoval remelhetoleg meg azelott lekapcsolna a VRM vedelme, mint osszeolvadnak (es rossz esetben kigyulladnak) a csatlakozok.
marmint ha teoretikusan le lehetne ezt huteni. belegondolva ketszer akkora futoerteke van ekkora feluleten, mint egy air fryernek, egy sutonek, vagy a jacuzzi kompresszoranak. marmint maxon.
-
-
HSM
félisten
válasz
Busterftw #47558 üzenetére
Évtizedes távlatban ez megy, csak egy XMP profil mellé is néha olyan feszek mennek a procinak, hogy hű...
Illetve elég régóta nincsenek figyelembe véve sem a fogyasztási limitek (jó lesz a maximum 4096W) illetve az sem, hogy ha minden mag aktív, akkor jópár típusnak csökkentenie kellene az órajelét...
Néha egész komoly utánajárást igényelt, ha az ember csupán a biztonságos gyári feszeken és paramétereken akarta hajtani a CPU-ját.... -
Busterftw
nagyúr
válasz
Petykemano #47557 üzenetére
Errol volt par elemzes amugy (JayzTwoCents), hogy az alaplapgyartok brutal feszeket es beallitasokat alkalmaznak "auto"-n.
Persze nem azt mondom hogy nincs gond, de szerintem itt nem csak az Intel a ludas. -
Devid_81
félisten
Silicon lottery...csak itt az alapon jaratott proci stabilitashoz is szerencsere van szukseg
-
huskydog17
addikt
Everspace 2 át lett migrálva UE4-ről UE5.3-ra. Ezzel jött a játékba Lumen és upscaling támogatás, mindhárom gyártó megoldása belekerült, azaz van DLSS, FSR és XeSS. Ezen felül van NVIDIA Reflex és DLSS Frame Generation is. FSR 3 esetén még nincs frame gen funkció, mert túlságosan instabil.
"For pilots on high end PCs, EVERSPACE 2 will never have looked better. With UE5, we’re able to enable Lumen GI on DirectX 12, Nvidia DLSS 3.5 upscaler with Frame Generation, Nvidia Reflex latency reduction, AMD FSR 3.0, and Intel XeSS upscaler to really make the stars shine. All these new settings are togglable and completely optional."
-
huskydog17
addikt
válasz
gejala #47551 üzenetére
Példának kukkants bele a DF videóiba illetve TPU is sok ilyen jellegű tesztet csinált már. Az XeSS még a szabványos módban is jobb minőséget ad, mint az FSR. Jelenleg az FSR a sereghajtó. Az XMX módban csak tovább nő az szakadék az FSR-től, néhány játékban már a DLSS-t is meg tudja közelíteni.
Az XeSS már most hozza azt a minőséget (nem XMX módban is), amit sokan az FSR 3.1-től várnak el, ami ugye még nincs kész. -
gejala
őstag
válasz
huskydog17 #47550 üzenetére
XeSS-el az a baj, hogy Intel GPU kell a jó minőséghez, egyébként FSR 2 alatt teljesít. Szóval elhanyagolható számú játékosnak hasznos.
-
huskydog17
addikt
Vannak mozgolódások továbbra is upscaling fronton, néhány példa a közelmúltból:
Remnant II
"Added support for DLSS 3.7 and XeSS 1.3"Horizon Forbidden West
"Updated Intel XeSS to version 1.3 with improved image quality and new XeSS Native AA option"Avatar: Frontiers of Pandora
"Enabled Intel XeSS Super Sampling"
"AMD FSR3 has been temporarily rolled back. Dev Note: To prevent visual artifacts impacting the interpolation output of FSR3 Frame Generation we've decided to roll back to the previously used version of FSR3. Despite this rollback, we've decided to keep certain improvements that we introduced with the upgraded version, such as improvements to UI composition when using Frame Generation. "Érdekes a DLSS és XeSS-t a fejlesztők nagyon nyomják előre, az FSR-t meg rollbackelik.
Úgy látom a játékfejlesztőknél általánosságban már az XeSS nagyobb érdeklődést nyert, mint az FSR. Ez mondjuk nem csoda, hiszen nem csak jobb minőségű, de ugyanolyan felhasználó barát, mint a DLSS, ez alatt értem azt, hogy egyetlen DLL fájl cseréjével verziót lehet váltani. -
gV
őstag
Image Quality Enhanced: DLSS 3.7 vs XeSS 1.3 vs FSR 2 - ML Upscaling Just Got Better (youtube.com) Digital Foundry
XeSS rendesen lelépte az FSR-t, de a DLSS még odébb van. -
-
-
[AMD says the UCIe universal chiplet interface will create a whole ecosystem — custom multi-chiplet designs are the future]
Ebbe rengeteg lehetőség van. Mindegyi nagy cég támogatja, Intel és Nvidia is.
Számomra ez is egy lehetőséget jelent az ARM alapú eszközöknek is. lassan beérik vele kapcsolatban jó pár lehetőség. -
huskydog17
addikt
válasz
gejala #47544 üzenetére
Na igen, az Iron Galaxy nem épp a legügyesebb PC portolós csapat, bár a Spyro Reignited Trilogy PC portját szerintem jól megcsinálták, én azzal elégedett voltam, viszont valóban teljesen érthetetlen, hogy a Sony az egyik (ha nem A) legnagyobb húzócímét miért rájuk bízta. Állítólag sok patch kijött már ahhoz, de nem tudom, hogy most mennyire jó/elfogadható állapotban van a Last of Us, a Digital Foundry legutóbbi, ide vonatkozó videója szerint masszívan javult a launch-hoz képest.
Szerintem mindent amit lehet a Nixxes-re fognak tolni, amíg bírják létszámmal. Egyrészt ez a logikus döntés másrészt nem véletlen vették meg őket, pont emiatt, hogy ők vigyék a PC portokat. A felvásárlás célja pont az volt, hogy legyen nekik egy nagyon tapasztalt PC csapat. Csak remélni lehet, hogy a Sony tanult valamelyest a Last of Us katasztrófából. -
gejala
őstag
válasz
huskydog17 #47543 üzenetére
Remélem az Iron Galaxy mellőzve lesz Sony-nál. Már az Unchartedben is érthetetlen problémák voltak (egér szaggatás, hang, stb.), amit csak jó sokára sikerült kikalapálniuk, erre nekik adták a Last of Ust is, ami a mai napig szörnyű.
-
huskydog17
addikt
Horizon Forbidden West - CB Teszt
CPU-Benchmarks: Horizon Forbidden West vs. Dragon's Dogma 2
Horizon Forbidden West Performance Benchmark Review - 30 GPUs Tested - TPU
Horizon Forbidden West: DLSS vs. FSR vs. XeSS Comparison Review
Dragon's Dogma 2 is a Mess: GPU & CPU Benchmarks, Bottlenecks, & Crashes
Mi lehet leszűrni ezekből a tesztekből? Röviden tömören: Forbidden West PC portja nagyon jó lett, ahogy az a Nixxes-től elvárható. A Dragon's Dogma 2 viszont egy rakás fos lett PC-n legfőképp a nevetségesen, extrém magas CPU limit és a botrányosan szar frame pacing miatt.
Forbidden West esetében a DLSS adja a legjobb minőséget a felskálázó technikák közül, Dragon's Dogma 2-ben azt is elcseszték.Mondjuk az még nagyon érdekes jelenség, hogy a Forbidden West esetében a Radeon 6800XT kicsit gyorsabb, mint a 7800XT.
-
huskydog17
addikt
Outcast – A New Beginning - CB Teszt
A jó öreg Stutter Engine 4-re épül a játék és guess what, a játék tele van stutteringgel, van itt shader compilation és traversal stuttering is, miközben a DX11 kód extrém CPU limites, vagyis csak a szokásos UE4 jelenség. Az AMD kártyák 1080p-ben eléggé be vannak fékezve ismét, ez nem az első ilyen game.
Ha ez még nem volna elég, a készítők az in-engine átvezetők képkockasebességét az aktuális függőleges frekvencia felére korlátozták, azaz egy 60 Hz-es kijelzőn 30 fps-el futnak.Egyelőre ez az idei év legtrehányabb és legszarabb PC portja. Még csak az év első negyedévében vagyunk, de már jönnek az ilyen szemetek.
-
paprobert
őstag
válasz
huskydog17 #47539 üzenetére
Elég idővel és pénzzel, talán.
2010 környékén a Mediatek egy szitokszó volt, a butatelefonok beszállítójaként, a gagyi belsős mobil OS-ükkel. Mostanában viszont egészen vállalható dolgokat hoznak.
Ha bárkit kérdezel akkoriban, hogy a MTK versenyképes lesz-e valaha, akkor a válasz határozott nem lett volna. -
huskydog17
addikt
Egy kis érdekesség:
Moore Threads MTT-S80 & S30 im Test - ComputerBase
Érdekes és egyben döbbenetes, hogy mennyire versenyképtelenek ezek a termékek az erős hardver ellenére. Talán itt látszik a legjobban, hogy a driver ugyanolyan kritikus tényező, mint a hardver design. A jelenlegi csúcs MTT, az S80 csak IGP-kkel tud versenyezni, de még egy sima mezei GTX 1650 is háromszor gyorsabb nála.
Szerintetek a Moore Threads fog valaha is a jövőben versenyképes VGA-t kínálni? Én kezdek benne kételkedni az eredmények láttán. Ők jó optimalizálásnak tekintik azt, hogy a csúcs S80-as VGA a Ryzen 5 8600G IGP tempóját hozza. Ez inkább egy vicc. Arról ne is beszéljünk, hogy a DX12-t nem is ismeri.
-
CoolMan
MODERÁTOR
Uraim!
Takarítottam. Aki folytatja annak alapból három nap pihenő a jutalma!
-
#36531588
törölt tag
"és csakiskizárólag APU-k lesznek" - pardon, csakiskizárólag AMD apu-k lesznek - ugye Abu minden feltétel, józan ész és egyebek nélkül felült az amd apu vonatra, hiszen AMD volt, ellenkező esetben csak a gáncsolás és negatív kritika lett volna.
Geforce Now és Google Stadia? Na melyik maradt meg?
Pedig a Geforce Now "életképtelen volt" a Stadia nagy számú szerverei miatt.
[link]
Hasonló téma a Microsoft és az Intel kooperáció [link] mégiscsak jól jöhet az az intel bérgyártó kapacitás, na ki emlékszik a véleményére Gelsinger bérgyártói ambícióival kapcsolatban?
Spoiler: Ha Gelsinger olvassa lehet aznap lemond.
-
válasz
Raggie #47516 üzenetére
Pedig nem kell ebben kételkedni, "fű-fa", rengeteg cég (a kicsitől az egészen nagyokig) vett most AI cuccot... azért ekkora az ugrás.
Azért van most ekkora ugrás a korábbiakhoz képest, mert a ChatGPT és hasonlók előtte nem voltak képben.
Most viszont mindenki meglátta benne a "fantáziát". -
Egon
nagyúr
válasz
huskydog17 #47503 üzenetére
10 vagy 15 éve jósolta Abu, hogy pár éven belül eltűnnek a dGPU-k, és csakiskizárólag APU-k lesznek? Hogy bejött ez a jóslat is...
-
Raggie
őstag
válasz
FollowTheORI #47515 üzenetére
Értem én, de egyből mégegyszer annyi forgalmat jelentett ez nekik, mint amit minden mással évtizedeken át építgetve csinálnak?
Valahogy kétlem, hogy csak ez volna mögötte. -
-
Busterftw
nagyúr
-
huskydog17
addikt
válasz
huskydog17 #47508 üzenetére
Kiegészítés:
A CB is csinált tesztet a játékhoz
AMD-nek itt meglehetősen jelentős a lemaradása, a csúcs Radeon csak az RTX 4070 Super-rel tud lépést tartani, a 4080-at nem tudja megközelíteni. A frame pacing szintén sokkal rosszabb AMD kártyákon, mint a zöldeken. VRAM-ból elegendő 8 GB 1080p esetén, a fölötti felbontásnál 10 GB elegendő.
Az Intel kártyák teljesítménye is katasztrofális. -
Alogonomus
őstag
Mindent megpróbál már az Intel a számok kozmetikázása érdekében.
-
huskydog17
addikt
Skull and Bones - PCGH Benchmark
A sebesség nincs gond, ami nem meglepő, hiszen egy nagyon régi Anvil motort használ.
-
Alogonomus
őstag
Bár jelenleg éppen botladozik Németország gazdasága, de ez a tiltás így is érzékenyen érintheti az Intel üzleti eredményeit, ha nem tudja sürgősen valahogy a német bírákat véleményét megváltoztatni.
-
huskydog17
addikt
Suicide Squad: Kill The Justice League - PS5/Xbox Series X|S/PC/Steam Deck - DF Tech Review
Csak a szokásos stutterfest, amit a stutter engine 4-től megszokhattunk, még szerencse, hogy ez a játék sem érdekel engem.
-
PuMbA
titán
válasz
huskydog17 #47503 üzenetére
Az IGP-s játék nem létezett és sose fog létezni. Az ár / érték aránya egyszerűen rossz. Anno volt nekem AMD A8-7600 APU, mert akkor még bizakodó voltam, de azóta tudom, hogy ez csak parasztvakítás. Ezt tovább erősítik a mostani tesztek.
-
huskydog17
addikt
Ryzen 8700G tesztek:
Ezekből tökéletesen látszik, hogy az IGP játékteljesítményre vonatkozó ígéret az AMD részéről finoman fogalmazva is túlságosan is optimista volt. Az AMD azt ígérte, hogy átlagosan a GTX 1650 szintjét fogja hozni a 8700G. A valóság az, hogy azt meg sem tudja közelíteni, az RX 6500 XT pedig kb. duplázza a tempót.
Játékhoz amúgy is értelmetlen ez az APU, mert túl sok butítást kapott a rendes AM5-ös CPU-khoz képest.* HTPC-hez meg sokkal olcsóbb CPU is tökéletes, oda egy Intel IGP is jó. A 8700G 100 dolláros felára túl sok, emiatt a 8600G értelmesebb választás.*A PCI-E és cache csonkítások már túl sok volt a sebességnek, de nem csoda, hogy így meg van vágva, hiszen ezek már két éves laptop chipek, 2 év után jöttek le laptop szférából az asztaliba.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- gban: Ingyen kellene, de tegnapra
- Túra és kirándulás topic
- Vezetékes FEJhallgatók
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Android alkalmazások - szoftver kibeszélő topik
- Először égett le egy újságnál a GeForce RTX 5090
- Google Pixel topik
- Androidos tablet topic
- Elemlámpa, zseblámpa
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- További aktív témák...
- Akció! Sérült! Corsair Icue 5000X RGB Számítógépház! Olvass leírást!
- Apple iPhone 13 / 128GB / Gyárifüggetlen / 12Hó Garancia / 87% akku
- GYÖNYÖRŰ iPhone 11 64GB Red -1 ÉV GARANCIA - Kártyafüggetlen, MS2190, 100% Akkumulátor
- Targus - USB-C Dual HDMI 4K HUB - 2 x HDMI (120Hz)
- Új és újszerű 13"-14" Gamer, ultrabook, üzleti készülékek nagyon kedvező alkalmi áron Garanciával!
Állásajánlatok
Cég: FOTC
Város: Budapest