Hirdetés
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- WhrlpoolMind: Búcsú a HD3870-től
- MaxxDamage: Vizes Laptop Hűtés? Lehetséges? Igen!
- GoodSpeed: Aquaphor Modern víztisztító
- Oldman2: A KOReader ebook olvasó program
- Klaus Duran: Nem csajos Samsung Z Flip
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
keIdor #33798 üzenetére
Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.
-
Abu85
HÁZIGAZDA
Mit teszel rá? A GDDR5 rendkívül sokat fogyaszt, a GDDR6 pedig túl drága.
Az Xbox One a textúrákat a host visible flaggel ellátott memóriában tárolja. A GPU egyszerűen csak kiolvassa és kész. Az adat egyébként nem csak textúra, hanem rengeteg puffer is. Ez a probléma a PC-vel, hogy oda streamelni kell a textúrát is a host visible memóriából, és ezen a ponton vesztesz el egy rakás hatékonyságot, mert nincs szükséged arra a rakás allokációra, hanem azokból kell az allokációk egy része. De nem tudod csak úgy ezeket beolvasni, így pedig másolgatni kell a teljes allokációt. Effektíve költesz rá ~8 GB-nyi memóriát, miközben a valóban fontos adat igazából ebből ~3 GB csak, de nem tudod elérni, hogy csak ezt másolja be a hardver, muszáj hozni a szükségtelen adatokat is.
-
Loha
veterán
"32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum."
Pontosan ezt mondtam, hogy nem az a baj hogy kevés, hanem az hogy drága."Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz?"
Nem teszel rá HBM-et, mert se a fogyasztással, se a sávszélességgel nem lesz gond, viszont a vásárlók árérzékenyek és szeretik a sok GB-ot.A 8GB konzolok a PC-s High textúrákat (~3GB) használják, míg a 12GB RAMmal felszerelt Xbox One X meg a PC-s Very High (~6GB) textúrákat. Ha a RotTR 1,2 GB-tal ellenne mint ahogy állítod, nem kellene hozzá az Xbox One X.
-
Abu85
HÁZIGAZDA
32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum. Emellett ehhez 4096 bites busz kell. Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz? Oda reálisan egy ~40 dolláros 4 GB-os stack az ideális.
Ha jól megírják a programokat, akkor 4 GB is bőven elég lenne, de a legtöbb fejlesztő, csak bevágja a DX12 RSL-t, vagy a Vulkan VMA-t. Ezek megfelelő háttérmunka nélkül csak működnek, de borzasztóan pazarolnak. Szóval messze nem az a baj, hogy nem lehetne megírni jól a programokat, hanem az, hogy nem írják meg. Félelmetes az, hogy a Rise of the Tomb Raider Xbox One X-en 1,2 GB-tal elvan. Ennyi device_local flaggel ellátott memóriát használ GPU. PC-n ugyanez 5-6 GB közötti. Eközben ugyanazt éri el, csak nagyságrendekkel szarabb az allokációk kezelése.
A HBM már csak a GDDR5-nél drágább. A GDDR5X-nél és a GDDR6-nál már olcsóbb. Jóval kevesebb lapka kell a megfelelő sávszél eléréséhez.
-
Loha
veterán
válasz
namaste #33791 üzenetére
"Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen."
Szerintem kifejezetten korrekt dolog az NV-tól, hogy nem sumákolják el a GPU-k belső kódneveit, így a hozzáértő vásárlók pontosan tudhatják, hogy mit vesznek.
Abu85: "A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé."
A Quadro GV100 -on lévő 32GB HBM2 kevés?
SZVSZ játékra 8GB VRAM bőségesen elég lesz a következő konzolgenerációik (~2020), vagy akár tovább is. Attól függ mennyi RAMot kapnak az új konzolok.
A HBM-el az a gond, hogy nagyon megdrágítja a játékos kártyákat, miközben minimálisak az előnyei.
-
Abu85
HÁZIGAZDA
válasz
keIdor #33792 üzenetére
Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.
A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.
-
namaste
tag
válasz
keIdor #33731 üzenetére
Eltolódtak a kategóriák, de nem a kódnév számít, hanem a teljesítmény. Számít mit kínál a konkurencia, mindig egymáshoz igazodnak. Ha a GF104 felvette volna a versenyt a HD 5870-nel, akkor az lett volna a GTX 480.
Fermiből nem volt GF102, Maxwellből se volt GM202. Kepler, Pascal, Volta csúcs GPU-k nem jöttek ki játékosoknak, csak a pro felhasználóknak. (Igaz, nincs Volta játékos kártya.)
Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen.
(#33739) TTomax
A HPC és a gépi tanulás is vágott GPU-t kap, ráadásul prémium árat fizetnek érte. -
Loha
veterán
Multiplatform AAA játékoknál az eladások kb. 80%-a olyan platformokból származik, amikben nincs PCIe busz a GPU és a CPU között, és nem a leggyengébb láncszemhez igazítják a játékok fejlesztését, hanem a legtöbb bevételt hozó platformhoz, ami most a PS4.
Nem fogják az eladásaik 20%-a miatt lebutítani az összes többit.
Ha PC-re túl sok meló lenne portolni a PCIe busz miatt, akkor egyszerűen ki sem adják, és kész.
Az előző konzolgeneráció végén, ahol az elsődleges célplatform a Xbox 360 volt, több multiplatform AAA játék már meg sem jelent PS3-ra, mert túl sok lett volna vele a meló a PS3 nagyon eltérő felépítése miatt.
-
Loha
veterán
válasz
Carlos Padre #33784 üzenetére
Úgy van ahogy írod, de a PS4 exkluzívok 10 milliós eladásait nem azért említettem, hogy konzol vs. PC vitát indítsak, hanem aki nem tudná mennyi az a 30 millió eladott PUBG Steamen, legyen mihez viszonyítania...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33786 üzenetére
GPGPU felé azért mennek most, mert az mindenkinél van. Tehát ha írnak egy GPGPU-culling megoldást, akkor az kompatibilis az összes konzoltól kezdve, az összes compute shadert támogató GPU-n át, az összes compute shadert támogató IGP-ig. Egy irtó univerzális megoldás multiplatform szinten, még akkor is, ha van nála jobb. Emellett fejleszthető is. Egyszer megírod, és a "hovatovábbal" ráérsz majd két év múlva foglalkozni. Addig optimalizálod, beépíted a subgroup/wave intrinsics függvényeket, kihelyezed asszinkron computera. És ezektől még a módszer univerzális jellege megmarad.
Ha nem egyezik meg a piac, és mindenki lezárja magát a saját linkjére, akkor eleve megszűnik a gyártók keverése. Nem is tudsz majd VGA-t venni. Megkapod a GPU-t a CPU-val közös tokozásban. Az meg tökmindegy, hogy háromféle link van. A program oldaláról ezzel nem kell különösebben foglalkozni. A leglassabb sebessége is messze több, mint amire ma képes a PCI Express, de még a készülő 5.0-t is felülmúlja, és akkor ezek is gyorsulnak a jövőben.
Oké most ez teoretikus lesz. Tehát amerre megy a Microsoft, és amilyen jól működik a texel shading, én egyáltalán nem tartom kizártnak, hogy a PCI Express és a gyártók külön linkjei jól el lesznek egymás mellett. Legalább az asztali szinten. Mobilban nem, ott túl kicsi a hely, de asztalon simán meg lehet csinálni azt, hogy veszel egy Intel vagy AMD procit, ahhoz jár ugye a GPU a tokozáson, és az már egy komplett rendszer. De teszem azt egy texel shading leképezőt használó játéknál az árnyalási fázis függetleníthető a raszterizálástól, tehát azt szépen szétszedi a program, és a fő GPU-d marad a tokozásban, míg az árnyalásra befogsz egy VGA-t a PCI Express porton, de akár befoghatsz 20-at is. Maga a texel shading marha jól skálázódik. Ugyanígy a sugárkövetés. Az is egy nagyon jól függetleníthető feladat. Nem kell azt azon a GPU-n elvégezni, ami éppen a képet rakja ki a kijelzőre, és ennek a skálázódása is igen baráti. És itt lehet igazából keverni a gyártókat is. Láthatod az AotS-t, az is támogat multi-GPU-t AMD+NV rendszeren, tehát technikailag ennek nincs akadálya. Az más kérdés, hogy üzletpolitikailag x gyártó mondhatja azt, hogy az én piacomon y gyártó nem szívesen látott szereplő. De tényleg, a szoftver oldaláról sok dolgot lehet csinálni, még akár nem is jelent ez jelentős többletmunkát.
-
Petykemano
veterán
De ha a GPGPU-nél oda kell figyelni arra, hogy van-e egyáltalán IGP, vagy hogy az milyen teljesítményű, ezért nem lehet áltanosan használni, akkor megette a fene. Senki nem fog erre programozni.
De akkor ugyanez érvényes arra is, ha az intel, az nvidia vagy az AMD a saját koherens linkjével dolgozik. Mennyi lehet a piacon azoknak a készülékeknek az aránya, ahol a CPU és a ténylegesen használt dGPU gyártója ugyanaz ÉS teljesítmény szempontjából egyáltalán megéri ezzel szórakozni? Persze más, ha 1-2 éven belül az intel szignifikáns (értsd: konzolokhoz hasonló számosságú) piaci részesedést ér el saját linkkkel összekötött GPU konstrukcióval. Ez mennyire reális?
Mennyire reális, hogy előbb megvalósul, mint hogy megérkezzen a PCIe sávszéleség bővítés (4-5) ÉS közben nem veszik el a CPU gyártók és közben nem lesznek más CPU gyártók (arm)
Oda akarok kilyukadni, hogy persze világos, hogy ennek a PCIe sávszélesség-problémának egy lehetséges megoldása az, ha az AMD és az Intel saját linket használ PCIe helyett és közbe még mellékesen ki is pöckölhetik az nvidiát, de ennek csak akkor lesz értelme, ha piaci részesedést is szereznek rá, meg programozni is fognak így.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33781 üzenetére
De belehet, csak ott kellene alkalmazni valamilyen heterogén több GPU-s menedzsmentet. És ott nincs mihez kezdeni a rendszerrel, ahol nincs IGP, vagy le van tiltva.
A primitive shadert még be sem építették egy API-ba sem. Annak egy igen leegyszerűsített modelljét alkalmazza például az id tech 6.5. Az se rossz egyébként, alapvetően a primitive shaderrel használható pipeline a culling szempontjából nem tud sokkal többet, mint az id tech 6.5-nél az a modell, hogy az input assembler után rögtön jön egy compute shader lépcső még mielőtt egy csomó nem látható geometria eljutna a vertex shaderbe vagy ezen túlra. A primitive shader elegánsabban kezeli a problémát. Nem kell csúnya compute kódokat írni a működéshez.
(#33782) Loha: Ha elkezdenék butítani a játékmenetet, akkor több munka lenne az egész játék áttervezésével, mintha eleve úgy dolgoznák ki az egészet, hogy minden platform leggyengébb pontjaihoz igazítsák a dizájnt.
(#33783) Raymond: Költői volt a kérdés. Nyilván tudja mindenki, hogy nem igazán fér bele a szűkös időkeretbe a CPU-GPU-CPU-GPU round-trip.
-
Loha
veterán
"És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába?"
Például lebutítod a játékot PC-re, amit simán megtennének, mert a PC sokadik fontosságú platform, a PC (vagy PCIe) miatt viszont nem fognak lebutítani semmit PS4-re.Ne keverd már bele a PC Gamingbe a GPGPU -t, meg HPC-t, ahol jóval nagyobb adathalmazokkal dolgoznak mint az egy VGA-n megtalálható VRAM mennyiség, ott ezért szükség is van a gyorsabb buszokra.
-
Abu85
HÁZIGAZDA
És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába? Meg sem fog mozdulni. Nem elég gyors az összeköttetés, hogy működjön. PS4-en persze működni fog, de akkor már nem multiplatform játékról van szó. Szóval PS4-en is csak az exkluzív játékok mennek el addig, hogy erősen terheljék a CPU és az IGP összeköttetését, illetve hogy használják a megosztott memóriát.
Azt értsd meg, hogy minden gyártó megcsinálta a maga kis memóriakoherens és egyben igen gyors összeköttetését. Az Intel az UPI-t, az AMD a GMI-t, az NV az NVLinket. Nem azért, mert volt egy rakás felesleges mérnöki kapacitásuk, hanem mert kellett.
-
Loha
veterán
válasz
Puma K #33776 üzenetére
Köszi a javítást.
core i7: 2016-ban a GTX 1080 -nal gyakorlatilag hibahatáron belül volt a PCIe 2.0 a PCIe 3.0-lához képest: NVIDIA GeForce GTX 1080 PCI-Express Scaling
TTomax, Abu85: Az összes AAA multiplatform játéknál a sima PS4 továbbra is az elsődleges célplatform (az eladások miatt), ami nem használ PCIe buszt a GPU és a CPU között...
-
Abu85
HÁZIGAZDA
CPU visszaírásra. Számos olyan technika van ma, ami nem azért alakult ki, mert ez a jó, hanem azért, mert szűk a CPU és a GPU közötti kapcsolat. Például a GPGPU-culling nem azért terjed a Frostbite, az id tech, a Dunia, stb. motorokban, mert annyira szuper minden kivágási munkát a GPU-ra rátolni. Bizonyos feladatok jobban illenek a CPU-ra, de hiába gyorsabb ezekben, ha közben a pipeline egyirányú, tehát a visszaírást mindenképpen el kell felejteni. Ebben az esetben az dönt, hogy összességében mi a gyorsabb. Ha egy adott feladatban mindent a CPU csinál, vagy ha mindent a GPU. Az teljesen mindegy, hogy a hibrid modell sokkal jobb lenne, mert kevés hozzá a PCI Express. A GPGPU-s irányokkal sem lépünk igazán előre, csak nem a bal kezünket harapdáljuk, hanem a jobbat. Utóbbi pedig picit jobb, van aszinkron compute lehetőség, tehát ez még fejleszthető. De következő körben már tényleg nincs hova lépni. Muszáj magát az alapproblémát kezelni, vagyis a szűkös buszt. És ezen a primitive shader sem igazán segít. Az is csak egy 2000-es években kialakított rendszert cserél jóval modernebbre, nyersz vele maximum egy-két évet, de nem fogja önmaga megoldani a szűk busz problémáját.
-
TTomax
félisten
Értsd márt meg hogy ez nem azért van mert elég a PCI-E bus,hanem azért mert a programok igy vannak megirva,de sokkal többet ki lehetne hozni ha nem így lennének.
PUBG,ugyan....az a 30millió user nem ennyi gépet jelent vagy felhasználót söt egyik re sem igaz. Míg a 10 millás PS4 cím közel valósan ennyi gépet,és usert jelent.Azért mert egy kínai internetkávázóban naponta azonos gépröl loginol 6-10 emberke,míg PS4nél ez az opció nem játszik.Ráadásul az eladási szám is csalóka,hiszen millió-számra vannak a cheaterek PC-n akik akár már az 5. 10. accountjuknál tartanak, vagy bannolva vannak mert pénzt próbálnak farmolni...Mit gondolsz miért lehet a mai napig az eladási listák csúcsán?Ne nagyon támaszkodj ezekre a számokra,félrevezetőék.
-
Puma K
nagyúr
Nem jó az utolsó link.
De ez már jó: PC had more “good” exclusive & multi-platform games than any console in 2017
-
Loha
veterán
válasz
TTomax #33769 üzenetére
Mire használnád jobban a PCIe buszt?
PCIe 2.0 -án is 4k (valódi) 60fps-el futnak (csúcs VGA-kon) az elsődlegesen a PS4 APU-jára fejlesztett AAA játékok, úgy hogy nem a PCIe busz a szűk keresztmetszet, hanem a GPU...PUBG -ből pl. több mint 30 milliót eladtak Steamen, miközben a PS4 -en a legjobban fogyó exkluzívok 10 millió körül járnak...
Sőt így is lehet nézni a dolgokat:
PC had more “good” exclusive & multi-platform games than any console in 2017Mielőtt nagyon belemennél ebbe a megsarcolós témába:
NV vonalon egy GTX 780(Ti)/970/1060(3GB) -al a PS4 grafikai szintjének megfelelő beállításokon tudod tolni a multiplatform játékokat 30fps helyett 60fps-el... -
Crytek
nagyúr
-
Abu85
HÁZIGAZDA
válasz
TTomax #33769 üzenetére
Nem pont a VGA a limit. Leginkább az API. Volt régebben egy előadás, hogy a DX12 és a Vulkan API-val igencsak taccsra lehet vágni a PCI Express 3.0 x16-ot is. Egyszerűen a legacy API-kban máshol voltak a hardveres korlátok, és sok dolog nem jött elő, amelyek az új API-kkal problémásak. És nem kell ehhez szupergyors VGA. Szóval valóban, amit most látunk az leginkább egy kényszerű tényező. Azért nem érezzük a PCI Express-t limitnek, mert a programok úgy vannak elkészítve, illetve effektíve butítva, hogy ne legyen limit, mivel a user nem tud vele mit kezdeni.
-
_drk
addikt
válasz
TTomax #33769 üzenetére
Meg az Nvidia-nak is kell az AMD, hogy szépen belőhesse az árakat. Mondjuk a középkategóriát 100ezer huf fölé.
Egyedül a piacon nem hiszem, hogy ilyen szépen tudná árulni a kártyáit, max a Prémium maradna ott ahol, meg a totál budget kategória.Ami vicces, hogy mindenki szidja az AMD-t miért szerencsétlenek, hát ők örülnének a legjobban ha tudnának prémium kategóriát fejleszteni. Ami még viccesebb, hogy a RX480-al Full HD-n freesync-el igazából ami kell a gamernek az ott is van. 4k még jelenleg az Nvidia-nak se megy, majd max most meglebegtetik a 1180-at hogy ez már elég lesz nagyjából. Mikor a konzolok ha csalnak is, de ott van már élvezhető "4k" tartalom.
-
TTomax
félisten
Ne cseréljük fel az okot és az okozatot.Azért mert csak annyira van használva a PCI-E busz amennyire attól lehetne azt még jobban is,persze hogy nem készül olyan vga aminek ne lenne elég hiszen az pazarlás lenne,de készülhetne ha adott lenne a gyorsabb bus.
A PC gaming pedig mindent tesz csak nem növekszik,az egy dolog hogy a profit magasabb és jobban jövedelmez csakhogy ez egy helytelen irány merthogy olcsóbbnak kellene lennie a komponenseknek ahhoz hogy a felhasználó tábor növekedjen most van a sarcolás ideje,meg még lesz is egy pár évig,nem véletlen a konzolok térnyerése,azok a konzolok ahol most már magán a konzolon is keresnek nem úgy mint eddig.Az irány nem jó,persze a pc gaming nem hal ki,csak átalakul...egy szűk réteg marad csak akik hajlandóak kifizetni a nagy semmit,és gépet épitenek de ha azok is ráunnak...meg marad majd a nagy többség az egybe épített cuccokkal,merthogy relatív az lesz az olcsó.
Az AMD nem fog meghalni,ne mossuk össze a pc gaminget az AMD halálával.Az Intel lesz a legelső aki igy vagy ugy de életben tartja az AMDt.
-
cyberkind
félisten
válasz
Carlos Padre #33767 üzenetére
Ami a legtöbbet hozza nekik, és ezt veszítenék el a PCI-E kukázásával?
-
-
Loha
veterán
válasz
TTomax #33759 üzenetére
A PCIe pont az igényeket követi, ezért tartunk még mindig a 3.0 -nál, mert nincs igény jobbra, kb. sehol nem korlátozó tényező a PCIe busz PC-n.
A PC Gaminget kb. 10 éve sokan temetik az AMD-vel egyetemben, ehhez képest minden eltelt évvel csak nagyobbra duzzad és egyre meghatározóbb lesz mint játékplatform. Az NV, meg a játékos kiegészítőket gyártó cégek temetés helyett, szarrá keresik magukat rajta...
-
TTomax
félisten
EZ a VS topic is igazából okafogyottá vált... nincs itt már VS max egy-két user véleménye között mert ez már a múlté...
-
TTomax
félisten
Én ezért irtom már régóta hogy a dvga piacon az AMD és az nVidia simán csak kartellezik.Olyan szépen egymás után lépték meg ezeket a dolgokat hogy öröm volt nézni.Én fanyalogtam mind a 7970,mint a gtx680 teszt alatt,mert premium áron adtak egy 300mm2 körüli gput egy 256bites nyákon ami soha nem volt premium.De mindkét teszt konkluziója az volt a PH!n hogy hát gyorsabb,meg kevesebbet fogyaszt,és még picivel olcsóbb mint az előző flagship volt..."ajánlott",az utolsó igen szép lépés a G80 volt,nem is fogunk többet ilyesmit látni mert rájöttek többet is lehet keresni...
-
TTomax
félisten
válasz
keIdor #33756 üzenetére
Sajnos az AMD sem jobb mert hiába socket kompatibilitás ha az új ficsörök meg nem fognak menni,akkor hagyhatod a régebbi cput is benne nem igaz?Egyébként az is benne van a pakliban,hogy az alaplapgyártók is nagy ivben tesznek a dologra,ugyanis biost frissíteni simán lehet usbröl cpu nélkül is,de eddig csak az asus építette be,és csak a premium lapokba,ezt pedig alapból minden lapnak tudnia kellene.
-
Abu85
HÁZIGAZDA
válasz
keIdor #33756 üzenetére
Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.
Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.
Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.
-
TTomax
félisten
A PCI-E szabványnak már régen követnie kellett volna az igényeket.Az már régen látható volt hogy a 4-5évenkénti duplázás marhára nem lesz elég.Az intelt nem érdekelte,ők amúgy is szeretnek vele spórolni,az amd még úgy se,megoldják házon belül és pont ez a baj,hiszen így kis is zárnak szépen mindenféle más céget,így új belépőre már elviekben sem lesz lehetőség.Ha csak nem történik valami drasztikus változás a jelenlegi irány felé haladva a pc gaming ki lesz nyírva,nem törvényszerű de az irány erre mutat.Mindegy ki kezdte és ki nem,mindhárom cég orrba szájba kartellezik és saját kis pecsenyéjét sütögeti.A szememben egyik sem jobba másiknál,csak a pénzünk érdekli amivel nem is lenne gond,csak valahogy amit mostanában nyújtanak érte,na az nem koser.Nem véletlen van jelentős vándorlás a konzolok felé.
-
gV
őstag
válasz
keIdor #33731 üzenetére
nagy kópé az nV, de ebben az esetben csak tanítvány, a mestert amdnek hívják: [link]
Nos, annak, hogy míg az AMD látványosan lépett árszintet, az nVidia suttyomban tette meg ugyanezt. Bár hoztak 30% előrelépést ár / teljesítményben, a GTX 680-ban nem az eddig megszokott 500mm2 feletti GPU-monstrum dolgozott, hanem egy, az AMD által sokat hangoztatott, de elég gyorsan hátrahagyott 300 mm2 alatti chip. Ezt a lépést pedig az tette lehetővé, hogy az AMD a saját 350 mm2-es GPU-jára épülő kártyát beárazta a szokásos 350-400 USD helyett 550-re. Jajj, de jó...
Ugyanez volt a célja az AMD-nek a GCN architektúrával. A HD 7970 indulásként nem is sikerült rosszul, és a driverek folyamatos javulásával később (amikor már túl sokat nem számított) el is hagyta a GTX 680-at, a szoftveres támogatás javulása mellett a 3 GB memória okán is. Egyetlen bajom van a kártyával, ez pedig az ára, ami rövid távon biztos jót tett az AMD-nek, viszont ezzel a húzással elég komoly kárt okoztak a "jó árú VGA" imidzsnek, és bár ezt számokkal kimutatni szinte lehetetlen, szerintem hosszú távon ez pénzben is lefelé billentette a mérleget. Ja, és ők lőttek először abban a "csatában", ami a VGA-k árának drasztikus emelkedéséhez vezetett.
-
Abu85
HÁZIGAZDA
válasz
TTomax #33752 üzenetére
Nem tudod a PC-t úgy fejleszteni, hogy a CPU-k 10+ maggal rendelkeznek, a GPU-k 10+ TFLOPS-osak, a memóriák elérése a CPU oldaláról 80, míg a GPU oldaláról 500 GB/s is lehet, és eközben a PCI Expressen keresztül egy nem memóriakoherens kapcsolat érvényesül 16 GB/s-mal. Még a PCI Express 4.0 32 GB/s-ja is kevés lesz. Ahhoz, hogy értékelhető mértékben gyorsíts mindenképpen radikális lépés kell. Egy memóriakoherens, legalább 100 GB/s-os kapcsolat. Az már nem feltétlenül szükséges, hogy a GPU beköltözzön a CPU mellé. Ez csak abból keletkezik, hogy az Intel, az AMD és az NV nem tud megegyezni egy memóriakoherens és nagyon gyors szabványról.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
cyberkind #33748 üzenetére
Én abszolút emellett állok, de előbb azért meg kellene egyezni, hogy mi legyen helyette. Az nem jó, hogy az Intel UPI-t akar, míg az AMD GMI-t. Persze az Intel GPU tudja támogatni az UPI-t, az AMD GPU a GMI-t, de mi van a keveréssel? Egy GMI-s GPU nem működik UPI-s procival és fordítva.
-
Abu85
HÁZIGAZDA
válasz
TTomax #33746 üzenetére
Igazából arrafelé tart.
Ez valóban elkészült prototípus szinten. Most azt csinálják, hogy elkészüljön kiadható termékként. Előbb szerver, majd asztali és mobil vonalra. Az Intel dettó ugyanilyenen dolgozik. Nem a Kaby Lake-G-vel, hanem a saját lapkáival. A Kaby Lake-G csak egy kényszertermék.Szóval az Intel és az AMD hosszabb távú tervei nem változtak. Szépen a tokozásba egy-két erős CPU, majd egy erős GPU, és viszlát PCI Express. Ha tetszik, ha nem ez lesz. A Windows 10 1803 is tartalmaz olyan kísérleti funkciókat, ami ilyen hardvert igényel. Például a Tiled Resources TIER_4.
-
TTomax
félisten
válasz
keIdor #33744 üzenetére
Igen sajnos ez a várható forgatókönyv,és az a baj ezzel hogy itt fórumon is sokan meg fogják védeni hogy de hát gyorsabb mint a 1080Ti egy picivel,meg 50 dolcsival olcsóbb is és még hűvösebb is,bestbuy...és amennyire el vannak szabadulva a vga árak nem is lesz nehéz ismét extra profitot termelni,és még befolyásosabb céggé válni.
Magára találhatna az AMD,nem kell nekünk hitech hbm2,meg csillámpor és tündérmese.Gyors hűvös és jól tuningolható kártyát kérünk jó olcsón nem ficsörlistát aminek a 90% papíron mutat jól,de ehh álmodozok csak nem lesz ebből semmi,nem arrafelé tart az AMD,már évekkel ezelőtt kijelentették az (RV770) hogy nem akarnak versenyezni nem profitál annyira mint gondolták.
-
TTomax
félisten
válasz
olymind1 #33743 üzenetére
Na de az is vicc,hogy már előre pontosan tudta az nVidia hogy mit tehet meg és mit nem.Már vagy 3-4 gen óta pontosan minden oda van belőve ahová akarják,és nem igazán kell nekik az árakon vágni,csak abban az esetben ha kihoztak egy új gent.Nincs már az mint régen,hogy hopp itt egy G80,vagy RV770 és jó odavág a másik oldalnak.A versenynek csak a látszata van meg,és ez az ami nagyon bosszant,ezért kritizálom az AMDt,mert a versenyhez hiányoznak.Persze-persze lehet mondani hogy igenis van verseny ott a Polaris,csakhogy ahogy írtad is a felsőbb kategóriák kihatással vannak az árra,illetve a bányászláz sincs jó hatással a vga piacra.Nincs egyébként ezzel semmi gond,csak a rövidtávú gondolkodás ki fogja nyírni a piacot,most várszemet kapott az nV hogy 599-699dolcsiért is ment a 1080ref,vették a népek,de egyszer majd csak eljön az idő amikor a gamerek a középső ujjukat fogják mutatni,mert az nvidia lassan már az applet is lehagyja pofátlanság terén.
-
keIdor
titán
válasz
cyberkind #33741 üzenetére
Marad a forgatókönyv, régi középkategória eladása high-end áron, annak is álcázva, mivel a laikusnak úgysem tűnik fel, ő csak azt nézi, hogy GTX-xx80 a neve. Utána 1 év múlva mehet ki a nagy Titan-nak, a vágott verzió meg GTX-xx80Ti néven.
Egy generáció, két GPU eladása csúcskat. áron. Bevált recept, 2012 óta sikeres.
-
olymind1
senior tag
válasz
TTomax #33739 üzenetére
A hangsúly talán a megengedhette szón van, ha pl a Vega olyan nagy durranás lett volna hogy találomra mondom: Vega56 lehagyná az 1080 TI-t, akkor az AMD is visszatarthatta volna a 64-et, és adhatott volna ki akár Vega48-at is.
Meg lehet hogy gyártásnál belekalkulálták hogy kevés lesz a fullos működő chip és a működőket félretették ínségesebb időkre / későbbre.
De az AMD picit jobban összekaphatná magát hogy legyen jó kis árverseny, mert mostanában úgy tűnik mintha mindig az NV mögött loholna (felső-csúcs kategóriára értve), mondom ezt úgy, hogy az utolsó GeForce-om egy GTX460 768 MB kártya volt.
Nekem úgy tűnik, ha felső kategóriában nincs árverseny akkor az (alsó-)középkategóriában is igencsak stagnálnak az árak.
Persze simán tévedhetek
-
TTomax
félisten
válasz
keIdor #33740 üzenetére
Pontosan,az árakon felfelé toltak,de a kategórián meg lefelé...ettöl lett szuper nyereséges az nVidia,ehhez kellett egy töketlen AMD,mert ha lett volna kompetetor akkor a vért is leizzadták volna,mint ahogy tették a keplerrel amikor le kellett hozni desktopra,mert nem volt még kész a maxwell.
-
TTomax
félisten
válasz
cyberkind #33738 üzenetére
De nem azt kell nézni,hanem hogy vágott-e a gpu vagy sem.A 980Ti,és a 1080Ti vágott,nem a teljes értékű gpu ment rájuk,gyakorlatilag a "selejtek" az 580ra meg a 780Tire viszont a teljes értékű gpuk kerültek.Tehát az nVidia még azt is megengedhette magának hogy vágott gpu tegyen az abszolút csúcs vgaira,ami elég arcpiritó.
-
keIdor
titán
Végre valaki erről is készít tartalmat.[link]
Szépen látszik, 3x drágább a x04-es GPU a GTX-460 óta. Jó nagy kópé az nVidia, szépen álcázzák a Kepler óta, a legtöbb embernek fel sem tűnik. -
Abu85
HÁZIGAZDA
válasz
keIdor #33729 üzenetére
Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.
Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.
-
#00137984
törölt tag
Assassins Creed Origins HDR módja igéretesebbnek tünik. Valahogy jobb engyensúlyt találtak a sőtét beltéri részek láthatósága és a vakitó napsűtés megjelenitése között. Sajnos jelenleg a PC-n az erősebb fehéret és a fényerő kiemelését tartják most a fontosabbnak, mert a nővényzet és az épületek árnyékolt része meg szinte fényárban úszik. Ezt egy kis jobb odafigyeléssel a játékprogramból lehetne kozmetikázni, amig a végleges megoldás megérkezik.
-
Abu85
HÁZIGAZDA
válasz
keIdor #33724 üzenetére
Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg. -
#00137984
törölt tag
Szerintem nem kell elsietni a 4K HDR támogatást a PC Gaming termékvonalon. Far Cry 5 játékban már van 4K HDR támogatás, de látványvilágra nem hozza a filmekben látható HDR minőséget. Ilyen megvalósitásban meg inkább hanyagolhatnák még jó hosszú ideig, amig a videókártyák teljesitménye és a kijelzőn látható HDR kép látványa a videofil beállitottságú játékosoknak is meggyőző lesz. Én talán egy új generációs PS5-ben majd átélhetem ezt a HDR10 / Dolby Vision nyújtotta jóféle vizuális hatást játékokban is.
-
keIdor
titán
-
Abu85
HÁZIGAZDA
válasz
Televan74 #33721 üzenetére
Igen, csak a 4K-s HDR tévék nem a játékokhoz készültek. A tipikus HDR10/Dolby Vision pipeline nem veszi figyelembe, hogy a játékok esetében csak árt a utófeldolgozásnál a tone mapping. A játékba bekérhető az adott kijelző specifikációja, és annak megfelelő tartalmat lehet rá számolni, amivel kiüthető az utólagos tone mapping is. Ezzel lényegesen kisebb lesz a megjelenítés késleltetése, illetve a képminőség is jobb lesz. A normál tévék ezt a módot nem támogatják, mert nem a játékosoknak készültek.
Ez egyébként szerencsére szabványosítás alatt van, tehát később lesznek HDR Gaming kiegészítések, de ez még évek kérdése. Addig a Samsung által alkalmazott módszer az egyetlen megoldás. Mondjuk jó hír, hogy az Xbox One S és X is támogatja, tehát a jövőben akár a tévékben is megjelenhet. -
-
Abu85
HÁZIGAZDA
válasz
Televan74 #33719 üzenetére
Nem. Az újabb panelek már nem Full HD-sek. De van C27HG70, ami WQHD-s és HDR-es. Viszont még ez is majdnem 200 rongy, ugyanakkor nagy előnye, hogy támogatja a játék által számolt tone mapping megjelenítését, míg a legtöbb HDR-es kijelző nem igazán a játékosoknak készült, így a szabványos HDR futószalagot használják, ami extra tone mappinggal jár.
-
Televan74
nagyúr
-
Abu85
HÁZIGAZDA
Ezernyi oka lehet. Például a tévépiac VRR választása. A Samsung a HDMI-s FreeSync-et és a HDMI VRR-t, míg sokan az utóbbit választották. Mindkettőt csak Radeonnal lehet jelenleg használni. Az AMD-n kívül más gyártó vagy nem kínál támogatást, vagy nem is jelentették be azt.
A nemsokára még azért elég messze van, és nagyon sok régi VGA is megmarad a mostani palettából. A memóriagyártók annyira szétkartellezték magukat, hogy borzalmasan kevés az új szabványokhoz való memória. És nyilván nem a telefongyártók fogják ennek meginni a levét, hanem az olyan piacok, amelyek a memóriagyártóknak nem különösebben számítanak. Például a VGA-k.
-
Pipó
őstag
"Egyébként ha valaki AMD Radeont akar építeni"
Nem azért, de mi a fenének akar valaki pont most radeont építeni, amikor nemsokára itt az új nv széria, a régiek ára feleződik (mindkét gyártónál) és ezeken a kártyákon már nem is marad haszon. Az AMD pedig a fasorban sincs még az új szériájával, úgyhogy hosszú böjt lenne.
-
Abu85
HÁZIGAZDA
válasz
rumkola #33712 üzenetére
Nem teljesen. Ez úgy van, hogy itt igazából sok gyártó nincs, maximum sok dobozoló.
Az egyes gyártók vásárolnak maguknak jogot, hogy mely piacokra lehet a termékeiket elvinni. Ebből a szempontból például az ASRock és a Colorful, de még a Sapphire és a Zotac igényei is lényegtelenek, mert nem ők gyártják magát a terméket. Egyszerűen ezt megkapják a partnerüktől. A Sapphire és a Zotac a PC Partnertől, az ASRock és a Colorful pedig egy kimondhatatlan nevű (nem tudom a latin betűs jelzést) kínai üzemből. Na most ezek a valós gyártók szereznek jogot az egyes piacok ellátására az AMD-től és az NV-től. Az ASRock és a Colorful azért nincs itt, mert magának az ellátónak nincs joga nyugatra gyártani. Ha mondjuk ez a két cég mondjuk a TUL-lal vagy a Foxconnal gyártatna, akkor jöhetnének Európába, mert a Foxconn rendelkezik ilyen jogokkal. Azt egyébként nem tiltja senki, hogy az a kínai gyártó, aki az ASRocknak és a Colorfulnak gyárt, ne döntsön úgy, hogy szerez jogot a nyugati piac ellátására is. Nincs probléma belőle, ez egész csak pénz kérdése. Viszont maga a gyártó eziránt nem érdeklődik (nyilván az EU-ba eltérő minősítéseket kell szerezni, mint Kínába). Innentől kezdve az ASRock és a Colorful keze is meg van kötve, amíg nem mennek át egy olyan gyártóhoz, amelynek van joga ellátni a nyugati piacokat. Hiába kérik az AMD-t és az NV-t erre, ők a minősítések hiányában nem adhatnak engedélyt nekik. De ha ez megvan, akkor természetesen az AMD és az NV engedélyezi a szállítást ide is, innentől kezdve a dobozolás során már csak a megfelelő dobozokat és leírást kell biztosítani. Nyilván a nyugati piacnak angol/német/francia/stb. nyelvű leírások kellenek.
A másik lehetőség a szürkepiac. Ez már egy érdekesebb kérdés, mert ilyenkor gyakorlatilag EU-s engedélyek nélküli terméket hoznak be ide. Ez nem teljesen legális, de végeredményben mire valamiről kiderül, hogy az engedélyek nélkül nem forgalmazható, addigra a legtöbb bolt már eladta a készletet, tehát maga a piac ebből megél.Egyébként ha valaki AMD Radeont akar építeni szerintem leginkább a TUL-t érdemes megkérni rá. Sokkal drágább, mint a többi gyártópartner, de a gyártósoruk olyan, hogy minden piacra tudnak engedélyt kiállítani. A PC Partner se rossz, de ők igazából a saját leányvállalataikat szolgálják ki elsődlegesen, míg mondjuk a TUL egy OEM beszállító is, tehát effektíve mindenkit ugyanolyan szinten kezelnek, annak ellenére, hogy nekik is van saját márkájuk PowerColor névvel. Az NV-nél a Palit hasonló gyártó, mint az AMD-nél TUL, ők is tudnak mindenhova engedélyt kiállítani. Ők még relatíve olcsók is.
Azt egyébként el tudom képzelni, hogy az ASRock esetében a partnert is az AMD intézte, és gyakorlatilag direkt olyan gyártót választottak, akik csak Kínát célozzák. Ebben az esetben nyilván már előre tudható volt, hogy máshova nem is jönnek az ASRock VGA-i. Az persze nagyon meglepő lenne, hogy erről az ASRock esetleg nem tudott.
-
Kolbi_30
őstag
válasz
huskydog17 #33713 üzenetére
Szerintem is fölösleges egy 6. márka ugyan arra a termékre..
-
rumkola
nagyúr
válasz
huskydog17 #33711 üzenetére
Itt nem az AMD diktál, hanem a VGA gyártók /gondolom főleg az asus/ diktálnak az AMD-nek:
Nem akarunk még 1 konkurenciát EU/USA-ban. Ha lesz, akkor befejezzük a AMD PR-t.szerintem
-
huskydog17
addikt
Szubjektív vélemény:
Szerintem ez egy újabb ostoba döntés az AMD-től. A helyett, hogy engednék az ASRock-nak a versenyt és segítve ezzel a a készletek javulását, inkább saját magukkal szúrnak ki, mert ez olyan, mintha az AMD nem akarná tovább növelni a részesedést amcsi és európai piacon, márpedig rájuk férne mindenhol a piaci térnyerés. -
füles_
őstag
válasz
cskamacska #33706 üzenetére
A kérdés, hogy tényleg végeztek-e vele, vagy ugyanúgy folytatódik ez a folyamat név nélkül a színfalak mögött. Majd a Navinál meglátjuk.
-
Petykemano
veterán
válasz
cskamacska #33706 üzenetére
Mi az a GPP?
-
imi123
őstag
válasz
cskamacska #33706 üzenetére
Nem.
Csodálkoztam is hogy még nem cuppant rá a nagyérdemű. -
cskamacska
addikt
vótmá?
Pulling the Plug on GPP, Leaning into GeForce
"Gamers want the best GPU tech. GPP was about making sure gamers who want NVIDIA tech get NVIDIA tech.
With GPP, we asked our partners to brand their products in a way that would be crystal clear. The choice of GPU greatly defines a gaming platform. So, the GPU brand should be clearly transparent – no substitute GPUs hidden behind a pile of techno-jargon.
Most partners agreed. They own their brands and GPP didn’t change that. They decide how they want to convey their product promise to gamers. Still, today we are pulling the plug on GPP to avoid any distraction from the super exciting work we’re doing to bring amazing advances to PC gaming."
-
#00137984
törölt tag
RX 470 és ennek a GCN4 szériának az egyik csalódása a limitált teljesitmény volt. A szinte feleslegesen ráfejlesztett tranzisztorok termelték a hőt, de nem sok hasznát láttam. Fogyasztása és hőtermelése nem állt arányban a játékokban mutatott produkcióval. GTX 1060 3GB videókártyának volt a versenytársa, mert az ettől jobb videókártyák helyben hagyták. Mikor nagy nehezen ezeken is túltettem magam... A hőmérsékleteket visszafogtam az egyedi ventiprofilommal és egy új tágasabb házat is kapott a gép. Utána a multimédiás képességeiben is csalódtam. Az új UVD egysége 10bites HEVC támogatást kapott, és a 4K videólejátszás is lépett egy nagyot felfelé. HDR 12bit monitorokat meghajthatna ez az RX 470. Nálam ezeket a videókat úgyan nem játszotta le, vagy fekete képernyővel indult el a film hangja. Előtte az R9 380 kártyám némelyik 10bites FullHD videót igen jól lejátszotta, vagy igen ritkán egy zöld sáv takarta a kép egyik felét. GTX 1070 Ti videókártya ezeket a 10bites videókat 4K felbontásig hibátlanul megjeleniti. FullHD monitoron a 4K / 10bit videó is megjelenik, gondolom a GTX 1070 Ti vagy a lejátszó program tudja átalakitani a megfelelő felbontásra. Ez az AMD videókártyákkal nekem nem ment, ezért a jobb minőségű videókat jó ideig hanyagoltam.
-
füles_
őstag
válasz
keIdor #33703 üzenetére
Nem csak az, hogy magasabb lett a fogyasztás, hanem, hogy a 400-as szériánál sokkal több volt a nem ajánlott vagy a kevésbé ajánlott kártya. Például a Nitro marha kicsi hűtőbordát kapott a 400-as szériánál, ezáltal eléggé hangos volt, az 500-as szériában, meg kapott egy bazi nagy bordát, aminek köszönhetően az egyik leghalkabb kártya lett.
A feszültség az nem tudom, hogy alakult gyakorlatban, de ha jól emlékszem, akkor kapott újféle szenzorokat a Polaris 20/21, amelyekkel növelhető volt az órajel azonos feszültségértékek mellett az P10/11-hez viszonyítva (elméletben). -
füles_
őstag
válasz
keIdor #33698 üzenetére
Azért volt pár pici módosítás a lapkán belül, az órajel is kitolódott 50-100MHz-cel, de ezért szerintem is hülyeség volt nyitni egy új szériát. Az órajelet nem kellett volna megint az egekbe tolni, inkább meghagyhatták volna tuningpotenciálnak. Jöhettek volna 475/485 néven alacsony fogyasztással, és jó tuningpotenciállal. Bár úgy is mindegy lett volna a bányászláz miatt... Egyébként a partnerek nagyon sokat javítottak a hűtésen az 500-as szériában (lásd Asus Strix, Sapphire Nitro+).
-
huskydog17
addikt
A power mizéria kizárólag az AMD referencia kártyáját érintette, a custom modelleket már nem.
Rögtön? 10 hónap telt el a 400-as és 500-as széria között. Ezt nem mondanám azonnali átnevezésnek. Azzal egyet értek, hogy az 500-as széria egy baklövés volt, békén kellett volna hagyni a 400-as szériát.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- PROHARDVER! feedback: bugok, problémák, ötletek
- Nők, nőügyek (18+)
- Amlogic S905, S912 processzoros készülékek
- Milyen légkondit a lakásba?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Üzemidőt áldoz a fényerő oltárán a Garmin Fenix 8 Pro
- Vivo X200 Pro - a kétszázát!
- Akciófigyelő: Megnyílt a Xiaomi hivatalos magyar webáruháza
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- További aktív témák...
- Xiaomi 14T 256GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone i5 13400F 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- HIBÁTLAN iPhone 13 mini 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3334, 94% Akkumulátor
- Apple iPhone 14 Pro Max 256GB, Kártyafüggetlen, 1 Év Garanciával
- Új Dell 7340 Latitude 13.3 WUXGA Touch i7-1365U vPro 10mag 16GB 512GB SSD Iris XE Win11 Pro Garancia
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest