A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Gyorskeresés
Legfrissebb anyagok
- Bemutató Route 66 Chicagotól Los Angelesig 2. rész
- Helyszíni riport Alfa Giulia Q-val a Balaton Park Circiut-en
- Bemutató A használt VGA piac kincsei - Július I
- Bemutató Bakancslista: Route 66 Chicagotól Los Angelesig
- Tudástár AMD Radeon undervolt/overclock
Általános témák
LOGOUT.hu témák
- [Re:] [sziku69:] Fűzzük össze a szavakat :)
- [Re:] [Luck Dragon:] Asszociációs játék. :)
- [Re:] [Luck Dragon:] MárkaLánc
- [Re:] [gban:] Ingyen kellene, de tegnapra
- [Re:] PLEX: multimédia az egész lakásban
- [Re:] [ubyegon2:] Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- [Re:] [bitpork:] Fogyasztásra ítélve
- [Re:] [attilasd:] A laposföld elmebaj: Vissza a jövőbe!
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] eBay-es kütyük kis pénzért
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
GAMEPOD.hu témák
Téma összefoglaló
Hozzászólások
füles_
őstag
Köszi
#35434496
törölt tag
A végén még Radeont veszek mint hüllő barátom. Így tuti beenged a tankjába.
Petykemano
veterán
A hbm -mel szeret gpukat úgy állítják össze, hogy az interposerre ráteszik a chipet, és a ramokat. Úgy emlékszem, a fijinél arról volt szó, hogy ha az eleve válogatottan jó alkatrészek valamiért mégse működnek együtt, összerakva, akkor kuka az egész.
Mit gondoltok, a Vega esetén megoldották, hogy ha összeszerelés során egyik-másik RAM nem jó, akkor ezt szegmentálásra tudják használni, hogy ne kelljen eldobni?
Találgatunk, aztán majd úgyis kiderül..
#85552128
törölt tag
Csak tudnám milyen logika alapján kapta ez a Freesync 2 nevet
Valdez
őstag
A slide-ok alapján azért, mert freesync 2 esetén a hdr anyagokkal jóval kisebb input lagot lehet elérni, mint amúgy.
#85552128
törölt tag
Attól Freesync 2 mert most már HDR-es kijelzővel is megy ? Jóval nagyobb változások voltak az első Freesyncnél (HDMI, Borderless mód, LFC) azok után mégsem kapott új "verziószámot", ennyiért kicsit túlzás.
Hacsak nem csupán szoftveres dologról van szó és mindenképp új HW szükséges hozzá.
[ Szerkesztve ]
Z10N
veterán
Ezt igy pont egy fel ev utan?
Amugy a 380 arak eleg erdekesek.
Persze van akik realisan araznak (380 4gb nitro 35k).
A 470 4gb-t egesz kellemes aron lehet szerezni kulfoldrol ($149).
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
Z10N
veterán
Ui: Most nezem, hogy a 480 4gb is $169 akciosan. Szoval az is araban van.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
Televan74
nagyúr
Szerintem a Freesync 2 csak HDR -s kijelzővel működik.Mindenképp új monitort kell venni hozzá.Ok szép és jó ez a technológia,de hol vannak a HDR -s monitorok.Még a kanyarban sincsenek.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
Ez tényleg érdekes, pont fél év, fel se tűnt.
Ám ja, csak itthon vannak elszállva az árak, naívan elhittem hogy a 200 dodo az 200 lesz itthon is.. Hát de nem, nagyon nem. Ha most 59ér lehetne 480at kapni, egy szavam nem lenne. Pedig úgy rémlik mintha az adó már bele lett volna kalkulálva a 200ba-?
Televan74
nagyúr
Bele lett kalkulálva,de nem nálunk hanem az USA -ba.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
TESCO-Zsömle
félisten
$-os árak mindig nettó árak. Pont az USA-da sose számolnak adót az árakba, a bolti árak is nettó árak, így a turistákat könnyen érheti meglepetés, mikor két $19.95-ös cuccért le kell szurkolni az $52.15-öt. A számlán is külön tételként jelennek meg a különféle terhek.
Általában ez az oka a $=€ konverziónak is, mert itt viszont beleszámolnak az ajánlott fogyasztói árba áfát, mert mindenhol van. Szóval nálunk a 200$-os cucc az nettó 60k + szállítás, mert kevés videókártyát gyártanak Európában.
Sub-Dungeoneer lvl -57
#45185024
törölt tag
"Csak tudnám milyen logika alapján kapta ez a Freesync 2 nevet"
-A HDR már 10 bites színmegjelenítés, ebből a szempontból sokkal jelentősebb változás IT szempontból mint a 4K ahol "csak" a pontok száma nőtt.
Az egy más kérdés hogy hány ember fogja tudni valósan megkülönböztetni a HDR-t a simától.
Jöhetnének már freesync-es TVk, mondjuk 50 colon
[ Szerkesztve ]
Valdez
őstag
A hdr szerintem nem csak a 10 bites megjelenítésről szól, hiszen már nagyon régóta vannak 10 bites monitorok, amik persze nem hdr képesek.
leviske
veterán
Nos, ezt viszont nem ártana, ha egy esetleges Vega 11 lehozná a 200-350 dolláros ársávba. Sőt, ebben az esetben igazán jöhetne az év végéig egy Vega 12 is a Polaris 10 helyére (teljesítményben), 1 HBM lapkával.
Nagyon hiányzik az AMD-nek, hogy normális teljesítmény/fogyasztás arányt tudjon felmutatni.
Yutani
nagyúr
AMD's biggest problem with GCN is the inability of most game engines fully utilizing it's shaders. We've seen what can happen with good programmers with Doom Vulkan, using Shader Intrinsics and Async Compute to max out GCN, RX 480 ~20% faster than 1060, which actually matches it's paper TFlops specs. In most games for GCN, there's a lot of SIMDs with idling ALUs doing nothing so in effect, it's not a 5.8 TFlop GPU since that rating is the max theoretical perf assuming all ALUs are working.
Going with NCU's variable width SIMD layout will solve this issue, so we should get a more closer and truer comparison of paper spec TFlops to gaming performance. ie. A Vega of 12.5 TFlops will absolutely wreck Fury X.
Jobb később megtudni, mint soha. Most már értem az eddig érthetetlen túlfogyasztást az Nvidia GPU-khoz képest.
#tarcsad
HSM
félisten
Azért van ott más is...
"AMD always had to have more shaders to achieve similar performance to NV because GCN wasn't designed for DX11 era gaming so it always had problems of using all of the shaders."
Ezt pedig már tudjuk évek óta.
Nv-nél egyértelmű volt más területeken is a fogyasztás takarékoskodás, pl. a DX11 szerint dedikált gyors adatútjaik, az egyszerűbb ütemező, stb.
Viszont ezekből az is következik, hogy leginkább ott lesz komoly előrelépés, ahol eddig sem volt kihasználva jól a GPU. Mindenesetre, igen hasznos újításnak tűnik, ez tuti erősen növelni fogja a GPU kiegyensúlyozottságát és részterhelésen a hatékonyságát.
[ Szerkesztve ]
Petykemano
veterán
(ON the hype train: )
Végy egy 8tlops-os fury-t, amiből mondjuk jó ha 5tflops hasznosul fenti okokból
Majd végy egy variable length SIMD-del 12.5tflops-ot hozó vegát.
badumtsss
Találgatunk, aztán majd úgyis kiderül..
Malibutomi
nagyúr
Mondjuk nekem a variable width SIMD-bol marhara nem az jon le hogy jobban ki lesz hasznalva a GPU teljes elmeleti teljesitmenye, hanem hogyha nincs kihasznalva akkor nem jaratja az osszes blokkot feleslegesen =kisebb fogyasztas.
[ Szerkesztve ]
Yutani
nagyúr
Mondjuk a DX11 éra elején/első felében nem DX11-re tervezett uarch-val kijönni érdekes dolog volt, ha ez igaz. Így is ellavíroztak, de mi lett volna, ha nem erre indulnak? Lehet, hogy a DX12 még kanyarban sem lenne, mindenki DX11-re gyúrna.
Fene tudja, de mindenesetre nagyon várom a VEGA újításait és hogy mit lehet vele elérni. Biztos emlékszel, az NV-t is temették itt a fórumon sokan a Fermi megjelenése előtt, aztán tessék, a Maxwellel és a Pascallal tarol. Remélem, az AMD részéről most egy nagy feltámadást fogunk látni, ha már a Polarissal sikerült egy kis jót gurítani.
#tarcsad
HSM
félisten
Egy architektúrát megtervezni több év. Amikor elkezdték fejleszteni az első GCN-eket sacc/kb 2009-ben, még csak annyit tudhattak, hogy ennek az architektúrának egyfelől DX11 másfelől az azután következő API-kban is helyt kellene állnia.
Pontosan amit írsz... Nagy kérdés, mi lett volna, ha nem idnulnak el erre, bevállalva egy csomó nehézséget. Lenne most baj (és lehúzás) a GPU piacon... Így is éppen elég baj a piacnak, hogy így beragadt a DX11 és ennyire tarolhat(ott) a zöld oldal...
(#26024) FollowTheORI válasza Malibutomi (#26021) üzenetére
Szerintem várjuk meg hogy működik ez a "dinamikus" dolog... könnyen lehet, hogy nem lekapcsol, hanem más feladatokra befogható az a rész ami nem lenne egyébként használva... meg sok múlik az ütemezőn.
Persze azis lehet amit te gondolsz, de logikusabb lenne az hogy async/multi engine feladatokat csinálhatna a nem használt rész, vagy a következő képkocka feladatait csinálná. Stb.
Mellesleg, ha jól értem nem arról van szó hogy "lekapcsolnak" dolgokat, hanem van 2, 4, 8, 16... stb végrehajtóegységből álló rész... és ha a feladatnak csak 4 kell, akkor arra teszi nem a fix 16-osra (mint előtte volt), a 16-os meg csinálhat mást... mint ahogy a 2, 4,... stb is. Tehát nem marad kihasználatlan rész lekötve (ideális esetben).
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
(#26025) Malibutomi válasza FollowTheORI (#26024) üzenetére
Malibutomi
nagyúr
Ahogy mondod sok mulik az utemezon, es hogy tudjak etetni a blokkokat. Meg a driver/szoftver is szamithat, bar ennyire en nem ertek hozza.
[ Szerkesztve ]
Yutani
nagyúr
Az RX 470 kártyám működéséből arra következtetek, hogy a shaderek fullosan ki lesznek használva minden esetben, de ha pl. VSYNC be van kapcsolva, akkor a GPU visszaveszi az órajelét amellett, hogy az összes shader dolgozik.
A hétvégén figyeltem meg a Battlefield: Bad Company 2-vel játszva (elég régi játék), hogy VSYNC-et bekapcsolva a Polaris mindössze 600 MHz-en dolgozott.
#tarcsad
(#26027) Szeszkazán válasza FollowTheORI (#26024) üzenetére
Szeszkazán
senior tag
Meg megint szellőztetik a Larabeet, mint a Polaris kapcsán mondták csak itt még hatékonyabb lesz a működés, gondolom a szennyvörksz tartalmak kezelésével kapcsolatos.
stratova
veterán
Úgy rémlik füles linkelte pár hónapja a vonatkozó szabadalmat. Arra éppen jó lehet az ALU-k részleges lekapcsolása/lefoglalása, hogy az aktív részegységek magasabb órajelen üzemelhessenek, ua TDP limit mellett.
[ Szerkesztve ]
Malibutomi
nagyúr
Ennek nincs koze a kihasznaltsaghoz, ez az energia management miatt van igy, ha erzekeli hogy nem kell fullon mennie, akkro visszaveszi az orajelet.
Amirol itt beszelunk, hogy papiron az AMD kartyak mindig elmeleti szamitasi kapacitassal rendelkeznek (magasabb TFLOPS ertek), aztan vegul megis fej-fej mellett vannak az NV kartyakkal. Nincs kihasznalva a teljes (elmeleti) potencial.
Pl:
RX480 5.8 TFLOPS - GTX 1060 4.4 TFLOPS
Fury X 8.6TFLOPS - TX (Maxwell) 6.6TFLOPS
290X 5.6TFLOPS - 780Ti 5TFLOPS
Ha ezen tud az AMD valtoztatni, az lenne a fegyverteny, mert ebbol az latszik, hogy jatekok alatt az AMD kartyak csak ~75-85%-ot hoznak ki magukbol.
Yutani
nagyúr
Igen, a rendelkezésre álló shaderek jobb kihasználásáról szól ez a dolog. Továbbolvasva a threadet, szó volt még a SIMD-en belüli power gatingről, amit a #26021-ben írtál.
Remélem tényleg olyan jó lesz a VEGA, mint ahogy ez így leírva hangzik.
#tarcsad
Abu85
HÁZIGAZDA
Semmi köze a fogyasztáshoz. Azért eszik sokat a GCN, mert minden CU-ban van egy skalár egység, amivel a rendszer működése teljesen programozható. Egy API támogatása ezen az architektúrán annyi, hogy a skalár egységhez írsz egy szoftveres rutint, amivel rámappelhető minden az adott API-ra. A többi architketúra egy jóval egyszerűbb branch egységgel rendelkezik, amelyre jóval nehezebb minden API-t rámappelni, mert nem programozható ez a része a rendszernek.
Ott van példának a shader model 6.0. A GCN-re simán rámappelhető az új függvények zöme. A többi architektúra pedig emulálja ezeket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Arpee78
senior tag
Előrebocsátom, nekem nagyrészt kínai amiket leírsz, de most érdekel a dolog.
Ez a megoldás hol előnyös(az Nvidiához mérten) a felhasználóknak? A hátránya megvan, a fogyasztás, de mi az előnye?
Az AMD driver író részlegének kevesebbet kell dolgozni? Ez nekem max a VGA alacsonyabb árában realizálódhat.
A jövőben megjelenő API-kat a GCN Radeon egy egyszerű driver frissítéssel támogatni fogja? Míg a zöld oldalon jobban át kell tervezni az architektúrát? Ez nekem egyrészt megint a VGA alacsonyabb árában jöhet le, illetve technikailag időtállóbb, modernebb VGA-t kapok.
Abu85
HÁZIGAZDA
DX11->DX12 váltás nem lassul, hanem mindig gyorsul. Nagyjából ennyi az előnye nagyon egyszerűen levezetve.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Jack@l
veterán
Végülis a negtív gyorsulás is gyorsulás. (megunja az MS pénzelni a win10 exkluzív címeket, a fejlesztőknek a hátuk közepére se kell a low level, a userek is unják a mikrolagokat miközben kb 0 fps-t hoz)
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Petykemano
veterán
Tehát az előny driveres és design flexibilitás a specializált hatékonyság árán. Ezzel egy design kevésbé potens, nem gurít kiemelkedőt, de tovább él, könnyű kisebb tweakekkel rebrandelni.
Találgatunk, aztán majd úgyis kiderül..
Oliverda
félisten
Abu szerint ezek kevesebb előrelépést hoznak mint a GCN4.
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
Abu85
HÁZIGAZDA
A CU dizájnban nyilván kevesebbet, mert eleve a GCN4 egyik képességére épül a VWL, de az uncore rész erősebb. Most még nem írható le, hogy mennyire. De nem azok számítanak, amiket gyiku összefoglalt a hsz-ében. A draw stream itt a lényeges előrelépés. A többi csak adalék, amiket a GCN4-be épített fejlesztések miatt tudnak alkalmazni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Oliverda
félisten
Jó, akkor összességében a GCN4-hez képest kisebb lesz az előrelépés vagy sem?
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
füles_
őstag
Abu85
HÁZIGAZDA
CU-ban kisebb. Ezt korábban is írtam. Uncore-ban nagyobb. Összességében pedig programfüggő. A jól optimalizált DX12 programokban a VWL nem sokat ér. A rosszul optimalizált programokban viszont hasznos.
Az uncore rész pedig általánosan jót tesz a rendszernek, mert csökkenti a memória-sávszélességre vonatkozó igényét az architektúrának. Ez nyilván annyi előnyt jelent egy programban, minél érzékenyebb a sávszélre a rendszer. A többi újítás pedig funkcionális, ezeket direkten támogatni kell, hogy működjenek. Sok újításra API sincs felhúzva. Ezek a PS4 Pro és a Scorpio Xbox PC-s verziói. Lesz hozzájuk nem szabványos elérés, hogy az említett konzolok újításait használó effektek portolhatók legyenek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Abu85
HÁZIGAZDA
Nem. Az előny a mappelhetőség. Ez nagyon fontos azokban az időszakokban, amikor az API-k ömlenek a piacra, mert ezekre az API-kra rá kell illeszteni a meghajtót. Az AMD-nek a GCN-nél ez csak egy szoftver. Mindegy, hogy milyen egy API, akkor is rá tudják mappelni a hardverre. Ezért váltott teljesen GCN-re az Apple a dedikált GPU tekintetében, mert náluk a Metal egy baromira mobil projekt volt baromira a PowerVR-re. Ellenben a GCN-re a programozható skalár egység miatt rá tudják mappelni úgy is az API-t, hogy köze nincs a GCN-nek a TBDR dizájnhoz. Az Intel emiatt lassú Metal alatt. Rájuk már nem lehet normálisan mappelni, ahogy NV-re sem, és ki is estek az Apple dizájnokból.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
leviske
veterán
Remélem, ha az átnevezés még elkerülhetetlen is, azért nem olyan formában fog történni, mint a 200->300 sorozat esetében. Magyarán jó lenne, ha desktopon azért a RX560-ba már Polaris 10 kerülne, mégha notikban ki is szúrják az ember szemét egy P11-el.
Szeszkazán
senior tag
Vagy ha így is tesznek, csizsoljanak azon a GPU-n.
Valdez
őstag
Hát így a pletykákból ítélve jónak tűnik a vega, ráadásul a zen is jön, lehet most lenne érdemes amd részvényt venni...
Z10N
veterán
Netto aron vannak feltunteve, mivel allamonkent eltero ado van. Kalifornaiaban 7,5% + pk (5$), ha nem ingyenes. Szoval $169,99 rebate-tel egyutt a 480 4gb. Ez HUF-ban 53,9k. Ha postan kuldik haza akkor +27% es vam. Azaz erdemesebb ismerossel hazahozatni. En a 470 4gb-t neztem $149,99 rebate-tel, ami 47,5k.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
Z10N
veterán
P10? Orulj, ha megkapod a p11xt-t (16CU), aka 460PRO-t, amit a szoftmoddal elo lehet hozni.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
gyiku
nagyúr
hopp, elso hdr-es fecske: [link]
hüllő
leviske
veterán
Az a gond, hogy a P11 úgy kap alaptalanul x60-as jelölést, hogy közben teljesítményben fölfelé meg kifutnak a nevekből. Mert amennyiben P11 volna a desktop RX560-ban akkor a következőképp nézne ki a paletta:
RX550> (Polaris 12) vs Intel IGP
RX560 (Polaris 11) vs GTX1050
- vs GTX1050Ti
RX570 (Polaris 10) vs GTX1060 3GB
RX580 (Polaris 10) vs GTX1060 6GB
RX590 (Vega?) vs GTX1070
Valami 1 (Vega) vs GTX1080
Valami 2 (Vega) vs GTX1080Ti
Valami 3 (Vega) vs Titan X
Viszont az én elképzelésemben így nézne ki:
RX540 (Polaris 12) vs Intel IGP
RX550 (Polaris 11) vs GTX1050
RX560 (Polaris 10@1792SP) vs GTX1050Ti
RX570 (Polaris 10XT2) vs GTX1060 6GB
RX580 (Vega?) vs GTX1070
RX590 (Vega) vs GTX1080
Valami 1 (Vega) vs GTX1080Ti
Valami 2 (Vega) vs Titan X
Bár aztán felőlem lassú léptekkel eljuthatunk oda is, hogy az épp aktuális 90-s kártya a GeForce-oldali 60-assal küzd élet-halál harcot.
Malibutomi
nagyúr
Téma tudnivalók
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Mai Hardverapró hirdetések
prémium kategóriában
- ZOTAC GeForce GTX 1080 AMP Edition 8GB GDDR5X 256bit
- Filmes gép gyűjtemény
- Nikon D5000 + AF-S DX NIKKOR 18-105 mm
- Bontatlan Seagate & Western Digital HDD-k 3TB - 12TB -ig - Számla + Garancia, Ár alatt! BeszámítOK!
- DJI Mini 4 pro FMC drón - 3 akku, RC2 táv, 2 táska, Filterek, 2025. decemberig garancia, DJI Care