Szia!
Mielőtt kérdeznél , alábbiakkal kérlek egészítsd ki (FONTOS! LG monitoroknál a P végződés az új tápegységre utal!):
Gyorskeresés
Legfrissebb anyagok
- Bemutató Spyra: akkus, nagynyomású, automata vízipuska
- Bemutató Route 66 Chicagotól Los Angelesig 2. rész
- Helyszíni riport Alfa Giulia Q-val a Balaton Park Circiut-en
- Bemutató A használt VGA piac kincsei - Július I
- Bemutató Bakancslista: Route 66 Chicagotól Los Angelesig
Általános témák
LOGOUT.hu témák
- [Re:] Gurulunk, WAZE?!
- [Re:] [antikomcsi:] Való Világ: A piszkos 12 - VV12 - Való Világ 12
- [Re:] [koxx:] Bloons TD5 - Tower Defense játék
- [Re:] [ubyegon2:] Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- [Re:] [Sub-ZeRo:] Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- [Re:] [gban:] Ingyen kellene, de tegnapra
- [Re:] [Szevam:] Érzelmi magabiztosság/biztonság - miért megyünk sokan külföldre valójában?
- [Re:] [bb0t:] Gyilkos szénhidrátok, avagy hogyan fogytam önsanyargatás nélkül 16 kg-ot
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] [attilasd:] A laposföld elmebaj: Vissza a jövőbe!
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
GAMEPOD.hu témák
Téma összefoglaló
- Utoljára frissítve: 2023-12-13 01:07:51
LOGOUT.hu
Hozzászólások
Teasüti
nagyúr
Nem. Ugyanúgy láthatóan szaggatni fog a játék ha kevés az fps, csak nem tördeli vízszintesen a képet a monitor (screen tearing).
A kevés fps-re esetleg a motion blur bekapcsolása játékon belül gyógyír lehet - így meglesz a folyamatos és sima filmszerű képi világ -, ha olyan műfaj ami elbírja a motion blur-t és ez nem zavarja a játékélményed. Casual játékhoz ez így okés, gyors reakcióidejű lövöldénél viszont éles motion blur nélküli képkockákat akarunk, oda viszont kell a nyers erő és a sok fps, ha folyamatos képi élményt akarunk.
[ Szerkesztve ]
pilu85
őstag
Uh nem egyszerű h akkor mire is jó ez a freesync :)
"A jó hír: ha fel tudod ismerni egy illúzióról, hogy illúzió, akkor szertefoszlik. "Az illúzió felismerése annak végét is jelenti. Életben maradása attól függ, hogy összetéveszted-e a valósággal."
SaGa59
őstag
Arra, hogy ha a képkockák gyorsabban jönnének, mint amennyivel a monitor képes azokat kirajzolni, pl azért, mert túl alacsony a képfrissítési frekije, bekövetkezik a képkocka törése (screen tearing). Magyarul, a kép teteje másik képkockához tartozik, mint az alja és valahol lesz egy éles határ, ahol ez láthatóvá is válik. A Freesync ezt simítja el. Tulajdonképpen a V−Sync egy kifinomultabb megvalósítása.
Olvasnivaló
[ Szerkesztve ]
STALKER modok: https://drive.google.com/folderview?id=0B_PtTRL86S2UQllOam9MUWZ1ak0&usp=sharing
Komplikato
veterán
A gyártó saját oldalán a monitor leírásában ott van, hogy megy NVidia kártyával a Freesync, biztos be lett kapcsolva a funkció a monitor menüjében?
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
Teasüti
nagyúr
Épp fordítva, nem?
Ha lassabban jönnek, mint a monitor frissítése, akkor van az, hogy a sample&hold technika miatt az előző képkockát kezdi el újra kirajzolni, majd időközben beesik a következő és voilá: tört kép.
Gyorsabban nem fognak jönni, mert a V-sync fps limitál a natív frekvenciánál. Vagy újabban csak beállít az ember egy fps cap-et driver-ből vagy játékból - de régebben ugye a V-sync és a VRR egyszerre voltak bekapcsolva és fps-től függően hol az egyik, hol a másik üzemmód volt épp aktív. Nálam az első generációs G-sync laptopon a mai napig úgy mennek a játékok, hogy a képernyő G-sync módban van, de a szoftverben a V-sync is mindenhol be van kapcsolva, mert ez utóbbi limitálja a max fps-t.
[ Szerkesztve ]
-=RelakS=-
veterán
V-sync limitálja a max fps-t, és megakadályozza, hogy új kép kerüljön a framebufferbe, miközben küldi a minotirnak az adatot -> nem fog törni a kép (tearing)
G-sync, free-sync összeszinkronizálja a monitort a videókártya kimenettel, ha a renderelés frametime-ja nagyobb, mint az aktuálisan használt kijelző beállítás legkisebb frametime-ja. Nagyobb frametime = kevesebb fps.
A Sample&hold technikát ne keverjük ide. A CRT monitorok egyszerre egy pixelt jelenítettek meg, mert az elektronágyú ennyit tudott, azzal viszont gyorsan végigpásztázták az egész képernyőt. Mivel a képernyő nagy része fekete volt, csak az elektronágyú által gerjesztett pont világított, illetve valamennyire még pár sornyi korábban gerjesztett "pixel" (CRT-n nincs pixel, Technology Connection youtube csatorna megmondja), ezért a 60Hz már nagyon villogott.
Ezután jött az LCD, aminél a sample & hold azt csinálja, hogy a továbbra is pixelenként érkező adatokat letárolja (ezt hívnám sample-nek), majd mikor megjeleníti, akkor a képkocka egész ideje alatt meg van jelenítve a pixel, nem csak egy pillanatra (ez a hold).
A hold rész okozza azt, hogy míg egy 60Hz-es CRT kép tűéles, csak kicsit villog, a 60Hz-es LCD (olded) el van mosódva. Ugyanez az oka annak, hogy ha beszúrsz egy fekete képkockát, és emiatt rövidebb ideig van megjelenítve a kép, akkor élesebbnek látod a mozgást (black frame insertion illetve ULMB technikák)
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Jack Oneill
veterán
Szerintem jol irta. Pont ez a lenyege. Ha gyorsabban jonnek a kepkockak, mert nincs vsync, akkor szetesik a kep. Erre van a jobb freesync, ami szinktonban tartja, de nem limitalja ugy az FPS erteket, mint a vsync.
De ha mar itt tartunk, az en problemamra nem tudtok segiteni? Megeri az az asus monitor, amit kineztem? A masik a samu, de en ugy latom az asus kicsit jobb az 1ms valaszido, illetve kisebb energiafogyasztas miatt. Egyedul az zavart meg, hogy valaki egy véleménynel aut irta, 75 Hz nem megy HDMI csatlakozoval.
[ Szerkesztve ]
Én is így tudom. Bekapcsolt G-Sync vagy FreeSync mellett ha kevesebb az FPS, mint a monitor maximum képfrissítési frekvenciája, akkor hozzáállítja a Hz-et, és így nincs képtörés.
Prohardver Tudástár
Persze egy kicsit régi cikk, a "rendes" G-Sync 1 Hz-től működik, egyéb esetben monitortól függ, de leginkább 48 Hz-től a maximumig. Monitorlista
Holnap országszerte 10 fok várható. Ebből 2 Budapesten, 1 Győrött, 2 Miskolcon...
(#121759) -=RelakS=- válasza Jack Oneill (#121757) üzenetére
-=RelakS=-
veterán
Akkor meséld már el, hogy freesync-el és g-sync-el miért esik le a monitor képfrissítése, ha a videókártya nem bírja az iramot!
Még egyszer: Ha 120Hz-es monitorod van, és mondjuk 150fps-t tudna kisajtolni magából a gép, akkor ezt nem a G-Sync vagy a FreeSync fogja megakadályozni, hanem a v-sync.
Ha a FreeSync közben kapott valami limitáló funkciót is, akkor én kérek elnézést, de hogy a G-Sync nem limitálja a maximumot, azt tapasztalatból tudom.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
(#121760) Jack Oneill válasza -=RelakS=- (#121759) üzenetére
Jack Oneill
veterán
Lehet, hogy nem mondtam erthetoen, de en pont errol beszeltem, hogy a vsync limital. A free es a gsync nem.
Persze, hogy nem limitál, mert nem az a funkciója, viszont, ha nincs valamilyen módon limitálva az FPS a monitor maximum frekvenciájához, akkor megint csak képtörés lesz. Illetve Nvidia tud olyat, hogy "Fast Sync" (NV Vezérlőpultban a Függőleges szinkronizáció Gyors módja), amikor szimplán eldobálja az extra képkockákat.
AMD-ről nem tudom mit tud vagy mit nem, sosem volt olyan videokártyám.
Holnap országszerte 10 fok várható. Ebből 2 Budapesten, 1 Győrött, 2 Miskolcon...
Teasüti
nagyúr
És akkor miért esik szét a kép kevesebb fps-nél, hmm?
Mondjuk 55 fps 60 hz-es hagyományos lcd monitoron.
[ Szerkesztve ]
Matchbox
csendes tag
Sziasztok!
Segítséget, ajánlást kérnék, hogy otthoni munkára, laptop kiegészítéshez, milyen méretű és képernyő arányú monitort javasoltak?
Fontos lenne, hogy gyakran több adatforrásból kell dolgozni.
Jó lenne, ha Flicker free lenne vagyis DC szabályzású lenne.
A keret ca. 100e, de ha kicsit többért van sokkal jobb, az is jöhet.
Eddig 29”-os uw monitorokkal szemezetem, de ott a félelmem, hogy rossz lesz egy Excel olvashatósàga.
köszi előre is.
(#121764) -=RelakS=- válasza Jack Oneill (#121760) üzenetére
-=RelakS=-
veterán
Ebbe most nem tudok beleállni, mert G-Sync-es dolgaim vannak, de az tuti, hogy a G-Sync nem csinál semmit, ha gyorsabban jönnek a képkockák a kelleténél, ezért kell V-Sync-el együtt használni.
Az Nvidiánál a V-Sync-nek van egy "Gyors" beállítása, ami azt csinálja, amit mondasz, hogy nem limitál, de megakadályozza a képszakadást. Majd valaki, akinek AMD-je van, megmondja, hogy ott mi a helyzet
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Csandi
őstag
240hz-es monitorokat használok 4 éve kb (1080p, most 1440p), mindeféle syncet (g, free, v) ami volt tudatosan kikapcsoltam és kerültem mert pár framenyi input lagot adnak. Comp gamek 200-400 fps között futnak, story gamek mondjuk 100. Soha nem jelentkezett képtörés egyszer sem.
-=RelakS=-
veterán
Ha 240Hz-re volt beállítva a monitorod, akkor csak nem vetted észre.
Tudom, mert ezt is kipróbáltam, és lassított felvételt kellett készítenem róla, hogy lássam a képtörést
Ezért mondtam korábban, hogy adjanak egy 480Hz-es monitort, és minden ilyet ki lehet kapcsolni. Max a V-Sync maradhat, mert közel 2ms-os frametime-nál már nem oszt nem szoroz a késleltetése.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
SaGa59
őstag
Jogos, csak sajnos a leírások amit a neten találni lehet, pl az is, amit belinkeltem, a vsync-kel páldálóznak és nem fejtik ki a különdséget a két metódus működése és célja között. Szóval akkor [az AMD Freesync FAQ alapján):
1: V-sync vagy FPS cap.
Amennyiben a GPU-d gyorsabban tudná tolni a képkockákat, mint a fix, mondjuk 60Hz-es monitor megjeleníteni, jön a screen tearing, mert mire a monitor kitolná a teljes képet a pufferéből a kijelzőre, a GPU már felülírta a tartalmat az új képkocka adataival, vagyis a kép alja már az új kockához tartozik, míg a teteje még az előzőé volt. Ennek megakadályozására a V−Sync való, ami megmondja a GPU-nak, hiába tudnál 120 fps−t, nem tolhatsz annyit mert a monitor nem tudja időben átrajzolni a teljes képet. Ha van magában a játékban fps cap, azzal ugyanezt tudod elérni.
Cserébe, hiába gyors a géped, a monitor miatt nem lesz több az FPS mint 60 sosem.
2: FreeSync (AMD) vagy G-Sync (Nvidia). Az elv hasonló, eltérés a licencelésben és a használatukra képes chipekben van.
Ha a GPU nem tudja a monitor frissítési frekijével küldeni a képeket (pl 60Hz), csak lassabban, a monitor akkor is kirajzolja azt, ami épp ott ül a pufferében, mikor az erre szolgáló időpont elérkezik. Ez az ő belső időzítési paraméterétől függ, ami általában fix értékű. Ha befejeződött a teljes képi adat lecserélése a pufferben, ha nem. Mivel a puffer felülírása mindig az elejétől kezdve történik, a kép eleje már az új képkockához tartozik, a vége viszont még a régihez, mert lassabban jön az adatváltozás, mint a kirajzolás. Vagyis látható lesz a screen tearing. Ha nagy a különbség (többszörös) a monitor alapfrekije és a gpu által küldött képkockaszám között, akár több is egy képkockán belül.
Ennek elkerülésére szolgál a Freesync, amivel a GPU meg tudja mondani a monitornak, hogy haver, hagyd figyelmen kívül a belső időzítési értéket és csak akkor kezdd el kirajzolni az új képet, mikor én azt mondom, most van készen a puffer teljes felülírása, addig csak tartsd a régi képtartalmat a kijelzőn. Ennek persze van egy, az adott monitorra jellemző alsó határa. Ha ezt is elértük, akkor jön a következő fogalom:
3: LFC (Low Framerate Compensation)
A Freesyncbe épített szolgáltatás. Amikor a GPU által küldött képkockák már a monitor minimális megjelenítési frekvenciájánál is lassabban jönnek, amit már végképp nem enged csökkenteni, hisz a képkirajzolásnak azért van egy minimális frekvenciája, ami alatt már vibrálna a kép, akkor az LFC elkezdi duplikálva kirajzolni a képkockákat, ugyanazt mégegyszer, mialatt a GPU még tölti a puffert, ahonnan az új képhez szükséges adatokat átvenné a kirajzolásért felelős elektronikai blokk. Ha pl a monitor 60 és 144 Hz között tud megjeleníteni, de a GPU csak 40 képet tud tolni, a monitor átáll 80Hz frissitésre, és minden beérkező képet duplán jelenít meg, ebben a tempóban. Vagyis a user 40 FPS-t lát, a monitor megy 80 képkockát rajzol ki másodpercenként. Cserébe nem fog villódzani a kép és nem lesz akadozás sem.
[ Szerkesztve ]
STALKER modok: https://drive.google.com/folderview?id=0B_PtTRL86S2UQllOam9MUWZ1ak0&usp=sharing
kchris78
veterán
köszi ezt a részletes leírást!
poirot
senior tag
Az itt kialakult párbeszéddel kapcsolatban nekem is van egy kérdésem.
Van egy 2 GB-os ATI Radeon R7 250-es VGA kártyám, ami 2560 x 1600 maximális felbontást tud és 75 Hz-et. Vásárolnom kell a közeljövőben egy monitort, ami felbontásilag ebbe belefér, ez a 2K, ha jól tudom. Viszont gondolva a jövőre, ha már nem lesznek ilyen horror árak a VGA kártyák frontján, akkor vennék egy új VGA kártyát, ami több Hz-et tud, mint a jelenlegi. A kérdésem az, hogy a jelenlegi monitorok mennyire tudnak "együtt dolgozni" az én régi VGA kártyámmal ? Teljesen mindegy, hogy milyen magas HZ-s monitort választok, vagy itt is vannak korlátok ??
Köszönöm a válaszokat.
Apollo_21
addikt
Dehogy kell együtt használni....
Vsync- mikor a kjó vgat lefojtod 60hzre mert a monitor pl annyit tud, hoopp eltűnik a képtörés... g es free sync mikor a monitor tudásához igazodik a hw és változik a frissites frekije a monitornak igazodva a hwhez. Én ezt vhogy így tudom.
Asus ROG STRIX /ROG-Join the republic/
-=RelakS=-
veterán
A 2-es pontban a pufferes rész nem igaz.
A vga legalább két puffert használ. Az egyiket épp kirajzolja a monitor, a másikban dolgozik a vga. Mikor kész a kép, akkor megcseréli a két puffer címét, így amiben eddig dolgozott, az kerül a képernyőre, és ami eddig a képernyőre került, abban kezd el dolgozni. Ennek az a következménye, hogy a képtörés esetén a képernyő tetején mindig régebbi tartalom van, mint a képernyő alján.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
-=RelakS=-
veterán
Régen én is így gondoltam, mivel nem láttam képtörést egy játékomban sem.
Aztán egy youtube videóban mutattak olyat, hogy V-Sync nélkül a képernyő tetején vagy alján folyamatosan képtörés volt, mert ugyan a frekvenciák össze lettek szinkronizálva, de a pufferek cseréje és a kirajzolás kezdete nem
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
SaGa59
őstag
Technikailag bizonyára így van, logikailag meg mindegy, a lényeg, hogy amikor a monitor odaér a váltáshoz, még nem fejeződött be a csere teljesen.
STALKER modok: https://drive.google.com/folderview?id=0B_PtTRL86S2UQllOam9MUWZ1ak0&usp=sharing
-=RelakS=-
veterán
A monitorok lefelé kompatibilisek. Mindig az fog megjelenni, ami a kevesebb. Ha 240Hz-es monitort veszel, de a vga-d csak 120Hz-et tud, akkor annyit fog mutatni a monitorod. Ha 4K monitort veszel, de csak 2560x1600-at tud a vga-d, akkor a monitor is azt fogja megjeleníteni. Felfelé nem tudnak eltérni, tehát nagyobb felbontást, gyorsabb frekvenciát nem tudnak megjeleníteni.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
SaGa59
őstag
A félreértések elkerülése végett, én csak a leírásokból okoskodom, mert utánanézek, de nem vagyok monitoros szaki, csak felhasználó, aki épp most keres olyan monitort, ami belefér a költségvetésébe és megfelel az elvárásainak, pl annak hogy legalább három csati kell, egy vagy két HDMI és egy vagy két DP, de összesen három, mert ennyi gépnek kell osztoznia rajta és ebből egy Xbox, aminél csak a HDMI játszik. A másik kettőben mindkét fajta kimenet van. És 1440p, legalább 144 Hz, jó munkára és játékra is (nem esport, sima játék, de fps is van benne), és lehetőleg 27". A jelenlegi egy régi 60Hz-es, 1920x1200-as.
Logikailag, ha egy monitor képes kezelni a 75 Hz-es megjelenítést, gond nélkül működnie kell a kártyáddal. A probléma szerintem fordítva szokott lenni, mikor egy új kártyával küldesz meg egy régi monitort és ahhoz kell igazítanod a különféle beállításokat, hogy az ne tördelje a képet, mert túl gyorsan kapja.
STALKER modok: https://drive.google.com/folderview?id=0B_PtTRL86S2UQllOam9MUWZ1ak0&usp=sharing
poirot
senior tag
Köszönöm a válaszokat, akkor ezekszerint nem kell figyelembe vennem a monitort a Hz szempontjából.
Teasüti
nagyúr
Annyival kiegészíteném, hogy a V-sync és az fps cap az két különböző dolog. V-sync az precízen a monitor időzítéséhez igazítja a képet, ami lehet tört is, pl: 59,94 Hz, stb.
Míg az fps cap egy szoftveres korlát, ami arra hivatott, hogy a VRR tartományban tartsa az fps-t (és így V-sync-re elvileg nincs szükség), mondjuk beállítod 59 fps-re a 48-60 Hz közti VRR tartományú monitoron a játékot és az úgy szupi lesz V-sync nélkül is.
[ Szerkesztve ]
(#121778) -=RelakS=- válasza -=RelakS=- (#121772) üzenetére
-=RelakS=-
veterán
Na, megvan, mire emlékeztem:
Battle(non)sense videója
G-Sync + framerate limiter = screen tearing a kép alján. Ezt vagy erőszakosabb framerate limittel, vagy vsynccel lehet orvosolni.
Egy újabb videójában G-Sync kompatibilis monitorral is előjött a probléma.
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Teasüti
nagyúr
Write-only: az erőszakosabb fps cap alatt azt érted, amit eggyel felette írtam?
Ha 60 fps cap van beállítva egy 59,9x Hz-es panelen, akkor nem csoda ha töri a képet azon a sebességen (mert ez technikailag már gyorsabb a monitornál). 59-en elvileg már jónak kéne lennie.
[ Szerkesztve ]
-=RelakS=-
veterán
Megnézted a videót? 144Hz-es monitoron 138Hz-et állított be, és tört a kép.
Amúgy meg nem write-only, hanem időbe telt kikukázni a Youtube-ból a videót, és ez alatt az idő alatt írtad meg a magadét, beküldés előtt meg nem frissítettem
Itt streamelek játékot időnként: https://www.twitch.tv/relaks__
Krisz0418
őstag
Erdemes lecserelni egy Asus tuf vg27aq monitort? Mivel tudna tobbet az ujabb vg27aq1 vagy vg27aql1a? Azt latom hogy 165hz helyett mar 170hz a max es ilyen aprosagok. Inkabb a kepminosegre, panelre lennek kivancsi.
AMD RYZEN 5900X || GIGABYTE AORUS LIQUID 280MM || MSI TOMAHAWK B550 || CRUCIAL BALLISTIX 2x16GB 3600cl15 || CM V1200 PLATINUM || XFX MERC 6800XT ||
Teasüti
nagyúr
Este megnézem majd. De nem gondolnám, hogy VRR tartományon belül bármi okból törnie kéne a képet.
Hát pont erre találták ki a vrr-t, h az adja az órajelet, vagy mi.
[ Szerkesztve ]
Krisz0418
őstag
Amd-m van, de nem tudom mi a helyzet en se vsyncet ( a boduletes input lag miatt) se freesyncet nem hasznalok. Fix 165hz a monitor, de 200fpsnel se latok semmi keptorest meg zavaro jelenseget.
Amd-nel van egy “bovitett szinkronizalas” funkcio ami elmeletileg megszunteti a tearing/flickereket. Gyakorlatban gozom sincs mert se ugy se igy offolva minden nem talalkoztam hibaval.
AMD RYZEN 5900X || GIGABYTE AORUS LIQUID 280MM || MSI TOMAHAWK B550 || CRUCIAL BALLISTIX 2x16GB 3600cl15 || CM V1200 PLATINUM || XFX MERC 6800XT ||
(#121784) Jack Oneill válasza Jack Oneill (#121747) üzenetére
Jack Oneill
veterán
Ha már nem kaptam választ, majd én válaszolok magamnak, mert megvettem
szbalogh
őstag
Amerigo57
őstag
Agri1.
Az egyik munkaminiorom, NEC MultiSync PA242W-SV2 monitor. Hat éve használom napi
10 órát, de eddig semmi probléma nem volt vele.
Link:
Agri1
csendes tag
Bármi bevilágítást vagy glow-t lehet látni rajta, vagy az uniformity funkció megoldja
Amerigo57
őstag
Agri1.
Ebben az árkategóriában már glow vagy bevilágítás nem igen van mivel gyárilag kalibrálják, és tesztelik.
De nézd meg hasonló tulajdonságokkal , az EIZO CG2420 monitort.
Link:
Mind két monitornál a uniformity funkció működik.
Teasüti
nagyúr
Üdv!
Megjött az új monitorom (Gigabyte M32U) és lenne pár kezdő kérdésem.
Elvileg Freesync Premium Pro támogatásom van ami az OSD-ben be is van kapcsolva, viszont az AMD vezérlőpultban ezt látni:
Jól van ez így vagy vmi nem okés? A specifikáció szerinti minimum 20 Hz az megjelenik vmi beállításban, vagy ez amolyan alacsony szintű funkció, ami "csak úgy működik" beavatkozás nélkül és kész?
Valamint azt vettem észre, hogy a felezett sávszélességű HDMI 2.1 esetén (DSC vagy mi a tök tömörítéssel) igaz csak YUV 420 képet kapok, viszont nem megy ki a 10 bit sem. Fura mód 60 Hz-re visszavéve se hajlandó egyszerre a 10 bitre és a 444 formátumra, csak választhatok: vagy ez, vagy az.
Kérdés: ez VGA limitáció, amit egy új aktuális gen VGA-val meg lehet kerülni? 10 bit 444 lenne a cél minimum 4K60-on a melóhoz, de örülnék ha kimenne a 10 bit 120/144 Hz-en is (ez már csak 420/DSC tömörítéssel, ez rendben van, HDR tartalomhoz és játékhoz teljesen oké a 420). Vagy ez monitor limitáció? Arról nem láttam infót a Gigabyte oldalán, hogy a 10 bithez tömöríteni kell kötelezően. Szóval VGA vagy monitor? A kábel az 2.1 hitelesített, szóval csak a hardver jöhet szóba.
Köszi!
Agri1
csendes tag
Azért az Eizo 1.500-as kontrasztja kellemes lehet. Fáj a szívem, de horror az ára.
(a NEC 800-as kontrasztjától kicsit tartok....)
Teasüti
nagyúr
Busterftw
veterán
Displayporttal próbáld meg.
Mi a vga amúgy?
Teasüti
nagyúr
Az nincs az alaplapon (B550 Aorus Master). Ryzen 5700g az elkövető.
Alaplap 4K60-ra van specifikálva 2.1-es porttal. Meg is lepődtem, h megy a 120 Hz, igaz yuv 420-ban. Viszont a bitmélységet nem említi se a monitor, se az alaplap specifikációja.
Közben utánanéztem a DSC-nem és kétlem, h ennek köze lenne a chroma tömörítéshez.
Valamint elvileg a HDMI szabvány szerint egészen 12 bitig át kéne mennie DSC nélkül is a 4K60-nak 2.0 esetén is, hát még 2.1-el!
[ Szerkesztve ]
Krisz0418
őstag
Ha jol lattam 8bit+frc. Nem valos 10bit, ennek lehet valami koze a dologhoz?
[ Szerkesztve ]
AMD RYZEN 5900X || GIGABYTE AORUS LIQUID 280MM || MSI TOMAHAWK B550 || CRUCIAL BALLISTIX 2x16GB 3600cl15 || CM V1200 PLATINUM || XFX MERC 6800XT ||
Teasüti
nagyúr
Visszavonom. Wiki adataiból arra következtetek, hogy HDMI 2.0 módok állnak csak rendelkezésre, hiába a 2.1-es port az alaplapon. Úgy tűnik "vga" felőli limitáció a yuv 420 és a 8 bit.
Ha esetleg vki szín munkára filózna egy iGPU-n, akkor ne menjen QHD fölé még!
[ Szerkesztve ]
Teasüti
nagyúr
Nem. Tudtommal nincs valós 10 bites konzumer cucc. Talán egy 3000 dolláros Flanders az már az.
De a lényeg, hogy a 8 bit+frc is abszolút megfelel a célnak és technikailag is 10 bitesként címzi meg a vga ha úgy van beállítva.
Ez mehetne a topik összefoglalóba!
kchris78
veterán
QLEDben amiket néztem mind azok. Philips momentum meg a samu u32h850-es is 10bit frc nélkül. A tiédet FRCnek írja a display specifications.com. (samum van, nem tudom jó e egy geforce 1650ti elég e hozzá.
A HDMI csatlakozó valószínűleg az alaplapon nem tudja a DSC 1.2a-t, és/vagy hasonló sávszélességű a 2.1, mint a monitoron lévő.
Monitorról ezt írták: "Although the Gigabyte M32U supports HDMI 2.1, like most of the other HDMI 2.1 monitors we've tested, it's limited to 24Gbps."........"Because it requires DSC 1.2a and is limited to 24Gbps over HDMI 2.1, the PS5 only works at 4k @ 120Hz with 4:2:0 chroma subsampling since the PS5 doesn't currently support DSC."
Ha vennél egy DSC-s Displayport 1.4-es videokártyát hozzá, akkor simán menne a 4K 144 Hz 10 bit. (mint nekem az RTX2060-nal)
Holnap országszerte 10 fok várható. Ebből 2 Budapesten, 1 Győrött, 2 Miskolcon...
Jack Oneill
veterán
Ha egy monitoron van HDMI es display port, melyiket jobb hasznalni?