Hirdetés
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- urandom0: Száműztem az AI-t az életemből
- eBay-es kütyük kis pénzért
- Brogyi: CTEK akkumulátor töltő és másolatai
- Elektromos rásegítésű kerékpárok
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Real Racing 3 - Freemium csoda
- hcl: Poco F2 Pro facepalm
Új hozzászólás Aktív témák
-
Volt rengeteg AGP-s kártya az első nagycikkemben, aztán a legerősebb AGP-s kártya témáját ebben a cikkben is kiveséztem, így már újabb AGP-s cikket nem tervezek csinálni.
-
Gondolkodtam rajta, hogy ezek a régebbi szériák is szerepeljenek a cikkben, de az már nagyon overkill lett volna
Nameg akkor még egy külön AGP rendszer is kellett volna, ráadásul ezek a kártyák mára már beszerezhetetlenek, vagy horror árat kérnek értük. De utólag kicsit bánom, hogy nem mondjuk GF256/Radeon7200-tól indítottam ezt a cikket... -
-
Mert nincs a kártyámon 2 db HDMI
A TV-re ugye eleve csak HDMI mehet, a monitort meg szintén csak HDMI-ről vagyok hajlandó hajtani a DP fentebb már említett "ha kikapcsolod megszűnik létezni" viselkedése miatt. Plusz így nem függök semmilyen SW-es beállítástól, a két kijelző mindig szinkronban van, bármilyen kártyára van kötve, bármikor (akár BIOS-ban is - nem mint ha kellene, csak egy példa) -
Na a DP a másik amit gyűlölök
méghozzá amiatt a viselkedése miatt, hogy ha a DP-s monitort kikapcsolod (NEM lehúzod a kábelt csak simán kikapcsolod) akkor a windows számára az a monitor megszűnik létezni, és nekiáll szétcseszni a teljes display configot, átrendezni az ablakokat, ikonokat, mindent. Mivel mint írtam én rendszeresen lekapcsolom a monitort, ha éppen filmet nézek a TV-n, ezért számomra kizárólag a HDMI jöhet szóba, mert az ilyet nem csinál. HDMI-ből meg általában csak 1 db van egy kártyán, ezért kell a splitter. Az utóbbi 12 évben így használom, és tökéletesen bevált. -
A szinkronba kötés pontosan azt jelenti ahogy hangzik: a kimenet szét van osztva egy hardware-es HDMI splitterrel a monitor és a TV között. Egy időben mehet akár mindkettő is, anélkül, hogy a windows két kijelzőnek látná, de persze csak az egyiket szoktam használni: filmnézésre a TV-t, minden másra a monitort. Hogy mitől csapja vissza néha 60 Hz-re, azt nem tudom. Van egy másodlagos monitorom is, az 60 Hz-es, lehet hogy amiatt. Azt néha lehúzom, néha visszadugom. Lehet, hogy amikor visszadugsz egy 60 Hz-est, akkor mindent 60-ra állít. Őszintén szólva nem nagyon érdekel, mert számomra annyira észrevehetetlen a 60 és 120 Hz közötti különbség, hogy mostanában már arra sem veszem a fáradságot, hogy visszaállítsam 60-ról 120-ra.
-
Hidd el, nem mindenkinek okoz wow érzést a magas frissítés. Én kipróbáltam, és szinte észre se veszem. Most egy 240 Hz-re képes Full HD monitorom van, amit 120 Hz-en használok mert szinkronba van kötve a TV-vel ami szintén ennyit tud. A Windows rendszertelen időközönként önhatalmúlag visszacsapja 60 Hz-re, és ilyenkor baromi sokára veszem csak észre, hogy valami nem stimmel
A 60 és 120 Hz közötti különbség számomra szinte észrevehetetlen, a 240-et pedig ki se próbáltam, tök fölösleges.A 4K-val szintén úgy vagyok hogy kipróbáltam, aztán álltam is vissza Full HD-ra. Játékokban szép a 4K, de minden másban számomra undorító a Windows förtelmes UI skálázása miatt. Próbáltam azt is, hogy 4K kijelzőn a Windows desktop Full HD-ban menjen. Naívan azt hittem, hogy akkor 4 fizikai pixelre fog jutni 1 megjelenített pixel, így nincs elcsúszás, és tűéles lesz a kép. Hát egy fenét, skálázgatja (= szarrá mossa) a képet a monitor önhatalmúlag, és ez nem kikapcsolható. Szóval én maradok Full HD-n és az se lenne katasztrófa ha csak 60Hz lenne. Az viszont örvendetes, hogy ehhez egyre kisebb kategóriájú GPU-ra lesz szükségem

-
Igen, ez a lelassult fejlődés nekem is szemet szúrt, de sztem GPU fronton még nem is annyira látványos, mint CPU fronton. Ott aztán tényleg semmi fejlődés nincs. És nem csak az Intel szenvedése miatt, mert a tesztkonfigban szereplő i7-9700 helyett a teszt idejére a napi használós gépemben egy Ryzen 7700x-et használtam. Egyáltalán nem adott nekem szinte semmi extrát, de mellette még egy kazán is volt az i7-hez képest, és a batár nagy Dark Rock Pro 4 hűtőmet úgy túráztatta terhelés hatására, mint az i7 sose. A teszt végeztével ment is vissza szépen használósnak az i7-9700, a Ryzent meg eladtam. 5 éves proci, és tökéletesen elég nekem mindenre.
-
Ebben a cikkemben szerepelt 4GB-os GTX770, az kb ugyanaz.
-
A Fury-val nem az volt a baj, hogy gyenge, hanem hogy a 980Ti árán adták a sima 980-al versenyképes kártyát
Ráadásul csak ref dizájn létezett belőle vízhűtővel vagy apró méretben. Oda lehetett volna adni az AIB gyártóknak hogy alkossanak belőle valamit, csak akkor nem menőzhettek volna vele, hogy "a mi csúcskártyánk ITX méretű"
amire vsz nem volt túl nagy igény már akkoriban se. (tudom volt sima Fury amiből volt custom változat, de az még a Fury X-nél és a Nano-nál is sokkal ritkább).A másik, hogy vajon tényleg szükség volt a méregdrága HBM-re ahhoz a kártyához? Vajon sima GDDR5-el (akár 512 bit mellett mint a 290X) nem lett volna elég a ram sávszél neki?
-
Én anno viszonylag hamar váltottam fullhd-ra, de azóta is maradtam azon. De nem a játékok miatt (persze az is öröm, hogy ez a felbontás ma már olcsón kihajtható), hanem mert egyszerűen egy desktop monitornak szerintem fölösleges nagyobb felbontás 24” méretig. Egyszer próbáltam egy 4K-s monitort, pár hét után eladtam, és visszaálltam fullhd-ra. A játékok jól néztek ki rajta, de a windows felbontás skálázása annyira borzalmas volt, hogy több nyűgöt okozott, mint örömet.
-
válasz
Armagedown
#43
üzenetére
Bocs de nem volt energiám 400 játék nyűgjeit egyesével managelgetni
Ahol eszembe jutott, és egy egyszerű Google kereséssel értelmesen és könnyen megoldható módot találtam rá, ott megcsináltam. A véleményem az, hogy ilyen korlátoknak PC-n egyáltalán nem szabadna léteznie, vagy pedig a játék saját menüjéből inaktiválhatónak kéne lennie (ahogy pl a GTA5-ben meg is tették, aztán az RDR2-ben megint kivették az "Ignore suggested limits" opciót) -
Azért régen is voltak 1600x1200-as felbontású batár CRT-k meg LCD-k, az már majdnem full hd
Aki csúcskártyát vett, joggal várhatta el, hogy ki tudja hajtani ezeket. Ugyanígy az AA: ha az adott generáció legerősebb kártyáját veszem meg, akkor elvárom, hogy működjön jól vele. Nameg minél inkább GPU limites körülményeket akartam teremteni. Ha megvolt a 30 fps, azt már játszhatónak minősítettem 
-
válasz
Armagedown
#31
üzenetére
XP-vel nem akartam már szenvedni, és az időtállóság része a modern OS-en való működés is

-
A 2900XT-t én is sajnálom hogy nem került be, de beszerezhetetlen... 2900Pro vs 8800GTS320-at terveztem betenni, de a 2900Pro-m is megdöglött

A 6800GS-nél írtam hogy miért ez lett: a nagyobb modellek (GT és Ultra) nem mennek "modern" alaplapban (1st gen core i szériától fölfele). Core2-es konfiggal meg nem akartam szórakozni
Az 560Ti kényszerből került be, mert a GTX480-nak nem láttam értelmét ha 580 is van a cikkben, hiszen majdnem ugyanaz a két kártya. Eleve az 5870-et se akartam betenni, eredetileg úgy terveztem, hogy elég lesz a 6970 de aztán meggyőztek, hogy be kéne tenni az 5870-et is, és akkor annak kellett valamilyen párt találni. A 9800gtx helyett meg nem akartam 9600GT-t betenni, mert az milyen snassz már 
Az XP konfigon én is gondolkoztam, mert akkor már ugye AGP konfig is lett volna, és le lehetett volna menni egészen kb GF256 vs Radeon7200-ig
meg években kb 2000-ig. De ez a cikk így is olyan hatalmas lett, hogy az már tényleg overkill lett volna. -
A Tesla 2.0 nem tud DX10.1-et, helyesebben csak a GT220 és a GT240 tud papíron, a nagyobbak nem, de a gyakorlatban ha jól emlékszem ezzel a két kis kártyával sem sikerült beizzítanom anno. DX12 papíron a Fermi-től van elvileg, de a gyakorlatban nem működött vele semmi, ami DX12-t igényel. A Kepleren már mentek a korai DX12 játékok, de az is csak 11_0 tehát a modernebb játékok nem mennek vele. AMD fronton az első GCN-től fölfele van feature level 11_1. Volt olyan játék, ami Kepleren nem ment, de a HD 7970-en igen.
-
válasz
MasterDeeJay
#10
üzenetére
Voltak kavarások régen is... DX8 vs 8.1 (SM1.1, SM1.4). Aztán a DX9-nél a 9a, 9b, 9c... A DX10-nél a 10.1 amit csak az AMD támogatott. A 11-nél nem rémlik ilyen. De ez a DX12 a legrosszabb user szemmel, mert tényleg minimum 5 féle kártya létezik... feature level 11_0, 11_1, 12_0, 12_1, 12_2... és mindnek a dobozára az lesz matricázva, hogy DX12 kompatibilis. És akkor az "RT-t tud vagy nem tud, ha tud akkor mennyire tud" kérdéskörről még nem is beszéltünk. Már rég DX13-nál kéne tartani minimum.
-
válasz
MasterDeeJay
#5
üzenetére
A DX12 véleményem szerint egy totális katyvasz, és user szemszögből teljesen átláthatatlan, hogy melyik kártya mit támogat, és melyik játék mit igényel. Már rég DX13-nál vagy inkább 14-nél kellene tartani, de a Microsoft szerint jól van így
Új hozzászólás Aktív témák
- SörcsaPH!
- EU-s vám vethet véget a nagyi temus vásárlási lázának
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- AMD Navi Radeon™ RX 9xxx sorozat
- Vicces képek
- urandom0: Száműztem az AI-t az életemből
- GL.iNet Flint 2 (GL-MT6000) router
- Samsung Galaxy A17 5G – megint 16
- További aktív témák...
- Hordozható napelem 3 Watt / 12 hó jótállás
- BESZÁMÍTÁS! MSI B650 WIFI R7 7800X3D 32GB DDR5 1TB SSD RX 9070 XT 16GB Zalman Z1 PLUS GIGABYTE 750W
- Segway Ninebot E3 elektromos roller - Bontatlan - Új
- Lenovo Thinkbook 16 G6 WUXGA IPS Ryzen7 7730U 16GB 512GB SSD Radeon RX Vega8 Win11 Pro Garancia
- BESZÁMÍTÁS! ASUS H510M i5 11400F 16GB DDR4 512GB SSD RTX 2060 Super 8GB Zalman T4 Plus CM 500W
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Nameg akkor még egy külön AGP rendszer is kellett volna, ráadásul ezek a kártyák mára már beszerezhetetlenek, vagy horror árat kérnek értük. De utólag kicsit bánom, hogy nem mondjuk GF256/Radeon7200-tól indítottam ezt a cikket...
A TV-re ugye eleve csak HDMI mehet, a monitort meg szintén csak HDMI-ről vagyok hajlandó hajtani a DP fentebb már említett "ha kikapcsolod megszűnik létezni" viselkedése miatt. Plusz így nem függök semmilyen SW-es beállítástól, a két kijelző mindig szinkronban van, bármilyen kártyára van kötve, bármikor (akár BIOS-ban is - nem mint ha kellene, csak egy példa)
méghozzá amiatt a viselkedése miatt, hogy ha a DP-s monitort kikapcsolod (NEM lehúzod a kábelt csak simán kikapcsolod) akkor a windows számára az a monitor megszűnik létezni, és nekiáll szétcseszni a teljes display configot, átrendezni az ablakokat, ikonokat, mindent. Mivel mint írtam én rendszeresen lekapcsolom a monitort, ha éppen filmet nézek a TV-n, ezért számomra kizárólag a HDMI jöhet szóba, mert az ilyet nem csinál. HDMI-ből meg általában csak 1 db van egy kártyán, ezért kell a splitter. Az utóbbi 12 évben így használom, és tökéletesen bevált.



