Hirdetés

2024. április 18., csütörtök

Gyorskeresés

Hozzászólások

(#451) M.T. válasza syIex (#450) üzenetére


M.T.
senior tag

Ha lehet hinni a pletykáknak lesz abból is egy 20 Gb os verzió de persze míg nincs hivatalos bejelentés addig semmi se biztos

(#452) DanD88


DanD88
tag

Kérdés: mennyire hülyeség pont most vennem rtx 2060-at.

Szívesen vennék én 3060-at is, de bizonytalan hogy lesz-e novemberben, vagy csak januárban, vagy ki tudja - miközben lehet majd heteket kell utána várni hogy nálunk is megjelenjen, majd azután még ki tudja mennyit hogy az ára is kicsit mérséklődjön...
Még talán a 3070 is érdekelne ha... nem 8GB rammal jönne. Azért annyi pénzért illene több.

Közben meg itt van nekem az rx580 4GB. Amivel folyton állítgatnom kell a beállításokon hogy legyen stabil 60fps FHD-ban, az egyik driverrel az egyik játék nem fut, a másikkal a másik akad be, pár hónapja még vígan blackscreenezett desktopon, ha nem veszem le a textúrákat, cudarul akadozik - ja és mivel az amd opengl implementációja egy szemét, emulálni sem lehet vele rendesen.

A konfigom B450, 1600AF, 16GB, sata ssd 3db, seasonic 650 gold.

Majd ha lesz 4600 előbb utóbb lesz csere, és azzal együtt B550 v jobb, 32GB 3200 v jobb, és nvme ssd, első ízben vszinű gen3.

RTX on is érdekel, de első ízben Minecraft, Quake 2 meg esetleg Fortnite.

(#453) Palinko válasza M.T. (#446) üzenetére


Palinko
tag

Most lehet hogy marhaságot fogok írni de ez szerintem az top tier tápoknál nincs így, mert a táp érzékeli hogy melyik ágról mennyit húznak le és úgy osztja el a dolgokat belül, nem úgy néz ki hogy minden ágra arányosan elosztva megy ki a kraft és jobban jársz ha 2 helyről húzod mintha 1 ről, hanem úgy hogy belül érzékeli hogy most erre az ágra kell kreaft és oda irányítja. Ez most egy nagyon szarul elmagyarázott dolog volt de leegyszerűsítve én úgy tudom fedi a valóságot és nem csak a top tier hanem a középkategóriás, vagy akár minden új táp esetében.

(#454) tasiadam


tasiadam
veterán

Ha a 5700XT 400 dollaros savban van most, es a 3070 500 dollar lesz, es az 5700XT annyira nem a 2080 Ti szintje, igy a BIG NAVI egy hatalmas zako lesz, vagy egy krva olcso AMD sorozat jon? Mert kizartnak tartom, hogy ilyet fog alkotni az AMD, mint az nvidia most.

Gyermektelen, nem házas, másodrangú állampolgár

(#455) tasiadam válasza DanD88 (#452) üzenetére


tasiadam
veterán

Ugyan ez a bajom nekem is. Itt az 580 de en alig jatszom. Kene valami jobb, de kis fogyasztasu kartya. 1650s nem eri meg. 1660S +20% ero 100%os feláron az 580hoz kepest. Ha kapnek 100e ft kornyeken valami +50%ot, akkor azt mondom egye fene. De a 2060 se esik ide. 120at megint nem er.

Gyermektelen, nem házas, másodrangú állampolgár

(#456) BiP válasza Moby (#426) üzenetére


BiP
nagyúr

Bármit néztem korábban linear scalinggel (Windows, HighDPI-t nem támogató programok, régi játékok), mind kockásnak láttam. Azért mondtam, hogy 4K monitoron még ezzel sem lesz szebb, mint a natív FullHD.
Most megnéztem ezzel a szoftverrel (sajnos nincs Turing kártyám. Bár az Ampere debut fényében annyira mégsem sajnos :) ) )
32" 4K - fullHD-n. F1 2018-at gyorsan felraktam, ez volt hirtelen kéznél - nekem még mindig kockás. Menüben, állóképnél, szövegnél jobban látszik, játék közben azért nem zavaró.
Eddig semmilyen monitoromon natív felbontásnál nem észleltem, hogy kockás lenne, ezért mondtam, hogy túlzó a kijelentés, hogy legalább olyan jó vagy jobb.
Nem azt mondom, hogy nem használható, mert a 4K monitornak egyéb előnyei vannak, és ha valaki ezen akar fullHD-n játszani, akkor vállalható, de ne mondjuk, hogy ugyanolyan vagy jobb.
27" fullHD van még itthon, holnap megnézem azon is, hogy élesben összevessem.

(#457) Kansas válasza BiP (#456) üzenetére


Kansas
addikt

Egy 32" FHD-hoz hasonlítsd inkább, ha teheted, mert 27" és 32" közt is van akkora különbség, ami adott esetben kihozza a kockásodást - és hát persze hogy kicsit kockás, ha 1 pixel helyett 2x2 van, de legalább nem elmosott, mint interpolációval... de jó hogy mondod, ennek utánajárok én is, mielőtt 4K monitort veszek.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#458) BiP válasza Kansas (#457) üzenetére


BiP
nagyúr

Bocs, az most épp nincs itthon :)
De korábban 27" 4K-n is kockásnak láttam az interpolált képet. Ezért örültem, amikor a Windows is javult, és egyre több program is elkezdte támogatni a HighDPI-t.

Nem elmosott, ez oké.
Csak itt ugye arról ment az elmélkedés, hogy teljesen kiváltja, sőt, még jobb is mint natívban. Hát szerintem nem.
Nyilván a 4K monitornak számos egyéb előnye van, és ezt a fullHD-s kompromisszumot megérheti, csak eddig sok embertől olvastam már itt a PH-n, hogy a 2x2 pixel linear scale 4K-n tök ugyanaz, mint a natív fullHD. A logika ezt mondatja, meg elméletben lehet, de a gyakorlatban mégsem ugyanolyan. Az én szemem legalábbis nem látja ugyanolyannak. - biztos csak én vagyok finnyás.
(Meg aztán a többségről kiderült, hogy sosem látott 4K monitort élőben, az elméletre alapozva állította.)
Egyébként egy ilyen scalinges beszélgetésből kiderült, hogy létezik olyan monitor (LG), ami hardverből támogatja a linear scale-t, tehát nem kell GPU-ból vagy driverből trükközni, hanem a monitor maga tudja, és állítólag szép is. Élőben sajnos ezt meg én nem láttam. (az enyém nem ilyen :( )

Úgyhogy azt mondom én is, hogy ha lehetőséged lesz rá, próbáld ki magad, és nézd meg, mennyire tetszik, mennyire elfogadható, stb.

[ Szerkesztve ]

(#459) Lajtorja válasza Palinko (#453) üzenetére


Lajtorja
aktív tag

Talán ezt hívják single railnek? ;)

--- ---

(#460) Cassi válasza syIex (#450) üzenetére


Cassi
senior tag

A 3080-ban az X-es gyorsabb memória van, a Ti-ben meg nem. Volt már példa rá korábban, hogy alacsonyabb kategóriás GPU-hoz volt több memóriás változat.

(#461) Kansas válasza Palinko (#453) üzenetére


Kansas
addikt

A kraftot nem irányítja a táp semerre, az elektromos áram nem úgy működik. Ha egy ágra rádugsz egy 10W-os fogyasztót, a másikra meg 200W-ost, akkor eszerint oszlik meg a rajta átfolyó áram mennyisége(áramerőssége).
A két ágas tápok azért két ágasak, mert az IEC 60950-1 szabványban le van fektetve, hogy egy ágon nem lehet 20A-nál többet leadni, és ugye ebből fakadóan 20A*12V=240W max fogyasztást bír el egy ágon, utána leold a túláramvédő, tehát aki nagy teljesítményű tápot akart, az szétbontotta több ágra.
Részletesebb info itt.

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#462) Moby válasza Kansas (#457) üzenetére


Moby
addikt

>de legalább nem elmosott, mint interpolációval...

Pontosan ennyi a lényege az integer scalingnek :) Nem mosotthomály. Nincs interpoláció. Persze, hogy kockás. Pont annyira, mint fullhd-n, hiszen éppen az történik.

(#463) Kansas válasza Moby (#462) üzenetére


Kansas
addikt

Kösz az infót, azt hiszem, világos, hogy tudtam eddig is - ezzel együtt abban lehet valami, hogy kockásabbnak látszhat, ha nem 1 pixel világít, hanem 2x2 pixelnyi négyzet, még ha kisebbek is az egyes pixelek.
Nyilván személyes érzékenységet bele kell számolni - nekem pl megfelel a 27" FHD, nem látom pixelesnek arról a ~90cm-ről ahonnan nézem, de van aki meg kifut tőle a világból és az istennek se visel el 24"-nál nagyobb FHD monitort...

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#464) Kansas válasza BiP (#458) üzenetére


Kansas
addikt

Nem tudod véletlenül, melyik az az LG monitor, ami hardverből tolja? Előbbre venném a megnézendők listáján...

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#465) VinoRosso


VinoRosso
veterán

Kissé olyannak látom a jelenkori folyamatokat chipfronton mintha valami technológiai bubble kezdene felfújódni. Megy az öldöklő verseny, hogy melyik vállalat lép nagyobbat előre és mintha nem foglalkoznának azzal, hogy van-e érdeklődő az új cuccokra. Komolyan kérdezem ezeket a kártyákat a piac hány százaléka tudja érdemben kihasználni? Az emberek zöme még 1080p felett sem játszik, oda még az 10xx-ek is bőven elegek.
Ezek a kártyákat kb 4K RT-re van értelme megvenni, az meg talán ha a piac 5%-a.

(#466) duracell89 válasza VinoRosso (#465) üzenetére


duracell89
senior tag

Tekintve, hogy 4K-n olyan 5-7% játszik, és van kb 10 normális RT játék szntem a 4K RT célközönség a piac 1%-a alatti.

szerk.: nyilván ha az nvidia előre néz mondjuk 2 évet és reméli, hogy érvényesül a “build it and they’ll come” elv, és mikor már minden Jancsika gépe viszi az RT-t, akkor a fejlesztők rááldozzák az extra befektetést a tömeg játékoknál (lásd wow shadowlands etc upcoming RT játékok)

[ Szerkesztve ]

(#467) Kansas válasza VinoRosso (#465) üzenetére


Kansas
addikt

Van valami abban, amit írsz, másrészt ne felejtsd el, hogy az az 5% az a piac leggazdagabb 4%-a meg a legfanatikusabb 1%, ami igazából nem engedhetné meg magának, de csakazért is megveszi... emellett persze csodálkoznék, ha a játékosok ez az 5%-a mind játszana RT címekkel, egy részük tuti csak neofíliás...
A 3090 meg elvileg képes 8K/60 RTX-re, bár hogy ki köt PC-re 8K-s kijelzőt, az más kérdés, de neki biztos van pénze a 3090-re is mellé, tekintve a 8K kijelzők árát...

(#466) duracell89 : ahogy mondod, megelőztél :R

[ Szerkesztve ]

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#468) VinoRosso válasza duracell89 (#466) üzenetére


VinoRosso
veterán

Nem lett volna értelmesebb fele ekkora chipeket tervezni? A fogyasztása fel ekkora lenne, kis hatékonyság növeléssel meg magasabb órajelekkel az is verne 5-10%-ot a 20xx-re, ami ugyan nem nagy, de azon a szérián alig vannak, a többinek meg ez a plusz is nagy ugrás. Emellé még olcsóbb ár társulna, meg nem kéne attól tartani, hogy kigyullad a vas mint a 2080 Ti esetében.
Na mindegy remélem majd jönnek low endebb kártyák is, nem lenne rossz valami 1070 szintű passzívan hűthető VGA hasonlóan agresszív árazással, kidobnám a vizet meg a maradék ventit is a gépből.

(#469) Carlos Padre válasza duracell89 (#466) üzenetére


Carlos Padre
veterán

Elfelejted, hogy mindkét nextgen konzol egyik legfontosabb fícsöre pont az RT, amiben jók, miközben a 20xx széria meg harmatgyenge. És mivel minden jövendőbeli konzolos és crossplatform játék használni fogja így muszáj kijönniük valami sokkal erősebb megoldással. A nextgen konzolok miatt fog elterjedni az RT, úgyhogy az Nvidiának ott kell lenni.

[ Szerkesztve ]

Genyó vagyok, ha hülye vagy megmondom.

(#470) #30786816 válasza VinoRosso (#468) üzenetére


#30786816
törölt tag

A forgalom mar kozel felet, de a profit nagyobbik reszet a data centerek adjak, oda nincs olyan, hogy tul sok teljesitmeny. Jatekra kulon chipet fejleszteni luxus lenne, a dlss, ray tracing lenyegeben az oda szant feldolgozoegysegek marketingelese jatekosoknak.

De nem is ertem ezeket az eszmefuttatasokat, mar evek ota nem a jatek az nvidia fo celkozonsege. A korabbi aremeleseken se kell csodalkozni, amig szerverekbe 10000+ dollarert adnak el egy kartyat, addig nem fogjak gamer Pistikenek bagoert kidobalni a chipeket.

Also kategoriat mar el is engedtek, 1030 gt ota nem jott oda semmit, azt viheti az amd. Azon se lepodnek meg, ha ebben a sorozatban mar 50-es kartya se jonne.

[ Szerkesztve ]

(#471) Cifu válasza Carlos Padre (#469) üzenetére


Cifu
nagyúr

Elfelejted, hogy mindkét nextgen konzol egyik legfontosabb fícsöre pont az RT, amiben jók, miközben a 20xx széria meg harmatgyenge.

Csak kíváncsiságból: hol vannak az ezt az állítást alátámasztó tesztek?
Ez csak egy feltételezés, amíg nincsenek kint a tesztek - mivel az AMD GPU-k RT képességeiről nagyjából semmit sem tudunk.

És mivel minden jövendőbeli konzolos és crossplatform játék használni fogja így muszáj kijönniük valami sokkal erősebb megoldással.

A hardware támogatott RT egy plusz effekt. Hogy "kellene" kijönniük egy normális RT adaptációval az egyértelmű, kérdés valóban sikerül-e felzárkózniuk az nVidia-hoz, mert ők már 2 éve a piacon vannak ezzel.

Az állításodban annyi igazság van, hogy mivel a konzolokban is AMD féle megoldás lesz, akármilyen szinten is van az, az lesz feltehetően az alapszint. De ettől még nem garancia arra, hogy az AMD utól tudja érni az nVidiát, akik a jelek szerint szintet léptek e téren.

A nextgen konzolok miatt fog elterjedni az RT, úgyhogy az Nvidiának ott kell lenni.

Az nVidia miatt jelent egyáltalán meg a hardware gyorsított RT. Eddig nagyon úgy néz ki, hogy az AMD csak reagál az nVidia fejlesztésére.

[ Szerkesztve ]

Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

(#472) #72042496 válasza Cifu (#471) üzenetére


#72042496
törölt tag

Ha a next-gen konzolok jók is lesznek RT-ben (amit teljesen reálisnak tartok), mikorra jönnek ezt kiaknázó next-gen játékok? Szerintem akkorra már a Hopperről fogunk itt beszélgetni vagy annak az utódjáról. :)

(#473) yericho800 válasza tasiadam (#455) üzenetére


yericho800
aktív tag

2060 láttam ott 85k is a minap :K

R5 3600 4,2ghz -2x16gb tridentz neo 3600mhz - 3060ti ftw3 ultra

(#474) K0vasz válasza tasiadam (#454) üzenetére


K0vasz
aktív tag

inkább az lesz a zakó, hogy a 100 dollárral drágább 3070 vagy 50%-kal erősebb, mint az 5700XT :D és akkor vagy nagyon leviszik az árát, vagy egy darabot nem fognak belőle eladni

(#475) Lord Myn


Lord Myn
senior tag

Szép a számítási teljesítménye az új kártyáknak... Lehet egy 3070-re benevezek ősszel a 2070 (non-Super) helyére, de a 2070 csak akkor adom el majd, mert azért addig csak jön egy Mafia I DE. :U

"War does not determine who is right - only who is left."

(#476) b. válasza #72042496 (#472) üzenetére


b.
félisten

Hova tűnt Cifu kommentje? :F

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#477) Chrys_ válasza Kansas (#467) üzenetére


Chrys_
addikt

Akik eddig megvették a 2080TI-t, azok egy jó részének nem lesz gond a 3090 sem.

(#478) K0vasz válasza Carlos Padre (#469) üzenetére


K0vasz
aktív tag

Elfelejted, hogy mindkét nextgen konzol egyik legfontosabb fícsöre pont az RT, amiben jók,

ezt honnan is tudjuk? merthogy az alapján, ami eddig kiszivárgott, az RT csak nagyon korlátozottan lesz használva a konzolokban is, mivel túlságosan erőforrásigényes a dolog

(#479) Puma K válasza b. (#476) üzenetére


Puma K
veterán

Ott van az: [kép]

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#480) #06658560


#06658560
törölt tag

Az volt már, hogy az Alienware már bejelentett 3xxx alapon notit 300Hz frissítésű panellel?

(#481) Puma K válasza yericho800 (#473) üzenetére


Puma K
veterán

Nem rossz kis kártya.

Rosszabbra számítottam. Hasonlóan mint anno a GTX 1070 -> 1050 Ti váltásnál.
Csak a 6GB VRAM bekorlátozza.

"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

(#482) Sanya válasza Carlos Padre (#469) üzenetére


Sanya
nagyúr

Októberben megtudjuk, hogy mit is tud az AMD rendszere. Eddig sem volt rossz, persze a csúcskategóriától messze volt sajnos, nehéz egyszerre csúcson lenni a cpu és a gpu piacon egyaránt.

Emellett várjuk meg az első teszteket az nvidia rendszerekről is. A bulldozer cpu is mindent vitt annak idején és mégis harmatgyenge volt.

Valamint azt is vegyük figyelembe, hogy a 2080ti-nél is gyorsabb, és sokkal olcsóbb kártyát hozott ki az nvidia a piacra. Ők egyébként tudják, hogy mit tud az amd új rendszere (ipari kémkedés), ennek megfelelően árazták be a kártyáikat. Véleményem szerint, ami amúgy lehet marhaság is, az AMD kártyái jól sikerültek, erősek, az Nvidia emiatt csökkentett ekkora árat (2080ti teljesítményű kártya ára 1400 USD-ről 500usd alá esett., 2080ti-t bőven verő 3090 kártya is 1400 usd alá nézett be.
Ha azt nézzük, hogy az nvidia nem szeretetszolgálat, hanem egy kapitalista cég, aki a pofitmaximalizálás hajt, akkor ezt a lépést nem tenné meg, ha az AMD csúcskártyája éppencsak meghaladja a 2080ti, azaz a 3070 kártya teljesítményét.

Én most kezdenék el AMD részvényt venni :D

[ Szerkesztve ]

A bortól bolondokat gondol az ember, DE A PÁLINKÁTÓL MEG IS CSINÁLJA!!!

(#483) BiP válasza Kansas (#464) üzenetére


BiP
nagyúr

Sajnos nem, ha tudnám/emlékeznék már leírtam volna :(
Ezt egy pár éve lezajlott hasonló fórumbeszélgetésben ejtette meg a srác, hogy neki a monitorja is tudja. Majd megpróbálom megkeresni, de nem sok esélyt látok rá.

(#484) b. válasza Puma K (#479) üzenetére


b.
félisten

Jah igen látom kivel vitázik, megvan a magyarázat :DDD

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

(#485) BoneDragon válasza b. (#484) üzenetére


BoneDragon
veterán

Magyarázhat annak, aki látja a konzoltol az erdőt. :DDD

(#486) BoneDragon válasza BoneDragon (#485) üzenetére


BoneDragon
veterán

+nem
bah...

(#487) K0vasz válasza Sanya (#482) üzenetére


K0vasz
aktív tag

Valamint azt is vegyük figyelembe, hogy a 2080ti-nél is gyorsabb, és sokkal olcsóbb kártyát hozott ki az nvidia a piacra. Ők egyébként tudják, hogy mit tud az amd új rendszere (ipari kémkedés), ennek megfelelően árazták be a kártyáikat. Véleményem szerint, ami amúgy lehet marhaság is, az AMD kártyái jól sikerültek, erősek, az Nvidia emiatt csökkentett ekkora árat (2080ti teljesítményű kártya ára 1400 USD-ről 500usd alá esett., 2080ti-t bőven verő 3090 kártya is 1400 usd alá nézett be.
Ha azt nézzük, hogy az nvidia nem szeretetszolgálat, hanem egy kapitalista cég, aki a pofitmaximalizálás hajt, akkor ezt a lépést nem tenné meg, ha az AMD csúcskártyája éppencsak meghaladja a 2080ti, azaz a 3070 kártya teljesítményét.

hatalmas +1 :)
én csak az AMD szokásos balfaszkodása miatt aggódok igazából (paperlaunch, BIOS-mizéria, driverek, gyárilag szarrá húzzák, hogy tartani tudja a lépést az nvidia kártyákkal stb.)

(#488) Moby válasza Kansas (#464) üzenetére


Moby
addikt

Miért kell, hogy a monitor tudja? Ha jól látom 5700XT-t van, az amd-k is tudják GCN-től felfele az integer scalinget.

[ Szerkesztve ]

(#489) Palinko válasza Kansas (#461) üzenetére


Palinko
tag

Igen ez már valóban sokkal szakmaibb, az end usernek úgy is az a lényeg hogy hány csatlakozót dug a tápra, és én biztos hogy egyet dugtam pedig a kártya kb ebbe a 300-350 watt körül van szóval a 3090 tulajoknak sem kell majd fosni ha nem spóroltak a tápon, akkor bírni fogja a gép, persze ha pont ezt centizték ki az előző buildre, akkor nyilván már nem.

(#490) ollie válasza #30786816 (#470) üzenetére


ollie
MODERÁTOR

Az 1650 eléggé alsó kategória.

***

(#491) #54625216 válasza Sanya (#482) üzenetére


#54625216
törölt tag

Úgy látszik a bányászat kifutása most érezteti a hatását a VGA-k ár/teljesítményében.

(#492) tasiadam válasza Sanya (#482) üzenetére


tasiadam
veterán

"na majd az AMD megmutatja!" "Na majd az RDNA2!"
Megjelennek a konzolok, 500 euro, egy RDNA2 alatt gyartott sima 5700 lenyegeben az igpu...
Es kiderul h mire megjelenik, annyit is er, hogy a 8 magos procival es ssd-vel 500 dollar. :D

Gyermektelen, nem házas, másodrangú állampolgár

(#493) ladyka válasza Chrys_ (#477) üzenetére


ladyka
csendes tag

En pont azon agyalok, hogy a 3080 elég lesz. Főleg ha sikerült gariztatnom a 2080Ti. A maradékot pedig majd veszek valamit

(#494) Palinko válasza VinoRosso (#465) üzenetére


Palinko
tag

Jah és a játékok már nem fognak grafikailag fejlődni igaz? :D A kiöregedő konzolgeneráció tartja vissza a grafikai fejlődést mint általában a generáció végén, meglátod ahogy jön a PS5 meg az új Xbox és 2-3 év múlva olyan játékok jönnek amik a mostani 10xx-en diavetítés se lesz, már most a 970 a minimális rendszerkövetelmény pár helyen szóval egy 1060-al még elvagy, de pár év múlva az aktuális címek minimális felbontáson sem fognak futni egy 1060-on. Nyilván előbb kell kidobni a hardwaret mint a játékot, kevesen vannak azok akik csak a mostani játékok miatt vesznek gépet, mindenkit érdekelnek címek amik majd jönnek nézd csak meg hányan fejlesztettek gépet részben a Cyberpunk miatt.

(#495) Đusty válasza #54625216 (#491) üzenetére


Đusty
őstag

Szerintem is benne van a dologban, épp ideje volt.

[ Szerkesztve ]

(#496) Kansas válasza Moby (#488) üzenetére


Kansas
addikt

Nem kell, de BiP írta, hogy hallomása szerint szép eredményt ad.
Tudom, hogy a Navi-m tudja, mi több, be is ban kapcsolva, de mivel nincs 4K monitorom még, sok hasznát nem veszem - nem retrózok, és 4K alatt sok értelme nincs, mert nincs olyan felbontás, amire érdemes lenne leskálázni

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

(#497) #30786816 válasza ollie (#490) üzenetére


#30786816
törölt tag

Teljesitmenyben lehet, arban nem igazan. xx50 Ti egy egesz jo kozepes valasztas szokott lenni, most meg ki se adtak ilyet. Persze lehet, hogy AMD is ezt csinalja, oket abszolut nem kovetem.

(#498) BiP válasza Kansas (#496) üzenetére


BiP
nagyúr

Eredményben szterintem ugyanazt adja, mint a szoftveres/driveres megoldás.
Úgy szép, hogy szebb, mint a monitoros interpoláció, amit az enyém tud.

(#499) #30786816 válasza Sanya (#482) üzenetére


#30786816
törölt tag

"Én most kezdenék el AMD részvényt venni :D"

Tobb okbol se tedd.

170-es P/E rataja van, mar igy is tularazott, mert a jo procikat egyelore nem tudtak uzleti eredmenyre forditani.

Az epyc eros, de szerver fronton mar nem az intel a legnagyobb fenyegetes, hanem a legnagyobb szervergyartok - Amazon, Google, Microsoft - sajat fejlesztesu, arm alapu processzorai. A vilag legerosebb szuperszamitogepenis arm alapu.

Desktop fronton meg kellene torni Intel OEM beagyazottsagat, de mar ott is dorombol az ajton az arm, ha Apple lepese sikeres, akkor a Microsoft is ugrik. Nvidia pedig nagyon ugy nez ki megveszi az arm-ot, igy ok is beszallnak a buliba, varnatoan szerver es desktop vonalon is.
High-end gpu kis piac, also-kozep kategoriat meg a streaming fenyegeti. Nem tudom, keszul-e geforce now-szeru streaming szolgaltatasuk, de ideje lenne.

Marad biztos piacnak a konzol, de az edeskeves ehhez az arhoz. Most se Intelt, se AMD-t ne vegyen senki, aki nem szeret roulettezni.

(#500) Kansas válasza BiP (#498) üzenetére


Kansas
addikt

Aha, akkor igazából mindegy is ezek szerint, hogy tudja a monitor vagy sem. Ez végül is jó dolog, nem kell akkor erre külön figyelni monitorvásárlásnál.

Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.