Hirdetés
- gban: Ingyen kellene, de tegnapra
- GoodSpeed: Márkaváltás sok-sok év után
- Luck Dragon: Asszociációs játék. :)
- Samus: Atomic Heart - Egy kis nyafogás
- sziku69: Szólánc.
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- GoodSpeed: 3I/Atlas: Üstökös vagy idegen civilizáció űrhajója?
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- sziku69: Fűzzük össze a szavakat :)
- bb0t: Ikea PAX gardrób és a pokol logisztikája
Új hozzászólás Aktív témák
-
Kolbi_30
őstag
válasz
huskydog17
#46962
üzenetére
Tegnap fel napot játszottam vele. Vulcan, 4k full, fsr nelkul 110 fps naggyabol fixen. Proci 5800x vga 7900xt ref.
-
válasz
huskydog17
#46613
üzenetére
Most már hivatalos. Jön a PC port és a Nixxes készíti, így végre nagy valószínűséggel ismét egy jó PC portot fogunk látni.
DLSS 3, FSR 2, XeSS támogatás, RT Shadows és RT Reflections, NVIDIA Reflex és DLAA támogatás. Lesz itt minden.
A sok katasztrofális PC port után itt az ideje, hogy a mesterek ismét megmutassák hogyan is kell jól PC-re portolni.
Aged like fine wine
-
Valdez
őstag
válasz
huskydog17
#46914
üzenetére
Nem hiszek semmit, logika alapján próbálok haladni. Kiadás előtt derül ez ki? Amikor - utánanéztem - 2021-ben jött ki a konzolokra (amiben amd van)? Ezt mégis, hogy sikerült ezt összehozni?
-
gainwardgs
veterán
válasz
huskydog17
#46910
üzenetére
Települ, kíváncsi vagyok, remélem jó lesz

-
Valdez
őstag
válasz
huskydog17
#46910
üzenetére
Hát azért ez elég kamu indok lehet a fejlesztő részéről amúgy. Amikor az RT-vel agyontolt, NVIDIA-s CP2077 meg Portal megy AMD kártyákon, akkor egy AMD-s konzolra írt játék, AMD-s pc-n túl instabil és ezért nincs RT... ugyanmár.
-
HSM
félisten
válasz
huskydog17
#46844
üzenetére
"Sőt szerintem számítógépet se használj, mert bármilyen fájlt meg lehet fertőzni."
Remélem megvan a különbség, amikor valaki megbízható forrásból származó DLL fájlokat használ szemben az innen/onnan letöltött, vagy moddolt forrásokról.
"Én azt hittem eladásokból él, de akkor lehet tévedtem."
Óriásit. A kiadó él az eladásokból, a fejlesztő pedig a fejlesztésből."Az upscaling nem zárja ki a jó képminőséget ahogy te írod."
Kinek mi a jó képminőség ugyebár. Nekem a 1440P monitoromon a natív 1440P. Próbáltam az FSR2 és DLSS2-t is, egyik sem győzött meg."A gyakorlat az ellenkezőjét mutatja."
Látványosan nem sikerült érvet is raknod az állításod mellé...."játékokban brand cég logó van a stáblista végén, ahol több logó is van? A többi nem zavar?"
Nem is értem, hogyan jutottál ilyen marhaságra, mint végkövetkeztetés.
Nem az a kérdés, engem mi zavar, hanem az, hogy a különböző jogi megkötések esetlegesen mit lehetetleníthetnek el."A nagyobb black box érdekes módon nem zavar téged"
Az a játék, amit megvásároltam.
"a kisebb black box, ami szintén egy szellemi végtermék, amit a készítők a játékélmény növelésére használnak"
Az aztán a játékélmény növelése, hogy rosszabb minőségű képet bámulhatsz.
-
HSM
félisten
válasz
huskydog17
#46728
üzenetére
"??? Hogy jön ide ez a téma, mi alapján gondolod ezt? Mindegy is, mert egyrészt nonszensz, másrészt irreleváns ez a gondolat, ugyanis a DLSS az NV saját terméke, nyilván ők azért készítették ilyen felhasználóbarátra és modulárisra, mert nincs jogi akadálya."
Jó volna, ha utánanéznél előtte, van jópár jogi vonatkozása. Lásd: [link] .
Ami meg a biztonságot illeti: [link] . Ennél könnyebben nem is nyithat valaki hátsó ajtót a gépére, mintsem egy nem megbízható/ellenőrizhető forrásból származó DLL-el...
"Ha nem akarsz forráskóddal szöszmötölni (márpedig a legtöbb játékfejlesztő nagy valószínűséggel nem akar)"
Miből gondolod, hogy nem akar? A játékfejlesztő a forráskódból él.
Komolyabb projektekben a fejlesztők éppen a fekete-dobozokat nem preferálják. Azzal nincs előrébb a fejlesztő, hogy akkor sem tud belenyúlni a működésbe (a DLL-be), ha szükség lenne rá."Arról van szó, hogy ha a felhasználó upscaling-et szeretne használni"
Te érveltél itt a minőségről. Erre én azt mondom, aki minőségre vágyik, engedje el az upscaling-et. Ha nem elég most a 4090, akkor ez van, attól nem lesz minőségibb az upscaling, hogy kevés a VGA a megcélzott beállításokhoz. Ha pedig a minőség mégsem annyira fontos, az FSR-el is bőven vállalható képminőség érhető el."a DLSS-t nagyon egyszerű beépíteni, egy tapasztalt játékkészítő pár perc alatt is be tudja építeni, az pedig nem lehet nagy költség"
Nemcsak beépíteni kell, hanem utána esetlegesen karbantartani a játék részeként, plusz a jogi szöveg értelmében pl. a betöltő képernyőn is logót elhelyezni és tájékoztatni az Nv-t a használatról."Még egyszer érdemes zárójelben megjegyezni, hogy a játék amivel játszol szintén egy black box. Azzal nincs problémád?"
Nincs. A játék egy végtermék, amit használsz. Valamint abból nem is készülhet általában újabb játék.
#46727 Busterftw : 2080Ti körül szokott lenni RT-ben a 6800XT...
-
HSM
félisten
válasz
huskydog17
#46706
üzenetére
"akkor saját maga (tehát a felhasználó, a játékos) kicserélheti kedve szerint bármelyik verzióra"
Itt azért felmerülnek problémák, akár jogi, akár biztonsági szempontból."...ezzel a DLSS teljesen automatikusan lefrissíti magát, a fejlesztőnek nem kell vele foglalkozni. Ez a fejlesztőnek és a játékosnak is jó."
Nyilván látták, hogy a kézi DLL cserélgetés problémás, megoldották, bár azért nem az igazi, hogy csak fejlesztői jóváhagyással működik. Persze, hogy ez mennyire jó, azzal lehetne vitatkozni."a fejlesztők túlnyomó többsége a büdös életben nem fog nekiállni átírni az FSR forráskódját"
Miért kéne átírják?
A nyílt forráskód nem csak az átírás lehetőségéről szól, hanem fontos a könnyebb hibakezelés, és hogy nincsenek külső DLL-ek sem."A felhasználóknak inkább a "feketedoboz" kell, mert egyszerűen jobb minőséget ad."
Ahelyett, hogy vennének egy normális videókártyát, amihez nem kellenek ilyen szuboptimális megoldások, és elbírja natívan.... Ha már fontos a minőség, ugyebár.
"ha egy játékban kizárólag FSR-t teszik elérhetővé, ezzel csak a játékossal (vásárlóval) szúrnak ki"
Egy kiadónak minden technológia beépítése plusz költség, amit utána karban is kell tartani. Persze, kiszúrásból is kimaradhat, de azért más szempontból ez is egy őrület, hogy ugyanarra a feladatra rakjanak bele 3-féle megoldást is. Aztán meg csodálkozunk, hogy a mai játékok tele vannak feature-ökkel, aztán a fele nem működik kiadáskor....
Említetted az Nv piaci részesedését, itt azért hozzátenném, hogy a DLSS-hez RTX kártya kell, ami nyilvánvalóan lényegesenen kevesebb, mint a teljes piaci részesedésük. Én ezt is hátránynak látom, a black box jelleg mellett.#46709 b. : A gond, hogy akkorát nem ugrottak, mint a felhasználói igények... Legyen magas felbontás, pl. 4K az 4X annyi számolnivaló pixel, mint a FHD-n, legyen magas frissítés, sokan tolják 144Hz vagy gyorsabb megjelenítőn, legyen realtime RT, régen egyetlen sugárkövetett képkockára perceket vártál....
#46711 gejala: Lehet azért, mert közben 60%-al drágább is lett.
-
Kolbi_30
őstag
válasz
huskydog17
#46706
üzenetére
Vagy csak ugy kene optimalizálni a játékokat, hogy ne legyen ezekre szükség...
-
HSM
félisten
válasz
huskydog17
#46694
üzenetére
"DLSS out of the box jobb minőséget ad és ráadásul felhasználóbarátabb"
Én nem nevezném felhasználóbarátnak, hogy kizárólag Nv kártyákon működik."...a DLSS esetében nem kell foglalkozniuk a frissítéssel"
Miért ne kellene? Ugyanúgy igazítaniuk kell verzióváltáskor, illetve ellenőrizni a minőségét. Lásd pl. legutóbb ez a frissítés egész biztosan fejlesztői igazítást igényelt: [link] ."míg FSR esetében minden felelősség a játékfejlesztőké"
Sok fejlesztő nem szereti a feketedoboz jellegű külső csomagokat. Nincs rá hatásuk, nem látnak bele a működésébe, így ha problémát okoz, akkor nekik is nehezebb helyrehozni. -
válasz
huskydog17
#46679
üzenetére
Régebben sokat játszottam multis unreal motoros játékkal ahol arányaiban nagy területek voltak. (Red Orchestra 2 és Rising Storm) Ott amikor betöltött a pálya akkor még a textúrák felét sem töltötte be a játék.
Magyarán a félig meddig betöltött pályán is tükör folyamatosan lehetett játszani kávéfőző videókártyával is jelentős akadás nélkül. (nyilván itt nem a 64 bites vramos ultra low end kártyákra gondolok)
Voltak trükkök ezen textura streaming befolyásolására. Akkoriban úgy volt hogy aki elöbb beért a pályára lenyúlhatta a limitált kasztokat (ugyanakkor nagy felelőség is volt ez).
Ez miatt ramdriveba futtattam a játékot. (ez még a korai ssd korszak idején volt).Lényeg az hogy még ha vram/proci stb limit is volt azt a játék el tudta rejteni de csak az fps szintjén, látványban meg háát hulladék kártyával is volt fps csak egy agyonmosott paca volt minden. Ez miatt totál értelmetlen volt benchmarkolni.
Szóval szerintem unreal motor ha nem változott ezen a téren akkor alacsony vram esetén nem lesz lassabb a játék csak rondább.
Vram mérést sem igazán értem, pont az lenne a lényeg hogy totál tele legyen rakva, a sima ram üresen elpazarolt ram, ennek igaznak kellene lennie vram-ra is. Rakja tele előre akkor is ha nincs rá az adott pályán szükség, akkor és úgy töltse tele amikor nem okoz lagot. -
Ragnar_
addikt
válasz
huskydog17
#46679
üzenetére
Az egészben az 5K a legviccesebb. Már akinek a 4K kevés lenne, nem kell szomorkodnia, mert itt az 5K. Viszont a LoF nagyon jól skálázódik a proci teljesítménnyel is, ez mindenképp pozitív.
-
gV
őstag
válasz
huskydog17
#46679
üzenetére
Akkor legyen itt ez is:
Satisfactory UE5+Lumen
vigyázat! GameGPU [link]
összehasonlító képek meg a VRAM/RAM (azokat csaknem az ujjukból szopják ki) használat miatt szerintem hasznos oldal -
PuMbA
titán
válasz
huskydog17
#46679
üzenetére
Érdekes, hogy mennyire NVIDIA favorizált. 4060 Ti 8GB a 6800XT-vel egy szinten maximum grafikán 1080p-n és 1440p-n. Ha így fog folytatódni, akkor az nem jó hír az RDNA2 architektúrás kártyáknak. A 4060 Ti 16 GB így odavághat.
-
válasz
huskydog17
#46679
üzenetére
Ahogy te magad is emlitetted, szuk folyosok... ergo minimalis textura mondjuk egy open vagy reszben open scene based jatekhoz kepest...
Ez alapjan azert en meg nem konyvelnem el, hogy ez az alacsony VRAM igeny rahuzhato lesz a tobbi UE5 cimre is.

-
Raymond
titán
válasz
huskydog17
#46676
üzenetére
Sok ertelme eddig se volt szerintem. Az a +8 Ecore ami a jatekok alatt nem jelent semmit vagy a +7% orajel nem igazan eri meg a plusz 140-180EUR-t.
-
Jacek
veterán
válasz
huskydog17
#46674
üzenetére
CPU-nal szep pofontot kap a KS
-
nubreed
veterán
válasz
huskydog17
#46650
üzenetére
Mondjuk szerintem a Diablo 4 nagyon jól lett optimalizálva PC -re. Nekem a 3060Ti -omon tökéletesen fut röccenés nélkül 100+ nem tudom hány fps -el 1440p -ben DLSS nélkül is. (De mondjuk én utána direkt vissza vettem 90-re, bőven elég nekem).
-
Yutani
nagyúr
válasz
huskydog17
#46650
üzenetére
Nocsak, lehet jól is implementálni az FSR-t? A Cyberpunk 2077-ban nem sikerült, máshol meg igen? Csak akkor miért a CB2077-et hozzák itt fel némelyek példaként, hogy milyen szar az AMD meg az FSR?
-
válasz
huskydog17
#46630
üzenetére
Mivel ez a legolcsóbb AV1 enkóder kártya és játékra valljuk be nem igazán jó (RX6400-1650 szint) ezért tekintek rá úgy mint egy igen olcsó munkakártyára.
PCIE kompatibilis minden irányból. Azaz 1x slotba is rakhatsz 16x-es kártyát, és 16x-be is 1x-eset, nincs jelentősége (sávszélben persze van, illetve elvben van olyan hogy 1x slot max 25w de gyakorlatban mindegy mert a 4x-8-x16x pineken nincs táp csak adat)
Én 8x slotba raktam az A380-ast.
Összerakott gépeken valóban nem jellemző de ha valaki otthonra mondjuk dell, hp, lenovo stb gépet vesz ott simán találkozhat a 16x slott mellett 4x-8x slotokkal amelyek vége ki van vágva hogy belemenjenek a 16x kártyák is. Worstationoknál alap hogy több slot van, bussiness desktopon inkább kivágott végű 1x-4x slotok vannak pluszba. (pl optiplex)
Korábban is elég sok 8x kártya volt pl:
https://www.techpowerup.com/gpu-specs/geforce-gt-630-rev-2-pcie-x8.c2396
ma meg talán még több is van, de lehetséges hogy valami tápszabvány miatt kell 16x slotosnak lennie meg akkor is ha nincs bekötve rajta semmi.
Egy slotos kártya nem feltétlenül hangosabb mint a két slotos kártya. Nézz/halgass meg egyszer mondjuk egy Quadro M2000-est ami már ilyen 20eft-os kategória (amúgy a legolcsóbb VP9 képes kártya tehát youtube/netezni talán ez a legolcsóbb megoldás ha nincs intvga, a másik 1030GT ha van 20eft alatt) -
válasz
huskydog17
#46628
üzenetére
Úgy értem hogy fölöslegesen 16x slot hosszú amikor 8x lehetne. AV1 encode-ra, munkára másodlagos kártyának inkább 8x vagy akár csak 1x kártya lehetne és akkor nem foglalná a 16x helyet. (Bár ki szokták vágni a 4x-8x stb slot végét hogy beférjen 16x-es kártya workstationbe)
Ezt nem nevezném aprónak (ebben a kategóriában), vastag kártya ez (Asrock A380-asom van az ugyan ilyen csak tápcsatival).
Nekem volt nem egy egyslotos kártyám, nem voltak hangosak sem (Quadro szériában a kicsi modellek szinte mind egy slotosak azaz 400-600-1000-2000-3000-4000 modellek de ugyan így AMD-nél is igen sok egyslotos kártya van ennél jóval nagyobb TDP-re) -
válasz
huskydog17
#46626
üzenetére
Biostar A380. Maga a márkáról nekem jó véleményem van, volt pár lapom tőlük és igen jók voltak.
Tápcsati nincs, az jó.
PCIE 16x fölöslegesen van kivezetve ha csak 8x a kártya. (vagy táp miatt kell neki?)
Megint ez a fölöslegesen túlnagyított műanyag vacak a borda elött, ilyen kategóriában nem kell a fölösleg műanyagként sem.
60-70w-os a kártya, fele ekkora de jobb minőségű hűtés kellene rá.
Azaz az A380-asnak egy slotosnak kellene lennie.
Illetve jöhetne az A310-es modell 1x pcie-vel low profile-ban.Pontosabban minden ilyen kategóriájú kártyának eleve egy slotosnak és/vagy low profilnak kellene lennie, mivel pl az rx6400 ellenfele amiből van low profile (mondjuk az egy szerencsétlen kártya).
-
válasz
huskydog17
#46622
üzenetére
Nem 100%, de a redditszálon most boncolgatják, hoyg a Nixxes srácok azt írják a csúcs Pc től a Steamdeckig mindenre tervezik
Ebből gondolom, talán a D.S. támogatást meghagyják, átültetik. Aztán meglátjuk, valójában úgy néz ki felesleges.
Amúgy úgy néz ki az Nvidiás szivárogtatási lista valóban jó vol t 2 ével ezelőtt:[link] -
válasz
huskydog17
#46613
üzenetére
A Directstorage technológiával is, kíváncsi leszek, hogy működik.

-
Yutani
nagyúr
válasz
huskydog17
#46601
üzenetére
Képen nem látszik rossznak az FSR sem, de amint a videót nézed, látszik, mi a baj vele. Ha ezt a shimmeringet és flickeringet megszüntetnék, nem lenne (sokkal) rosszabb az XeSS-nél.
Szerk: FSR 2.2 teszt van fent a TPU-n Dead Island 2 és Jedi Survivor játékokkal, ott nincs ilyen shimmering és flickering gond, vagy minimális, szint alig látható.
Szóval a Kiberpánk nem képviseli a legjobb minőséget FSR tekintetében.
-
FLATRONW
őstag
válasz
huskydog17
#46596
üzenetére
Gondolom, cserébe még Shadow of the Mordor garafikai szintjén van.:)
-
Raymond
titán
válasz
huskydog17
#46546
üzenetére
Az 269-279EUR arat jelentene. Per pillanat sok RX6600 van a piacon 229-259EUR kozott es meg annal is tobb RX6650XT 279-319EUR kozott (van meg par RX6600XT is 279-299 meg de azok szerintem a heten elfogynak). Meglepne ha az AMD ezeket szinte eladhatatlanna tenne egy jobb ar/ertek aranyu 7600-al. Igaz az olcsobb 229-es RX6600-tol azert odebb van a 259EUR, de annyira nem. Az RX6650XT pedig vegkepp nem nezne ki jol egy 269-279-es 7600-al es azokbol van sok/tobb meg a boltokban.
Szoval lehet igaz az ar mert az AMD ugy van vele a kovetkezo ket hetben elfogy a zome RX6600/RX6650XT de ha nem lenne idealis a helyzet nekik.
-
Kolbi_30
őstag
válasz
huskydog17
#46520
üzenetére
Baldurs Gate/ Never Winter sorozat ota nem csinaltak ertekelheto jatekot..csak atskinezesekkel sorozatokat..Egyre bugyutabb szarokat keszitenek..VAn ami szep de szart sem er, van ami meg csak szepsem..
-
Raymond
titán
válasz
huskydog17
#46517
üzenetére
Szerintem ha szerencsejuk van a potencialis vasarloknak akkor lesz $299, ha nem akkor tobb.
-
válasz
huskydog17
#46493
üzenetére
Nem hiába, ha megnézed, itt aprón is már lassan 40K köré esik az ára a vega 64-nek is (Ahhoz képest, hogy azért a 1080/5700 szintet alulról súrolja)
-
Yutani
nagyúr
válasz
huskydog17
#46493
üzenetére
Egyértelműen a fejlesztő cseszett el valamit a kódban.
-
válasz
huskydog17
#46493
üzenetére
En csodalom, hogy meg vannak Vega userek

#futureproof
-
Yutani
nagyúr
válasz
huskydog17
#46490
üzenetére
-
válasz
huskydog17
#46474
üzenetére
Matrox az kb 2x többet fog kérni érte mivel speckó felhasználásra mennek.
Most amúgy itthon még csak az A380-as van HTPC célra de 50-60eft között ami sok érte.
De még így is a legolcsóbb AV1 képes kártya. A310 jöhetne már olyan 30eft körül, na az pont jó lenne HTPC kártyának valami normális hűtővel. -
válasz
huskydog17
#46470
üzenetére
A Matroxnál az Intel A310-380-ast használják fel gondolom egyedi minőségben. Nem készítenek új GPU-t. (ami végülis nem baj de mégse mondható hogy Matrox GPU van rajta.)
Intel kártyákra még így is kevés a gyártó. Acer, Asrock, Gunnir, Gigabyte van azt hiszem. Asus is gyártott OEM-eknek Intel kártyát [link] de kihátráltak és hagyták megdögleni a terméküket 0 supportal korlátos biossal, ebayen tonnaszám van belőle de nem jó semmire mert csak pár alaplappal működik. -
Raymond
titán
válasz
huskydog17
#46463
üzenetére
Ez egy klasszikus Donnie Darko idezet.
-
Raymond
titán
válasz
huskydog17
#46461
üzenetére
-
Yutani
nagyúr
válasz
huskydog17
#46457
üzenetére
Valamiért bünteti a játék az AMD kártyákat, a TPU szerinti 10% helyett 20+% van a 3070 és a 6700XT között.
-
Petykemano
veterán
válasz
huskydog17
#46340
üzenetére

> Ezt mi alapján szűrted le?
Abból, hogy "akciós" Intel ajánlatokat linkeltél azzal a konnotációval, hogy szerinted ez milyen kedvező és jó ajánlat. Szerintem ez triviális. Szintén szerintem nem gond.
> Akkor legközelebb nem írok oda átszámított árakat
Ha jól értelek, akkor azt mondod, hogy Te csak fogtad és átváltottad forintra az amerikai webshop dollárban számolt árait tekintet nélkül arra, hogy egyébként az amerikai webshopokban látható árakhoz képest általában milyen "extrákkal" terhelt áron szokott megérkezni a magyar (vagy európai) boltba a termék.
Ha így történt, akkor remélem sikerült felhívnom a figyelmedet, hogy ez nem ennyire egyszerű és legközelebb a forintosított árak számítása során figyelembe veszed az "extrákat", amik egy reális képhez vezetnek azzal kapcsolatban, hogy a fogyasztó milyen árakkal találkozhat magyar üzletben, vagy tényleg nem számítod át ilyen egyszerű, de félrevezető módon. -
Petykemano
veterán
válasz
huskydog17
#46336
üzenetére
Engem nem zavar, hogy az Intel termékeket próbálod népszerűsíteni.
Valóban, láthatólag csak az Intel igyekszik felkavarni az állóvizet, ezért megérdemlik a hírverést.Én csak arra kívántam felhívni a Te és mások figyelmét, hogy az általad alkalmazott átszámítási mód (nem számítva persze a kézközön, vagy ilyen félhivatalos tranzit-házhozszállításos módszereket) nem helyes és ne legyenek túlzott várakozásai a magyar boltokban tapasztalható árakkal kapcsolatban és ne is kezdje el a "felárral dolgozó, lehúzó magyar kisker bandában" keresni a boltban látott és az általad beharangozott árak közötti különbségre a magyarázatot.
Szintén a Neweggen az AMD-től lehet kapni $230-ért RX 6600-at, ami valahol az A750 táján van nem számítva az RT-t. Ha ezt lehetne kapni annyiért, ahogy Te számoltad, már megvettem volna. Talán innen ered a rugózás a 27% árkülönbözeten.
-
Petykemano
veterán
válasz
huskydog17
#46333
üzenetére
Én úgy tudom, hogy az amerikai tagállamokban eltér a forgalmi adó mértéke, de bevallom, nem tudom, hogy az értékesítő székhelye, telephelye, az értékesítés helyszíne (raktár?) vagy a vásárló lakcíme alapján kell-e rászámolni.
Én úgy tudom, hogy részben amiatt adnak meg nettó árat, merthogy nem mindegy, hogy melyik államból nézed, na meg azért is, hogy ne őket, hanem az államot hibáztasd, hogy mennyivel többet kell fizetni még az adóért is. (Valószínűleg Magyarországon is lenne csodálkozás, ha a cégek levonhatnák a megjelenített árból az áfát és azon túl a mindenféle forgalmi különadókat)
Ebből nem is csinálnék hitvitát, de az is biztos, hogy az USÁban csak 5-10%-os a forgalmi adó, nem 27%. Tehát ha az msrp-be a vám és disztribúciós költségeket (ide értve a vámokat) bele is kalkuláljuk, már csak ennyivel is drágábbnak kellene lennie.
Nemrégiben $249 lett az A750 hivatalos ára.
Általában az árukeresőn 116-120e között szoktam látni. 27%-os áfával és 360Ft-os USD árral számolva nagyjából ki szokott jönni.
Egyébként most épp 116eFt és 366, szinte fillérre kijön a $249.Én csak ezért gondolom, hogy az általad számolt forint ár túlságosan alacsony.
(Itt csak zárójelben hozzátenném, hogy ha valaki a kereskedői nyereséget keresné, akkor nem feltétlenül gondolnám, hogy ez a 116e valamiféle ügyeskedős ár lenne, mert a $249 az ajánlott fogyasztói ár, amiben elvileg már belekalkulálva kellene lennie a szállításnak, esetleg a vámnak is. Tehát elvileg a magyar kisker/nagyker nem a Neweggtől rendeli $249-ért)
-
Petykemano
veterán
válasz
huskydog17
#46331
üzenetére
Szerintem Magyarországon ehhez a dollárban számolt árhoz még hozzá kell adni a 27%-os áfát + párszázalék vámot.
-
válasz
huskydog17
#46321
üzenetére

-
válasz
huskydog17
#46313
üzenetére
pedig aztán :[link]
Nálam amúgy most az új Nv driver sem vizsgázott tökéletesre. Szerintem a stúdió driver akadt össze valamivel.
-
Busterftw
nagyúr
válasz
huskydog17
#46313
üzenetére
Nem értem, Abu megmondta a driver ilyet nem csinálhat.
-
FLATRONW
őstag
válasz
huskydog17
#46238
üzenetére
Ezt könnyen ki lehet deríteni.
Mindkét kártyán 8 GB VRAM van.
Ha a PCIe 4.0 x16 5700XT nem lassúl be a 3.0-ás alaplapban, akkor a 4.0 x8 6650-nek sem kell gondot okoznia a 4.0-ás alaplap.
Tehát meg kéne nézni, hogy teljesít az 5700xt 3.0-ás alaplapban.Ilyenkor tényleg csak a memóriasávszélesség lehet a gond. 280 vs. 448.
-
bozont
veterán
válasz
huskydog17
#46238
üzenetére
Úgy hogy a PCIe 4@8x=PCIe 3@16x sávszélesség terén.
Nyilván nem kizárt a dolog, de nekem akkor is furcsa. Egy teszt alapján még nem vonnám le a következtetést.
Mondjuk az sokkal furcsább, hogy mire kell ennek a játéknak 8+GB vram még 1080p-ben is.
-
bozont
veterán
válasz
huskydog17
#46236
üzenetére
Ha az 5700XT-nek elég a pcie 3@16x akkor a 6650-hez is elég kell hogy legyen. [link]
Valami más fogy el a kártyánál. Lehet éppen memóriasávszél. A 6650XT 280GB/s, míg az 5700 XT 448 GB/s. -
Yutani
nagyúr
válasz
huskydog17
#46230
üzenetére
Pedig PCIe 4.0-án tesztelik az RX 6650 XT-t, mégis kevés neki a 8x sáv? Mivel az 5700 XT-t is alulteljesíti, lehet erre gondolni, de én inkább a 128-bit memória és az Infinity Cache körül nézelődnék.
-
FLATRONW
őstag
válasz
huskydog17
#46222
üzenetére
Igaz, annak már jó néhány javítás megléte után kezdtem neki. Ha volt is valami baja megjelenéskor, akkor elég szépen kikupálták.
-
válasz
huskydog17
#46218
üzenetére
rég tetszett ennyire játék, gyönyörű. A DLSS hihetetlenül jól sikerült a nagyfelbontású képek alapján. FSR-nek kell az új változat.
A 4090 40 % előnye a 4080 hoz elég durva. -
FLATRONW
őstag
válasz
huskydog17
#46218
üzenetére
Én még a Days Gone-ra emlékszem úgy, hogy nem volt vele semmi gond.
Pedig az is UE4 játék. -
HSM
félisten
válasz
huskydog17
#46188
üzenetére
A 420$-os RTX3080 azért durván jó vétel!
Azért végigondolva vicces így a product stack, RTX3060Ti-399$, RTX3060Ti+20$=RTX3080, RTX3080+180$=RTX3070.
-
PuMbA
titán
válasz
huskydog17
#46169
üzenetére
Ilyen hírek / cikkek kellenének a PH-ra is, mert az elméleti dolgokban az AMD tényleg jobb és a PH főként elméleti dolgokkal van tele. A gyakorlatban viszont többször az NVIDIA a jobb és erről meg nem látunk semmit a PH-n. Csak ezért tűnik úgy, hogy AMD fényezés van itt, mert elméleti dolgokról folynak a diskurzusok
Ha lennének a konkrét tesztek, játék elemzések (a lá DigitalFoundry), akkor egyből más lenne a helyzet. -
huskydog17
addikt
válasz
huskydog17
#46163
üzenetére
Kiegészítés
Itt a témához kapcsolódó AMD-s Reddit topic:
7900XT white grass and bush rendering issueSajnos még itt sem reagált az AMD.
A játékhoz kapcsolódó további érdekes technikai teszt:
Hogwarts Legacy: FSR 2.1 vs. XeSS vs. DLSS 3 Comparison ReviewAkit csak a konklúzió érdekel:
"Hogwarts Legacy is an action game with a lot of small particle effects on screen during combat, so when using any temporal upscaling solutions, the stability of the image is key to enjoyable gameplay. When using DLSS, the image was stable in motion in all Quality modes, the level of detail rendered in vegetation and tree leaves is improved in comparison to the in-game TAA solution, and small details in the distance, such as thin steel objects, are rendered more correctly and completely. The FSR 2.1 implementation comes with a few compromises in image quality—in favor of performance in most sequences of the game. We spotted excessive shimmering and flickering on character hair, vegetation and tree leaves; they are shimmering even when standing still. This is the same level of shimmering that we've previously seen in The Witcher 3 Wild Hunt with FSR 2.1. XeSS on the other hand, does not have these shimmering issues at all, but XeSS is suffering from ghosting at medium and far distances. Flying birds have black trails behind them, for example. To be fair, DLSS also has these shimmering problems, but only in motion at extreme angles, and with DLSS you have the ability to minimize these issues by upgrading to the newer DLSS version 2.5.1.
The NVIDIA DLSS Frame Generation is excellent, the overall image quality is quite impressive. Even small flying particle effects, such as different varieties of magic spells, are rendered correctly, during with fast movement. However, there's also a few important issues of note. We spotted excessive shimmering and flickering in motion on tree leaves and vegetation at 1440p and below, but it is less pronounced when compared to the FSR 2.1 shimmering issues. Also, as mentioned in our performance review, you can't enable Frame Generation without enabling DLSS first. The issue is that the developers falsely assumed that enabling DLSS 3 Frame Generation, requires enabling DLSS 2 Upscaling, too. If you want to use Frame Generation with DLAA instead of DLSS: enable DLSS in the menu, then enable Frame Generation and only after that enable DLAA. Many other DLSS Frame Generation games that we've tested had issues with the in-game on-screen UI, which had a very jittery look—the DLSS Frame Generation implementation in Hogwarts Legacy does not have this issue."Itt is a megszokott felállás következett be: DLSS adja a legjobb minőséget a három felskálázis metódus közül. FG is kiválóan működik.
-
PuMbA
titán
válasz
huskydog17
#46163
üzenetére
Az AMD-nél nagyon béna emberek dolgozhatnak, ha a szuper open szósz debugger cuccukkal, amivel egy-kettőre felfedeznek minden hibát a játékmotorba és ami az NVIDIA-nak nincs, is több hibájuk van a megjelenő játékokban az NVIDIA-nál. Vagy még se annyira világmegváltó dolog az open szósz és ezért nem is foglalkozik vele annyira az NVIDIA

-
HSM
félisten
válasz
huskydog17
#46163
üzenetére
Érdekesség, hogy egy első ránézésre rendkívül hasonló jelenséggel találkoztam BFV közben is a 6800XT-n [link] . Én ezért használok most is 21.5.1 drivert, mert az újabbakkal nem jó az RT BFV alatt, nem mennek a tükröződések és bizonyos részek ilyen feltűnően fehérek lesznek és a ram igény is megnőtt jelentősen új driverrel. Persze, reportoltam is úgy 1-2 hónapja, de azóta nem jött új driver, vagy visszajelzés.
Ez egyébként valóban jogos negatívum, ezekre jobban kellene figyelni.
-
Petykemano
veterán
válasz
huskydog17
#46038
üzenetére
Kellemetlen a csengése, mivel
- az amd volt a nagy támogatója, úttörője az explicit apiknak
- a játék valamilyen AMD támogatással készült.De nem mondanám nagyon gáznak. A polaris egy 6-7 éves termék, elég idős már ahhoz, hogy ez-az új dolog ne legyen vele kompatibilis.
A valódi probléma az, hogy ezalatt a 6-7 év alatt (kb tavaly év végéig) ebben a szegmensben stagnált a perf/$ mutató, így a polaris kártyák ma is nagy számban vannak használatban, nem cserélődtek le.Bár erre éppenséggel lehetne tekintettel is lenni, ha már AMds cím.
Vajon megfeledkeztek volna a legszélesebb penetrációval rendelkező kártyájukról?
Vagy lehet-e a támogatás felfüggesztésében szándékosság, tudatos átgondoltság: "vegyél újat, barátom"? Az AMD épp most készül a nagy volumenben gyártható navi33-mal piacot szerezni. (Állítólag) Lehet, hogy nem véletlen, hanem így jel, hogy "it is safe to upgrade now"? -
gV
őstag
válasz
huskydog17
#46038
üzenetére
AMD-nél valakinek Forspoken miatt a fejét kellene követelni a befektetőknek
Far Cry 6 (korábbi AMD-s cím, a Ryzen 5000-hez adták) nem egy jó játék, de az legalább ezt tudja a RDNA3-al:
ha minden játék így futna rajtuk a GF-ekhez képest akkor a 7900 XTX-ről nem jelentették volna ki, hogy csak a 4080-al akarnak versenyezni
ehhez képest a Forspoken:
zsír új $1000-os kártyájukon 47 fps, siralmas. az, hogy az nV-n ennyivel jobban megy katasztrófa.
..és akkor erre jött még a Polaris fiaskó. -
awexco
őstag
válasz
huskydog17
#46020
üzenetére
-
Kolbi_30
őstag
válasz
huskydog17
#45915
üzenetére
Ameddig neztem telon, ahol volt rt ott megneztek nelkule es vele is.
-
Yutani
nagyúr
válasz
huskydog17
#45915
üzenetére
RT-vel úgyis tudod, hogy mi lenne az eredmény.

-
Raymond
titán
válasz
huskydog17
#45915
üzenetére
Igen, az RT-t itt hanyagoltak elegge na meg a MW2 is ketszer kerult bele ami azert meghuzza a dolgot az XTX iranyaba

-
válasz
huskydog17
#45915
üzenetére
Szerintem volt így is úgy is de nem vagyok benne biztos, nem részletes a videó. Ami nagyon durva Nvidia mekkorát gyorsított Vulkan alatt. Az AMD támogatott játékokban is van ahol 30 % kal gyorsabb ott, pl WWZ. igazából ha húzva van az Ada, akkor is kisebb a fogyasztása mint az alap 7900XTX nek , szóval ha levinné NV az árát az egyik legjobb VGA lenne gyártótól függetlenül évtizedek óta.
-
válasz
huskydog17
#45827
üzenetére
Half Life jöhetne már így megmókolva.
-
Egon
nagyúr
válasz
huskydog17
#45831
üzenetére
Az Unreal 1 nem is a Quake 1, hanem a Quake 2 ellen ment és attól semmivel nem volt szebb, semmi előnyük nem volt az Unreal motoroknak az akkori id tech motorral szemben látványban.
LOL. Sokkal szebbek voltak a textúrák és pl. árnyékolásban messze a Quake 2 motor előtt volt az Unreal engine.
-
gV
őstag
válasz
huskydog17
#45827
üzenetére
akkor kimaradt a Quake II RTX és a Minecraft RTX is. [link]
...és a még elvileg az ebben a hónapban megjelenő Portal RTX-ben is hasonlót jósolok. -
Egon
nagyúr
válasz
huskydog17
#45827
üzenetére
Hogy észbontóan jól nézne ki, az erős túlzás, ezeket a gagyi textúrákat az RT sem menti meg, 2022-ben ez kevés. Az Unreal motor sokkal jobban nézett ki már akkor is.
-
awexco
őstag
válasz
huskydog17
#45827
üzenetére
Minden gaytracer erre fogja venni mostantól

-
FLATRONW
őstag
válasz
huskydog17
#45808
üzenetére
Nagyon komolyan veszik a tűzveszélyes készülékeket. 2015-ben szinte az összes Shield tablettet visszahívták, mert volt valami gond az akkukkal. Az enyém is beletartozott és Európából még vissza sem kellett küldeni a régit, a helyi hulladék szabályoknak megfelelően kellett volna megszabadulni tőle.
Mivel nem volt semmi gondom vele, így lett 2 tablettem,azóta is tökéletesen működik. Még az akkuja is jobb állapotban van, mint a csere készüléknek.
A következő évben pedig az adapterrel volt gond, de elképzelni sem tudom, hogy egyesek hogy voltak képesek előidézni azt a hibát. Abból is leküldték a cserét.
link -
válasz
huskydog17
#45808
üzenetére
igen , szerencsére igyekeznek megodlani. Kiderült hogy két gyártó szállít átalakítót különböző AIB partnereknek az egyik amúgy is problémás, de a szabványt is átalakítják.
-
Busterftw
nagyúr
válasz
huskydog17
#45726
üzenetére
Nem akarsz bedobni oda egy 3770-et? Megis csak 4 extra szal

Apron vannak occsoe. -
válasz
huskydog17
#45724
üzenetére
Igen néztem .
3 másodperc alatt megtöltötte a 24 GB Vramot
-
válasz
huskydog17
#45722
üzenetére
Ez megy Turingon is ? szuper

-
HSM
félisten
válasz
huskydog17
#44452
üzenetére
Ebben a hardveres oldal is benne van. Az Nv szoftveresen oldott meg dolgokat, így elkapva a rajzolási parancsokat hatékonyabban tudja kezelni, mint az AMD hardveres megoldása, ami így időnként limitáló faktorrá válik DX11 alatt. [link]
Ez jól látszik a szintetikus teszteken is: [link] .Egyértelmű a CPU-limit, hiszen gyakorlatilag azonos a tempója a 6700XT-nek és a 6900XT-nek, és 10%-on belül követi őket a 6600XT.
Kérdés, van-e bármi jelentősége, hogy jóval 200FPS felett, masszív CPU-limittel 1080P-n, hogy az Nv drivere képes egy extra 27% tempóra (RTX3090 vs. 6900XT). Szerintem nincs, az égvilágon semmi. Főleg, hogy aki ilyen teljesítménykategóriában vásárol (6700XT és felette) az vélhetőleg nem 1080P-n akar majd vele játszani, hanem minimum 1440P-n vagy 4K-n, ahol lényegesen csökken a CPU vagy a driveres megoldás limitáló hatása. -
Raggie
őstag
válasz
huskydog17
#44450
üzenetére
A Bioshock Infinite szerintem nem túl jó választás. Eléggé fals eredményt fest a 230 FPS feletti értékekkel az újabb kártyák közötti erőviszonyokról, mert ott tuti valami limit vagy bug van(6900 XT a 2080 Super alatt).
A másik kettő korrekt választás szerintem is. Ehelyett pl egy Doom simán belefért volna, és jól is skálázódik. -
Gyuri27
félisten
válasz
huskydog17
#44446
üzenetére
A legfrisebb game is 2015.

-
válasz
huskydog17
#44446
üzenetére
az a z érdekes , hogy mindenhol azt olvasom hogy a Geforce lassul a Radeon gyorsul. Így teszt alapján a GTx 1060 ott van szépen az RX 580 nyakán az 1080-1070 meg a vega 56-64 elött -között.
nem semmi teszt amúgy
-
hokuszpk
nagyúr
válasz
huskydog17
#44343
üzenetére
az utemezo biztos tevedett es az energiahatekony magra tette.
de idovel majd kap az Intel cpudriverben egy profilt... -
keIdor
titán
válasz
huskydog17
#44343
üzenetére
Valamivel el kell adni a Golden Cove IPC-jét.
-
wjbhbdux
veterán
válasz
huskydog17
#44343
üzenetére
biztos a SEA régió fosi gépeire tervezték ahol az AOE2 népszerű maradt azóta is.
-
Televan74
nagyúr
válasz
huskydog17
#44343
üzenetére
Még jó hogy csak PC -re fejlesztették a játékot.
-
proci985
MODERÁTOR
válasz
huskydog17
#44324
üzenetére
de attól még nem egy ember vásárolt olyat.
jo, de attol, hogy ismersz olyat akinek volt, meg nagyon keves kartyarol beszelunk. kb harmadannyi Fury van hasznalatban steam survey szerint, mint R9 300, es utobbi se volt egy nepkartya. R9 200bolt negyszer annyi van.290X-ek hullottak mint a legyek,
290Xbol volt kb harom modell, aminek gyarilag eleg volt a hutese. minden mast a tulajok levizeztek (en is), vagy eladtak, mert elviselhetetlenek voltak a gyakorlatilag 300+Wos fogyasztasukkal. a 390X egy atmatricazott 290X OC 8GB volt, 375Wot tenyleg biro hutovel amire egyebkent szukseg is volt. nalam kb 20%ot jelentett teljesitmenyben csak az, hogy vizesblokkot kapott az elso kartya. jo, persze nalam is ott lett vege 4.5 ev utan a dalnak, hogy az egyik kartya elfozte a memoriait, igaz azon gyarilag is kisse szet voltak feszelve a memoriak.[link] ez 2018as, DX12nel eleg szignifikans volt a 290X elonye. ahogy ment elore az ido ugy nyilt az ollo.
keIdor: ja, visszanezve meglepo volt latni, hogy mennyire skalazodott anno a GCN.
-
proci985
MODERÁTOR
válasz
huskydog17
#44321
üzenetére
a Fury Xbol gyakorlatilag nem adtak el kartyat (ill de, de itt a forumon osszesen volt par es nem azert, mert leraboltak oket a banyaszok mint a Vegakat). itt a 7970 es a 290X volt inkabb az, amibol mai napig meg voltak. es meglepoen jol tartottak magukat. ami problema, hogy most huztak ki aloluk a tamogatast. csaladban egyebkent van egy 280X ami mai napig hasznalatban van (kb 5 eve 80 euroert athidalonak lett veve, csak tul jol bevalt).
Kepler papiron tamogatva volt, gyakorlatilag a 780 TI mar evek ota szornyen tartotta magat. az a kartya valaha a 290Xel volt parban.
-
keIdor
titán
válasz
huskydog17
#44307
üzenetére
Azért ez a probléma már legalább 20 éve megvan.
Még az ATi időkben is jellemző volt, hogy nVidián day1 jobban megy valami, erre mondják, hogy jobb a support.
Emiatt sem akarnék RDNA 2-t a mai napig.
Nem a hardverrel van a gond, az nVidia csak simán probléma mentesebb. Mindig is ez volt a helyzet.Konzol más, ott csak az a hardver van.
-
KillerKollar
őstag
válasz
huskydog17
#44307
üzenetére
Lehet, hogy én vagyok vak, de hol gyorsabb 77%-al a 3080? Mind a 3 felbontáson ~25% előnye van a 3080-nak, érdekes módon 1080p-ben a legnagyobb (ott általában a radeonok szoktak jobban szerepelni) de ott is csak 27,7%.
Félreértés ne essék ez is elég durva, a legtöbb játékban maximum 5-10% különbség szokott lenni a két kártya között, de azért messze van a 77%-tól.
-
Televan74
nagyúr
válasz
huskydog17
#44213
üzenetére
Remaster játékokat alapból kerülöm. De kérdem én mit az amit nem lát 140fps mellett? Ez nem egy Warzone, vagy más online fps játék. Mennyivel lenne jobb 260 - 300 fps -el?
De egy ilyen teszt után egyszerű a választásom. Nem veszem meg PC- re!
-
HSM
félisten
válasz
huskydog17
#44174
üzenetére
Tehát az eredeti cím:
~"Akár 15%-al lassabb lehet az AMD CPU Win11 alatt, megerősítve."
Aminek te elnevezted a linket:
~"Az AMD elismerte, hogy az L3 sebessége Win11 alatt összeomlik."
Szerintem nem kell nyelvtudósnak lenni, hogy mi a baj az általad kreált verzióval. És a cikk elolvasása után született a véleményem erről.
Petykemano álláspontja is szerintem világos, amivel én is egyetértek, elég furcsa lenne az AMD hibázásáról beszélni, amikor minden más OS-en jól működik a CPU, csak a frissen megjelenten nem... Még ha valamit esetleg nem is ideálisan csináltak, annak már rég a teszteken ki kellett volna derülnie megjelenés előtt.
-
TTomax
félisten
válasz
huskydog17
#44174
üzenetére
Az a baj,hogy a Duniat nem nagyon lehet fejleszteni,vagyis lehet csak már nem érdemes. Gyakorlatilag az több munka mint új motorra állni annyira nem foglalkoztak vele,csak a tűzoltás ment,és hiába AMD cím az FC6 nem ök tehetnek róla hanem az ubisoft. Úgy voltak vele még egy-két bőrt le lehet húzni róla mire kuka érett lesz. Hát remélem nem sokan veszik meg mert ha igen akkor a 7 is még ezzel az elavult motorral jön.
-
Petykemano
veterán
válasz
huskydog17
#44151
üzenetére
Tehát azt mondod, hogy ha egy játékkiadó kiad egy új játékot, ami történetesen valamiért szarul fut az Nvidia kártyákon, akkor az Nvidiának el kell ismernie a hibát?
így?
"Az Nvidia elismerte a hibát, hogy XYZ játék nem fut jól a cég kártyáin"Csak azért kérdezem, mert ha valaki ilyet azzal az áthallással mond, hogy itt az Nvidia architaktúrája lenne felelős (lásd Abu), arra rögtön hárman ráugranak, hogy nem az Nvidia a hibás, hanem a szoftverfejlesztők, akik szartak az optimalizálásra és bughalmaz az egész.
-
HSM
félisten
válasz
huskydog17
#44151
üzenetére
Szerintem egy szakmai fórumon nem szerencsés ilyen clickbait megfogalmazásokat használni, amikor szépen, egyértelműen is le lehetne írni, miről van szó.

-
Alpi.
addikt
válasz
huskydog17
#44133
üzenetére
Az AMD közleménye is gyenge, de Cppc2 -nek nem az a +25-50 Mhz a lényege. Ok, az is feature, de ami igazán fontos, hogy elkerüli vagyis nagyságrendekkel csökkenti a cross CCX/CCD ütemezést. Azért, mert buksz egy minimális órajelet még teszi tönkre a ram és / vagy az L3 sebességeket. A nem kívánatos keresztbe ütemezés viszont igen.
[Ez már Zen3, de a probléma már Zen2-nél porondon volt] emiatt volt szükség az új ütemezésre Windows-ban. Amit nagy nehezen képesek voltak félig megoldani, erre az Amd bios szinten megcsinálta a CPPC2 maszkot, aminek segítségével már működött a dolog.
Nem kifejezetten új dolog... -
Alpi.
addikt
válasz
huskydog17
#44125
üzenetére
Most olvastam el rendesen a cikket ! Az első részben történő okfejtés baszki....
Nem is tudom, hogy sírjak vagy nevessek... Végigolvasva az jön le, hogy halvány lila gőzük sincs a CPPC / CPPC2 rendszerről és hogy miért is volt rá akkora szükség Zen2 megjelenésével.. 
-
Gyuri27
félisten
válasz
huskydog17
#44125
üzenetére
Az hogy szar a windóz nem az amd sara. Már rég volt rájzen mikor a windózra jött patch. De még azzal együtt is elég fos volt a feladatütemezöje. Linuxnál le tudták rendesen programozni.
-
huskydog17
addikt
válasz
huskydog17
#44119
üzenetére
Kifelejtetem a felsorolásból a sokat sztárolt HWU tesztjét, de ugyanaz, mint a többinél kb.
-
válasz
huskydog17
#44104
üzenetére
-
proci985
MODERÁTOR
válasz
huskydog17
#44101
üzenetére
ez erdekes, FC2 ota tud tobb szalat terhelni es jellemzoen az osszes nagyon kemenyen GPU limites volt.
---
btw nezd mar meg a linket, arc egy tiz(!) eves i7-3930 (3.2/3.8Ghz)vel tolja, ami kb egy r5 1600 szintjet se tudja (minusz par ujabb szabvany) aztan csodalkozik, hogy hat CPUlimites egy 3070 mellett. ugy, hogy a 3930 hivatalosan csak pci_e 2.0at tamogat (bar gyakorlatban 3.0at is), mikozben egy 3070et hasznal. nemar
3.gen ryzen c2c ennel jobb vagy 70%al egy szalon, amire jon meg a magasabb orajel.ertem, hogy uj jatek, meg a cyberpunk ota tudjuk, hogy a sardobalasbol van a megtekintes, de ez mar tenyleg a nevetseges kategoria. hol talaltad ezt az oldalat?
ez igy tenyleg, nagyon szanalmas.de persze a Duniat kell kidobni es nem a tesztelo 10 eves platformjat updatelni.
tisztelturam: modernebb hardveren hajlamos mikroakadni.
-
válasz
huskydog17
#44104
üzenetére
Tökéletes meglátás. Már a Fc3 ban is össze vissza kellett hackelni .
-
Kolbi_30
őstag
válasz
huskydog17
#44101
üzenetére
eleg gagyi ahogy kinez ..
-
gainwardgs
veterán
válasz
huskydog17
#44101
üzenetére
Csak szokásos ubisoft
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- BestBuy topik
- One otthoni szolgáltatások (TV, internet, telefon)
- Gaming notebook topik
- gban: Ingyen kellene, de tegnapra
- Milyen egeret válasszak?
- Formula-1
- Azonnali fáradt gőzös kérdések órája
- Mibe tegyem a megtakarításaimat?
- Háztartási gépek
- GoodSpeed: Márkaváltás sok-sok év után
- További aktív témák...
- XFX Speedster SWFT 319 Radeon RX 6800 CORE 16GB 256bit, ALZA számla és garancia 2027.10.13-ig!
- XFX Quicksilver RX 9070 XT White Magnetic Air Edition 16GB (3 év garancia ALZA)
- PowerColor RX 7900 XTX RED DEVIL 24G videokártya garanciával
- Eladó Gigabyte RTX 4060 GAMING OC 8GB, garanciát vállalok, olcsó vga beszámítással
- Sapphire Pulse Radeon Rx 5500 XT 4Gb Videókártya ELADÓ
- iPhone 15 Pro Max 256GB Black Titanium -1 ÉV GARANCIA - Kártyafüggetlen, 100 % Akksi
- iPhone 13 Pro 128GB Gold -1 ÉV GARANCIA - Kártyafüggetlen, MS3963, 100% Akkumulátor
- Apple iPhone 14 Pro Max 128GB,Újszerű,Dobozával,12 hónap garanciával
- 152 - Lenovo LOQ (15IRH8) - Intel Core i5-12450H, RTX 4060
- OnePlus Nord 2T 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: ATW Internet Kft.
Város: Budapest


Nem az a kérdés, engem mi zavar, hanem az, hogy a különböző jogi megkötések esetlegesen mit lehetetleníthetnek el.
Komolyabb projektekben a fejlesztők éppen a fekete-dobozokat nem preferálják. Azzal nincs előrébb a fejlesztő, hogy akkor sem tud belenyúlni a működésbe (a DLL-be), ha szükség lenne rá.


Ha lennének a konkrét tesztek, játék elemzések (a lá DigitalFoundry), akkor egyből más lenne a helyzet.


