- gban: Ingyen kellene, de tegnapra
- Geri Bátyó: Agglegénykonyha 2 – Főzés: szabályok, vagy szabadság?
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- sziku69: Szólánc.
- Magga: PLEX: multimédia az egész lakásban
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- sh4d0w: Tökéletes töketlenség
- Sgr_A: Számítógépeim aktualizálása cseréje
- Imilenni: Egy kis depi, remélem elfér itt :) 2#
Új hozzászólás Aktív témák
-
füles_
őstag
Az elmúlt hónapban ez már a második driverük ami tönkreteszi a gépeket
Nvidia Users Beware, Latest Driver May Harm Your PC – Allegedly Killing GPUs, Is Plagued With Issues -
#45185024
törölt tag
Nagyon durva lesz ez az új videókárya: 3 GPU-S
-
actival63
aktív tag
válasz
FollowTheORI #15493 üzenetére
Egyet értek veled. Még egy kis optimalizálás és nőni fog az AMD előnye.
-
válasz
Szeszkazán #15492 üzenetére
Ahogy nézem ez még mindig egy nagyon kérdőjeles motor meg benchmark.
-
Szeszkazán
senior tag
Egy kis Singularity benchmark.
-
füles_
őstag
Ha nem elég a 495X vs. 1090Ti,akkor van Kitty 980
[link] -
válasz
m0h0senator #15481 üzenetére
GTC-re április 4-7 jól jönne majd, hogy fent tudjunk maradni nézni a keynote-ot.
Jen-Hsun Huang
CEO & Co-Founder, NVIDIA
Tues, April 5
09:00 AM PTHabár... 9+9 az csak 18 óra... akkor mégsem kell.
-
arcsi84
aktív tag
válasz
m0h0senator #15481 üzenetére
Ha ezt iszod, akkor 2 mérföldről kiszagolod és meglátod az összes AMD kártyát. Amiket persze piros aura vesz körül. A saját GeForce kártyád pedig +30%-al jobban teljesít.
-
m0h0senator
őstag
-
#45185024
törölt tag
Az Nvidia kinyilatkozta hogy mégis múkodik az asyncron compute LINK
-
válasz
Petykemano #15477 üzenetére
Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?
Itt két alapvetően eltérő irány van:
a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugalltaÉn majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.
Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.
-
válasz
Petykemano #15477 üzenetére
Azért ez ennél sokkal bonyolultabb és ne nyeld be a marketing választ.
Persze hogy azt mondja az NV amíg nem tudják, hogy nem jó semmire... aztán meg ők lesznek a legnagyobb úttörői a technológiának. Nem ez lenne az első ilyen eset.Van abban ráció, hogy pl amíg a GPU compute kódot számol, addig pl mellette párhuzamosan a memóriába töltsd a következő képhez szükséges adatokat... mivel teljesen más részeit használják a GPU-nak.
Stb stb.
Tehát nem csak buborékokról van szó, hanem arról is azért hogy a GPU több részegységét egyszerre lehessen dolgoztatni "függetlenül", vagyis növekedjen a kihasználása a benne lévő képességeknek egyszerre egyidőben. -
Petykemano
veterán
Ez a cikk azt fogalmazza meg, hogy az nvidia kártyák annyival hatékonyabban hasznosítják a tranzisztorokat, egységeket, hogy nem alakul ki ún üres buborék a hardverben, amit mellékszálon (multithreading) hasznosítani lehetne. Burkoltan ez azt sugallja, hogy ahol ez megtörténik, az lényegében hiba. Vagy a hardverben, vagy a futtatott szoftverben.
Mit lehet vajon nyerni mégis olyan architektúrával, amelyben ilyen buborékok keletkeznek? Az egész async compute a buborék létére alapszik, ha az amd történetesen sikeresen csökkentené a buborékok méretét, akkor az egész még inkább veszítene a jelentőségéből. Mit nyerhet azzal, ha vannak buborékok?
-
proci985
MODERÁTOR
válasz
daveoff #15473 üzenetére
persze, multiGPU tamogatast irtam es nem specifikusan CF / SLIt.
Oculus azert szerintem eleg magas hozza, hogy problemas legyen. 390(X) egyebkent nano koltseghatekonyabban, az a felbontassal kevesbe bajos, viszont nanohoz kepest par featuret meg nem tud es hutes szempontbol meg mindig maceras.
viszont remelhetoleg lassan jonnek a felhasznaloi tapasztalatok is. VR engem is erdekel es sajat reszrol mar megvan a 390X orajelen jaro 290X CF.
-
Damien addig járt az nVidia nyakára, amíg többet nem mondtak az async compute-ról. Angolra fordítva egészen érthető.
-
daveoff
veterán
válasz
proci985 #15472 üzenetére
VR nem magas felbontás, és a multiGPU támogatás mindkét oldalon rossz, sőt AMD-nél még talán rosszabb is. Igazából itt most nem is erről volt szó, én azt mondtam, hogy ha már Nano CF szóba jött költséghatékonyság szempontjából, akkor a 970 SLI-t is számításba vehetjük. Persze a Nano CF biztosan jobb, de drágább is jóval.
-
#45185024
törölt tag
válasz
#45997568 #15467 üzenetére
Egyébként szerintem is Jelen pillanatban VR-hez jónak hangzik két olcsón beszerzett Nanó.
980Tihez képest is és a Fury Duóhoz képest is. Főleg annak hatványában hogy a nyáron érkező kártyákon csak GDDR5 lesz. Lehet Augusztus végén mást fogok gondolni, de most szerintem is ez a Best Buy VR cucc.
Viszont VRből szerintem optimálisabb megvárni amikor Oculus majd valódi 3D kezelőt ad hozzájuk és nem ezt a Xbox konzolt, még akkor is ha azzal együtt majd 800 dollár lesz mert külön szerintem drágább lesz beszerezni.
Azt halottátok hogy A PS4 es VR szemüveget is gondolkoznak rajta hogy kiterjesztik majd PChez is ??? Az egy érdekes helyzetet teremtene. -
#45997568
törölt tag
Egyetlen dolog erdekes igazabol, hol ad olyan elmenyt ahol nem fog el szedules hasznalat kozben, illetve adja a kello FPS szamot is.
Ilyen teszt less erdekes, a tobbi a szokasos vakitas.
Az 2 Nano CF-ben eleg jol teljesit toredek aron a konkurenciahoz kepest (359£ darabja a legolcsobb 509£-os 980Ti-hez kepest - OCUK, a kulonbozetbol meg kijon egy VR szemuveg is majdnem
)
-
Dyingsoul
veterán
válasz
FollowTheORI #15460 üzenetére
Csak azt nem értem, hogy az i7-el hogy lehetnek alacsonyabbak a pontszámok, mint az i5-tel? Főleg, hogy még a magonkénti órajele is nagyobb a tesztben szereplő i7-nek.
(#15461) Abu85: Egyszer az életben szeretnék látni egy olyan VGA tesztet, ahol a körülmények mindkét fél kártyáinak ugyanannyira kedvezőek. Vagy ha ez nem valósítható meg ugye mert ez zöld az meg piros, akkor legyen egy teszt az egyik oldal előnyeiről és egy teszt a másikéról, de konkrétumokkal alátámasztva, hogy az ember a saját felhasználási céljához legjobban passzolót választhassa.
-
Dyingsoul
veterán
-
#45185024
törölt tag
Kijöttek a VR-szemüvegek postán, lesz prohardveren VR es teszt ?
-
Abu85
HÁZIGAZDA
válasz
FollowTheORI #15460 üzenetére
Az a baj, hogy a SteamVR teszt semmit sem ér, mert egy ősrégi SDK-ra épül, amiben semmi olyan dolog nincs, ami lesz például a játékokban. A gond itt az OpenVR, ami hozzávetőleg egy-másfél évvel van lemaradva az Oculus PC runtime mögött. Emiatt nincsenek olyan dolgok benne, mint TW/ATW/LL, és egy rakás egyéb tényező, amely szükséges ahhoz, hogy a VR jó sebességet adjon jó grafika mellett. Ezért nem az OpenVR-re épít egy csomó ma megjelent játék, mert technikailag képtelenek elérni azt a sebességet, ami szükséges. Persze majdnem egy évtizedes grafikai színvonalra így is jó, de pont ezért lesz előnyben az Oculus, mert ők modern grafikára is képesek.
Ha VR teszt kell, akkor a VRScore és a VRMark a mérvadó. -
arcsi84
aktív tag
-
válasz
Bratilla95 #15455 üzenetére
Te magad is leírtad - előbb volt a GCN, utána a DX12. Azaz nem lehetett a uarch az API-hoz tervezve, csak fordítva.
-
-
Bratilla95
tag
Tudtommal a Mantle szolgált a dx12 alapjául, ami kimondottan gcn-re lett tervezve, ezzel nem azt mondom, hogy a dx12 is gcn-re készült, de valószínűleg a Mantle rokonság miatt megy jobb a gcn-nel. Én nem mondtam sehol, hogy bármelyik dx12-re lett tervezve, de van némi alapja annak amit írtam SZERINTEM. Ha tévednék kérlek világosítsatok fel, hogy miben, illetve mekkorát tévedtem.
-
válasz
Bratilla95 #15451 üzenetére
Egyik most piacon lévő kártya sem lett DX12-re tervezve. Az egy másik kérdés, hogy a DX12 az egyik mai piacon lévő architektúrához lett tervezve
-
Gyula84
veterán
válasz
Bratilla95 #15451 üzenetére
hát nem tudom a dobozán ott a dx12 felírat
-
#52815360
törölt tag
válasz
imi123 #15446 üzenetére
Olvasok Abu cikket. Segit cpu limit lebontásában : i5, i7 eddig sem limitált engem semmiben. Meg lehet benne 100ezer draw call... kár hogy a játékokat nem a draw callok mennyisége teszi érdekessé. Meg könnyebb programozni... hát hogy a júzereket ez mennyire meghatja...
-
#85552128
törölt tag
válasz
imi123 #15441 üzenetére
Alacsonyabb szinten támogatja mint a Maxwell és az is lassult eddig mindenben ami DX12-es...
Egy vadonatúj engine dx12-es módjának fejlesztésénél meg valószínű nem egy régi architektúra a fő szempont ami még ráadásul eléggé szegényesen is támogatja az apit.
Ettől persze lehet, hogy a CE5-nél nem ez a gond, de a Keplertől nem nagyon kell DX12-es csúcsteljesítményt várni -
imi123
őstag
Marha jó.
Itt is lassabb a DX12.
Zavart érzek az erőben.
CRYENGINE 5 - DirectX 12 vs DirectX 11 Benchmark -
#45185024
törölt tag
Mivel sokszor beszéltünk itt új játékok kapcsán motrokról és azok kártyákra kifejtett teljesítményéről úgy gondoltuk páran hogy ne OFF ba beszélgessünk erről itt ezért létrehozunk neki egy külön szobát
amit leszűkítettünk csak a játékmotor témára Cry Engine, Unity 5, Unreal Engine
Tehát nem Direct X, nem APi-k, és nem Amd VS Nvidia viták !
akit érdekel szívesen látjuk jatekmotorok_techdemok_szakmai_szemmel -
Balazs_
senior tag
Crimson 16.3.2 Rift, Vive támogatással meg néhány hibajavítással.
-
#45185024
törölt tag
Kellemes Húsvéti Ünnepeket !
És el szeretném mondani eme remek ünnepen hogy megjelent az AUTOMATRON remekül fut akadásmentesen Fury kártyákon, sok FPSsel (csak szakmaiasan tudod) Megtette az optimalizáció a kellő hatását.
A kis piros agyas robotom legyőzhetetlen, remélem ti is megtaláljátok a megfelelő Olívia árnyalatot benne.
Itt a tojás, piros tojás tarisznyámba várommm. -
Laja333
őstag
válasz
#52815360 #15423 üzenetére
Akkora downgrade nem lesz, mint az első esetében, ahhoz azért kellene némi NV support.
(#15422) cyberkind
Tényleg nem rossz játék, és a patchek után a teljesítménye is biztos jó. (amikor játszottam, ha jól emlékszem már pár korai patch is javította ezt)
De jobb lenne, ha nem csak egy "nem rossz játék" lenne. -
#52815360
törölt tag
válasz
FollowTheORI #15414 üzenetére
Ha megfizetik, akár vizet is gereblyézek
-
cyberkind
félisten
-
mlinus
őstag
válasz
daveoff #15411 üzenetére
nyugatabbra már nem szoktak pc játékot dobozosan kiadni sokszor, csak digitálisan.
itt például látszik hogy a pc-nek nincs szégyenkeznivalója.
-
-
rocket
nagyúr
válasz
daveoff #15394 üzenetére
Jelenleg Steam-en ~650000 felhasznalo van akinek megvan a jatek (IHV szponzoracios kulcsokat is beszamoljak, tehat az elso heti statisztikaban is volt) ami kozel otszorose az elso hetinek (raadasul UPlay az elsodleges online eladasi platformja a jateknak amirol nincs online statisztika), es mivel azota biztosan nem notek a multiplatform eladasok osszesen 17.5+ milliora, igy nott a PC verzio reszesedese
PC-n ha egy jatek atlepi az 1 millios eladast az mar kiemelkedonek szamit
-
Valdez
őstag
válasz
Malibutomi #15407 üzenetére
Mennyi is lenne a Fiji die size 14nm-en? Kb 300 mm2? Az nagy? Szerintem az még mindig csak közepes gpu lesz 14nm-en.
Amiről a pletykák szólnak azok pedig kimondottan kicsik lesznek. -
Malibutomi
nagyúr
válasz
Valdez #15402 üzenetére
Ez nem tipp hanem teny. Sosem kezdenek nagy chipeket gyartani mikor uj technologiat vezetnek be. Mindig kicsikkel kezdik aztan haladnak felfele ahogy egyre erettebb a technika. A nagy pedig az 4-5-600mm2 chipeket jelenti. A teljesitmenyt viszont nem erdemes saccolgatni, mert nem tudjuk mit tud az uj architektura, de foleg hogy barmi valos informaciot tartalmaznak-e a leakek ami alapjan rogton kijelentetted hogy nagyobbat varnal.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #15392 üzenetére
Ez még ennél is bonyolultabb. Mivel buliban vagyok, tényleg nem akarok ennek nagyon a mélyére ásni, de mielőtt még totál részeg leszek leírom, hogy a Maxwell támogatja az async compute-ot, csak olyan GMU-kat használ, amelyek nem támogatják az erőforrás-korlátozást. Lényegében ezt kell beépíteni mindegyik GMU-ba és megvan oldva az, hogy a hardver semmilyen multi-engine kódtól ne lassuljon. Azt tényleg nincs időm kifejteni, hogy ez miért van így, meg hasonló, de szerettem volna jelezni, hogy ezek a cikkek totál szenzációhajhász bullshitek. Lehet róluk beszélni, de felesleges. A százalékos változás pedig folyamatfüggő, de amit az NV ki akar védeni az a lassulás bekövetkezése.
-
rocket
nagyúr
HL2 vegul nem akkor jelent meg amikor az ATi szerette volna es a legnagyobbat profitalhatott volna belole, hanem amikor mar kint voltak az NV40 es az R420-ra epulo VGA-k, tehat nem jott be a strategia teljes mertekben.
Az azert a sikeresseg megitelese szempontjabol nem mind1, hogy az AOTS, vagy mondjuk egy BF5 dontene be a PasWell-eket
Egyebkent kisse elore szaladt a topik lakok egy resze, lassan itt nehanyan tenykent kezelik (mikozben forditott esetben hangsulyozzak, hogy ez csak egy clickbait oldal pletykaja), hogy a Pascal egy Maxwell szteroidokon, es nem tamogatja az Async Computeot.
-
Valdez
őstag
válasz
Malibutomi #15400 üzenetére
Nyilván, ezért is nem érdemes olyat tippelni, hogy nem kezdenek majd "hatalmas" chippel, akármit is jelentsen ez.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ASUS ROG STRIX RTX 4070 Ti SUPER OC Edition 16G (kishibás) videokártya garanciával
- NVidia RTX 3080 Founders Edition + 12VHPWR átalakító
- GIGABYTE RTX 4080 SUPER 16GB GDDR6X GAMING OC - Gari 2027.12.10. -ig - Eladó!
- ASUS GTX 1060 6GB GDDR5 ROG STRIX OC Eladó!
- ASUS RX 5700 XT 8GB GDDR6 ROG STRIX OC Eladó!
- Bomba ár! Dell Latitude 7390 - i5-8GEN I 8GB I 256GB SSD I 13,3" FHD I HDMI I Cam I W11 I Gari!
- BESZÁMÍTÁS! Gigabyte B450 Aorus R7 5800X 32GB DDR4 512GB SSD RTX 4060Ti 16GB Zalman N5 MF CM 650W
- HP EliteBook 830 G7 i5-10210U 16GB 512GB 1 év garancia
- ÚJ Xiaomi Mi Robot Vacuum Mop Essential robotporszívó feltörlő 2db 1999 Ft
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest