Hirdetés
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Viber: ingyen telefonálás a mobilodon
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- laskr99: DFI és DFI Lanparty gyűjteményem
- bb0t: Ikea PAX gardrób és a pokol logisztikája
- Elektromos rásegítésű kerékpárok
- GoodSpeed: 3I/Atlas: Üstökös vagy idegen civilizáció űrhajója?
- GoodSpeed: Márkaváltás sok-sok év után
-
LOGOUT
AMD Radeon™ R9 290 / 290X / 390 / 390X téma összefoglaló
Új hozzászólás Aktív témák
-
TTomax
félisten
"1 GB/s-ot tud egy csatorna és 16 csatorna van"
Igen egy irányba..mert minden csatorna dual simplex channel...meg ugye tegyük hozzá hogy ez megint csak akkor igaz ha tudja a cpu,ráadásul úgy írsz róla mintha ez a csak a MultiGPU-nak lenne fenntartva...(#23507) Abu85
Meg még annyi se egy 3 utas rendszernél...
-
MPowerPH
félisten
Skalazodassal eddig sem volt nagy problema. Meg a 3. GPU is 80% korul hozott legtobb esetben, ami brutal jo. Ellenben hiaba volt majdnem minden game-ben boven 60+FPS-em, nehol meg a 120+ is megvolt, nem volt soha folyamatos a kep. Megfajdult tole a szemem, es teljesen elmenyrombolo volt. Crysis 1-2-3, Bioshock Inf., BF4, FC3(ez konkretan jatszhatatlan volt, mind a ketto, mind a 3 GPU-s rendszeremben ki kellett lonom a tobblet gpu-(ka)t, raadasban a HUD merete is megzavarodott CF-ben), GTA IV, Metro 2033/LL(Metrot e miatt ki sem jatszottam, az elejen hagytam az egeszet, mert 1 kartya keves lett volna), es AC. FPS mindenhol eleg volt, nehol boven sok is. Szoval nem ez volt a gond... Most felsoroltam itt par nagyobb cimet. Az AC miatt aztan vegleg elegem lett, mert ott nem megengedheto, ha egy kicsit is akad a kep.

Szoval a skalazodas csak egy dolog, mas gondjaim voltak.
Kozben meg haverom roccenes mentesen futtatott mindent a 780 SLI-vel, ez volt a legfajobb. Szoval NV oldalon azert messze nincsenek ilyen gondok, igaz skalazodas teren a 2. GPU is olyan 80% kornyeken teljesit csak, ami AMD-hez kepest maximum atlagos.
mod: Valszeg DX12-ben mar nem lesz problema 1 GPU-nak sem megbirkozni FHD-n tuli felbontasokkal. Bar ez erdekesen hangzik, hiszen a 4K egyenlore tavol van attol, neha meg a 2 GPU is keves.
Kicsit fura is lenne nekem, ha teljesen melloznek ezt a technologiat. -
hermanyi
addikt
Még nem volt végleges verzió .
Abban egyetértünk ,hogy nem ajánlunk játékhoz hardvert míg béta. Amúgy ár érték arányban teljes mértékben elégedett vagyok a kis 290 el főleg így félig vizezve.
Ami problémám van és ez a kiprobált játékoknál csak az Asseto nál jelentkezik ,hogy a GPU kihasználtság ugrál 100 és 50% között . Miközben véleményem szerint egy 4500 ra húzott 2500K nak még ki kellene hajtania . -
ÁdiBá
veterán
Ezek mellett azt nem értem hogy akkor mi alapján, hogyan képes futtatni a programot maga a videokártya.
Ezt az nvidia azért nem közli a fejlesztőkkel mert esetleg fél hogy lemásolják az *úgy mond tudását*, vagy ezt ő mindenképpen saját erőből driverből próbálja megoldani?
Nem értem a logikájukat.
Ez olyan jellegű dolog mint ha csinálnánk nagyon jó autókat, csak utat nem biztosítunk alá.Biztosan megvan a maguk logikája amibe nem igazán látunk bele. Viszont ahhoz képest hogy a gyártók nem ismerik maga a hardver működését driveresen, teljesítményileg nagyon eltalálta az nvidia.
-
ÁdiBá
veterán
-
ÁdiBá
veterán
Ezzel az a bajom, hogy mire tényleges hasznát fogjuk venni mi mint játékosok, addigra itt lesz az összes új dolog, Windows10/ DX12.
Egyszerűen a DX12 mellett a mantle elfog veszni én úgy gondolom ugyan is a DX12 nem kell AMD grafikai kártyát birtokolni ahhoz hogy menjen, így már meg is bukott a dolog.
Ráadásul ha ugyan azt a hatásfokot eléri a DX12 fejlesztők tekintetében, akkor az AMD adott magának egy pofont. -
reménytelen... lesz, lesz, lesz... de mi az, ami van? 6 Mantle játék, amiből 2 esetében (BF4, Civ) látjuk is értelmét a low level API-nak? ill. HRAA miért nincs PC-n GCN-only effektként? nem lehet akkora nagy cucc áthozni PS4-ről.
igen, szükség van a fejlettebb archiktektúrára, hogy PC oldalon is legyen fejlesztői target. de amíg felhasználóként ennek az eredményét nem látom, addig felhasználói szemmel ez csak ballaszt. csak ismételni tudom magam - lássuk meg a 370 vs GM206 összevetést. részemről case closed

-
Nem akarom terhelni a kis agyam ezzel a sok roviditessel amit hasznalsz, hogy kikeresem micsodak, a lenyegen egyenlore nemvaltoztat. Azert remelem a jobb arazason kivul, masban is kimagaslo lesz az amd, mert a drivertmost nem ocsarolva, a ref kartyak hutese nem hiszem, hogy akkora mernoki tudomany lenne, hogy vegre normalisabb db hangzas melett legyen kepes kiadni a kartyakat az amd. Az nvidianak ez valahogy evek ota sikerul. 1-2 dolog odafigyelese melett, sokkal keresetebb lenne, mint az nvidia. Erzodik a plusz, jo hogy olcso, de valahogy megsem az aminek kene lennie.
-
Ertem, es szakmailag annyira toppon vagy, hogy minden elhiszek amit mondasz
Viszont akkor az amd is bekaphatja, hogy ezeket azota nem sikerult mar tokeletesen kihasznalni. Az nvidia meg lexarja ezek szeroint, mer t3 ev alatt nem jutottunk oda, hogy ezek kilegyenek hasznalva.. bar biztos kellenek az ujdonsagok kesobbre amivel a bort szepen lelehet huzni kesobb.. bar ha itt tartunk akkor minden a dx re illetve a microsoftra vezetheto vissza, hogy itt tart a pc-s piac... -
Televan74
nagyúr
Nem is véletlenül,hisz konzolokon szeretnék a sok játékot eladni.Nem mondom azt hogy a PC -s portokkal nem foglalkoznának, de azért ez a helyzet kényelmes a kiadóknak is.Hát a PC ezt sem tudja, meg azt sem.De konzolon látjátok milyen szép.Az a jó nekünk.
A sok marha meg veszi a 100+(R9 290/R9 290X vagy a másik oldal GTX970/980) kártyákat,köztük én is.És várja a csodát az eredeti játékaival a gépén. :Múúúúúúúúúúúúú! (fejőstehén smiley)
Lehet csak öregszem és azért kezdek egyre agresszívabb lenni.
-
Jo 5let az innovacio ilyen szinten az amdtol, csak tul kishal ahoz, hogy ez gyorsabban menjen vegbe... bar azt meg mindig nem ertem, hogy ennyi fejlesztes melett, hogy nincs ereje a vga drivereinek komolyabb szintu optimalizalasara. A telefon piacon is rajottek mar, vagy kezdenek, hogy ra kell fekudni a szoftverre es nem csak a hw a lenyeg.... pedig az "ujabb" terulet mint a pcs vga piac...
-
... és már megint az L-word... (nem az LDS-re gondolok
)azt ugye érzed, hogy ha a postomból annyit vettél le, hogy fel kell tornázni (némi csúsztatással) negyedévente kettőre a Mantle játékok számát, akkor az lényeglátás terén nem éppen 10/10?

no mindegy, várjuk meg az R9-370 megjelenését (gondolom, addigra lesz GM206 is), és akkor térjünk vissza a kérdésre - jelenidőben. akkor ugye már A-sync-ről is tudunk érdemben beszélni?

-
mindent lehet feleslegesen okosnak nevezni, amivel a jelenben semmire sem mész. vagyis amiket leírtál, azokat is. még mielőtt a HRAA újra előkerülne - nagyon örülök, hogy PS4-en van 1db játékban, viszont XBO-n nincs, úgyhogy nehezen hiszem, hogy PC-n lenne, legyenek bármilyen okosak a GPU-k.
a Mantle játékok meg csak jöjjenek, de egyelőre negyedévente van egy. én nagyon szívesen veszek R9-370-et a GTX960 helyett jövőre, ha lesz miért
-
deadwing
addikt
Pont ma írtam egy hsz-t ezzel kapcsolatban, hogy én igenis érzem a dx és mantle közötti input lag különbséget. Vagy ez más? Arra gondolok, hogy gyorsan rángatom az egeret és dx alatt később reagál a kép.
Persze csak akkor vettem észre mikor a megjelenésekor próbálgattam a mantle-t, és cserélgettem a módokat és mantle után jött a dx.
Mielőtt ezt leírtad volna, fogalmam nem volt, hogy honnan eredhet ez a lag és miért.
Vagy van még más ami okozhatja?Haverom is érzi egyébként és nem hiszem, hogy csak mi ketten szupermenek lennénk
![;]](//cdn.rios.hu/dl/s/v1.gif)
Meg kellett kérnem anno, hogy ugyan próbálja már ki és mit tapasztal, mert alig hittem el. -
HSM
félisten
Szerintem túlzol. 480FPS-es kamera? Ha jól számolom, bőven elég lenne egy 120FPS-is, 35ms a lag 140FPS-nél, ha 5 képkockával számolok, ez a Mantle 1 képkockás késletetéséhez és 100FPS-éhez tartozó 10ms késleltetéséhez viszonyítva remekül látszana egy 120fps-es kamera 8ms-es mintavételezéses felvételén lassítva.

(#19633) players111: Nagyon amatőr szinten persze, lehewt tolni 60FPS-el, 20ms lagos monitoron, sima 8ms egérrel, soroljam még?
De hidd el, számít, még ha nem is feltétlen könnyű mérni: [link](#19634) daveoff: Nem mondtam, hogy ötszörös, de kb. 20-25ms, ahogy számoltam, ami azért elég masszív.
Jut eszembe, ha jól emlékszem, nálad a monitor is csak 60hz-es... Nálam fel van húzva játékban 72-re, az is igen komoly előny már, pedig papíron nem sok. Persze, sokan ezt se látják.

(#19638) asdxv: Igen, én is high-on tolom vele, igaz, alul is van nálam órajelezve, és a CPU-m miatt is, ja és mert csak DX-ben megy nálam jelenleg sajnos. De inkább tolom High-on alacsonyabb input laggal, mint ultrán, mégtöbb FPS-el, de magasabb laggal. Nálam ez abszolút kizáró tényező.

(#19639) Abu85: Nem teljesen értek veled egyet. 60FPS multiban évekkel ezelőtt sem volt éppen ideális.

Én szerintem elég, ha abból indulunk ki, hogy mennyire nem ajánlottak játékra a 20ms input lagú monitorok. Itt meg az NV megajándékoz 140FPS esetén is +15ms-el, ami egy majdnem egy teljes képfrissítésnyi idő 60hz-en... Persze, magukhoz képest lehet, így is pariban van a 3 képkockányihoz képest, vagy az AMD DX módjához képest, ha azon lényegesen kisebb az FPS, de a Mantle 1 képkockányi késleltetéséhez és 100FPS-éhez képest ez eléggé nem tűnik jónak...Azt se felejtsük el, hogy aki BF4-re keres VGA-t, annak teljesen mindegy, hogy DX vagy Mantle, mivel AMD-n van Mantle, használható, viszont Nv-n csak DX van. Tehát ha mindkét oldalról a lehető legjobb használható módot hasonlítjuk össze, akkor AMD-től a Mantle, Nv-től a DX-et kell alapul venni.
-
daveoff
veterán
Hát én nem érzek semmi különbséget input lag terén, hogy NV-re váltottam. A bf4-ben lévő grafikon se mutat nagyobb késleltetést ami a perfoverlay.drawgraph parnccsal jön elő, vagy az nem azt mutatja? Szerintem én pont érzékeny vagyok az input lagra és tuti észrevenném, ha ötszörösére nőtt volna, ugyanúgy játszok, mint eddig....
-
HSM
félisten
Hát de ez is max fél év... Én meg azért általában nem fél évre veszek VGA-t.
Persze, van, hogy 3 hónapot se bír ki valami a gépemben, de ha betalálom a tutit, szeretem addig megtartani, amíg csak lehet... Pl. egy kisebb vagyon spóroltam azzal, hogy jókor, jóáron vettem egy 1 hónapos 5850-et, amivel bármit szinte maxon tudtam tolni 3 éven keresztül...(#19386) szasanyi: Persze, a győzködésnek sincs semmi értelme, ez is teljesen így van.
Én úgy vagyok a 290-el, ma gyors, ahhoz képest jóáras is, és kinézem belőle, hogy még 1-2 év múlva is VGA legyen. 
(#19387) ffodi: A "fos" driverekkel vitatkoznék, valakinél vannak gondok, valakinél nem. Én például meg vagyok elégedve a driverekkel. A 14.4 is jó volt, a 14.7RC3 is. A friss WHQL is jól működik, bár ott van egy-két furcsaság. de semmi olyan, amivel ne lehetne együttélni.

(#19389) Don't Panic: +1. Azért mondtam, konfig függő.
(#19390) Abu85: Nekem az volt a tapasztalatom, hogy alaplapfüggő, megy-e a standby.

(#19402) gbors: Így már egyetértünk.

(#19407) Abu85: Sosem értettem, miért nem lehet egy kis pipával kikapcsolni a zerocore funkciót, amikor sokaknál hibák forrása volt, amihez képest a nyerhető 10W fogyasztás semmiség, a nem-működés bosszúságaihoz képest.

-
ffodi
veterán
Ez tiszta sor, de...
ha nincs tuning és 3rd party alkalmazás ami buzerálja a powertune-t akkor miért csinálja? Illetve a RAM és CPU tuning-nak mi köze van ehhez, és ebben az esetben mi számít tuningnak?
Valamint, ha ennyire komplex és érzékeny az egész rendszer, akkor miért nem vették ezt figyelembe már tervezéskor, és kapásból így adták ki?
-
lowzor
veterán
Szerintem főleg inkább azok úszhatják meg, akik HDMI/ DP porttal használják a monitorjukat és emiatt nincs zerocore (legalábbis régebben nem volt).
A VGA tuning kétlem,hogy befolyásolná, mivel hosszú ideje semmi ilyesmi nincs a gépen és alapórajelen/ fresh driver/ oprendszer install-al is csinálja. -
ffodi
veterán
Rendben, értem, bár ezt választ most olvasom tőled először ezzel a problémával kapcsolatban.

Most akkor ezek alapján felelőtlenség lenne azt mondani, hogy a usereknél lévő kártyák jelentős hányada hibás? (az egyszerűség kedvéért mondjuk a fele?) Mert ez is elég gázul hangzik szerintem.....
Szerk.: Látom közben szerkesztetted. Mindegy is, a fenti kérdést nem törlöm, mert kíváncsi vagyok mit válaszolsz rá.
Viszont a szerkesztett szöveg tükrében azt kell mondjam, hogy ha ilyen sok tényező befolyásolhatja a ZeroCore működését negatívan, az sem túl bizalomgerjesztő.... -
HSM
félisten
Átverés az egész.... A CCC meg az összes szenzor, ami méri, a gyári órajelet mutatja a régi BOOST GCN-eknél egészen addig, míg egy teljes órajellépcsővel lejjebb nem lépett. Azaz vagy mutatja a BOOST-ot, vagy az alapórajelet picivel alatta, vagy a következő, amit mutat, valami 501Mhz-es órajellépcső, és 501 és mondjuk 850-1000Mhz között sehol semmi.

Én annak idején egy megbízható módot találtam a mérésre, az MSI Afterburner "Low-level HW Access" módú hozzáférésével, 250ms mintavétellel remekül látszott, min és hogyan dolgozott a HW. Persze, sokkal ritkább a mérés, mint ahogy a HW dolgozik, ugyanakkor bőven elég, ha teljesen szabályos minta alapján működik, és a sebességen is pontosan az látszik, amit így mértem....
Ami az újabb lapkákat illeti, mint pl. a Hawaii, azok egészen máshogy működnek, ott már a driver is rendesen jelzi vissza többé-kevésbé a működést.
Szval nyugodtan ki merem jelenteni, a 925Mhz-es 7970 nekem 925Mhz-es volt ha a fene fenét evett is.

-
HSM
félisten
Szerintem egyszerűen csak a gyorsabb órajelek miatt gyorsabb. A BOOST teljesen kiszámíthatatlan. Gyárilag a sima 7970 beton fixen tartja TDP emelés nélkül is a 925/1375Mhz-ét, a 280X-ek esetén ez korántsem annyira áll fenn. Nagy marhaság volt beletenni a BOOST-ot....
Nekem volt nem-boost ref 7970-em és több BOOST is és 280X-am is, szval tapasztaltam.... -
bombibmw
veterán
Én csak azt nem értem,hogy ráver egy csomót még a 7970-re is,ami kb. ugyanaz a kártya.

Ráadásul a 780 a 7990-el van pariban,de még azt is elveri a 280X,aminek a gpu-jából kettő van a 7990-en.
Nyilván nem úgy skálázódik(vagy sehogy) a 7990,de akkor is.Szerk.:
Igen,látom.
Nincs is multi gpu támogatás abszolút. -
HSM
félisten
De a GB/s se releváns, mert alatta a textúratömörítés, ami egy kérdőjel, nem tudod beleszámolni, mert változó a hatékonysága.
"...vagy esetleg a frame-time megugrik, de akadáshoz még nem vezet"
Pedig ez pontosan a mikrolag fogalma maga, amikor hirtelen rövid időre a korábbihoz képest megugrik a frametime.
-
HSM
félisten
Köszi a magyarázatot. Akkor ez a kulcs.
Nálam ugye a GstRender.Thread.MaxProcessorCount 8 parancs a négymagos procin biza okozott eldobott munkákat, gondolom, a buta grafika ennek köszönhető. Érdekes, hogy ugyanezeket a butulásokat okozta bombibmw-nek is.Amúgy találtam egy alternatív magyarzatot is miszerint ez a parancs hatására bebugzik a motor, és egy fix grafikai beállításra ugrik a játék, ami a low-nál szebb, ultránál csúnyább. Ugyanis akik eddig low-on nyomták és kipróbálták, azok arról számoltak be, hogy lényegesen szebb lett a játék, keeseb FPS-el.

-
HSM
félisten
-
azért az tök jó, hogy leírod, hogy nincs jelentős különbség a driverek között, közben meg egy rakás teszt azt mutatja, hogy van. mindenki bénán mérne? alig hiszem. azt meg szintén nehezen tudnám elképzelni, hogy az elmúlt 5 év játékainak nagy része deferred contextet használ.
az új API-k térhódítását pedig nagy szeretettel várom - majd 2015-16-ban.
-
kell, hogy számítson a driver (meg a GPU-n belüli parancsfeldolgozás), mert különösen a BF4-ben jól látható, hogy egy nVidia kártya azonos CPU-val CPU-limitált esetben jelentősen gyorsabb tud lenni, mint egy hasonszőrű Radeon. két legyet üt az AMD a Mantle-lel egy csapásra, mert a gyengébb CPU-k és a gyengébb DX driverek is elfedhetők vele.
-
CsonkaImo
addikt
Na ez jó hír, remélem a SEGA több címnél is alkalmazni fogja a 2 api-t. Így lehet eljut a a Company of Heroes szériához is. Ott is vannak teljesítménybeli problémák, gyakorlatilag 1 kártyás rendszerrel nem fut lag nélkül maxon, 1080p-ben. Pedig abszolút nem izzad a 290X.
-
Sontir Fel
őstag
Erdemes ismert kiprobalni a mantlet? KB 2 hete neztem, kisebb palyakon nagyon szepen muzsikalt 7970nel, de nagyobb palyan meg-meg akadt sajnos. 290-nel jobb lehet? Egy 4.6-ra huzott 2700K van mellette.
Lehet meg arra szamitani, hogy "jobb" lesz a mantle, vagy BFnel ne remenykedjek benne - biztam eddig a nem beta driver megerkezeseben
- es majd esetleg egy kesobbi jatekban lehet benne komolyabban profitalni? -
daneeeeee
aktív tag
"A Mantle teljesen jól működik a BF4-ben már." Eyefinity alatt is ? Mert én azt még nem vettem észre.
"A Mantle VRAM igénye Full HD-ben kimaxolt BF4-ben 3,2-3,4 GB körül van." Akkor lehetséges, hogy ezért nem fut nálam jól 5760*1200-ban?
Kifuthatok a 3GB vramból mantle alatt? Ha igen így máris értelmet nyertek a 8GB VRAM-mal szerelt 290/290X-ek. -
-
the_mad
aktív tag
-
szasanyi
félisten
Ez fontos lehet neked, meg a szakembereknek. Az USER vagy főleg GAMER arcoknak többségében nem, mert a eleg(ün)k van a magyarázatból, ami újfent arra irányul, hogy a rakás kifizetett pénzéért miért kapott problémá(ka)t. Again...
Gondolom ez számodra is érthető és respektálható érv.
MANTLE mikor fog már domborítani? BF4-et hagyjuk, mert arra annyi a panasz, hogy ott a az sem hoz(ott) minden téren megváltást, és az ugye csak egy játék a sok közül. -
HSM
félisten
Szerintem ezt sosem implementálták.
Anno, mikor írtad, hogy betettélk, direkt kipróbáltam a Furmakkal és a 5850-emmel, és sehol semmi lassulás nem volt a korábbi driverekhez képes átnevezve. A 6900-tól pedig már ahogy írod, a powertune felel a biztonságért, szóval szerintem jelenleg sincs a powertune-on kívül semmi, ami visszafogná az (átnevezett exe-s) furmarkot. 
-
HSM
félisten
Tudom, hogy erős az a hűtés, ugyanaz van a refi 7970-en, és az valami brutál. Erőben, de hangban is feltekerve.

(#9486) szasanyi: Dejó, hogy linkelted ezt a képet... Eddig fel sem tűnt, hogy ilyen pálcikalábú kis vacak induktorokat tettek rá... Még a refin is masszívabb van, meg a Sapphire-on, meg a PCS-en is.

Amúgy igen, a ventigondokról hallottam én is, de szerintem az bármelyik márkánál befigyelhet, egyiken silányabb ventik vannak, mint a másikon.
-
Malibutomi
nagyúr
Akkor ezek szerint az eltérés normális, csak azért tűnt fel nekem, mert elsőre kifogtam egy nagyon stabil kártyát, aminél a védelmek nem kapcsolnak be állandóan?
Kissé tanácstalan vagyok, hogy visszavigyem-e a kártyát, mert a hűtése nagyon tetszik, viszont ez így egy sima 290 teljesítménye, ahhoz meg kicsit drága.

-
Malibutomi
nagyúr
-
KillerKollar
őstag
Hát akkor csinálok majd egy saját profilt a játéknak és letiltom a CF-et,csak ezt megtettem a bétánál is és akadozott a játék...néztem fraps-al hogy hogy fut és stabil 60 fps volt akkor is amikor beakadt,úgyhogy más jellegű hiba volt,nem sima optimalizálatlanságból eredő alacsony fps szám.Olvastam hogy nem voltam egyedül ezzel a hibával,viszont érdekes módon amikor be volt nyomva a CF akkor nem volt ilyen probléma.Remélhetőleg ezt legalább orvosolták a teljes játékra.
-
KillerKollar
őstag
De akkor ez mitől van?Ez a videó a bétából van de olvastam hogy a full játék alatt is ilyen,de csak akkor ha be van kapcsolva a Crossfire...tudtommal SLI alatt nincs ilyen probléma.Kérdeztem őket a Respawn Entertainment fórumán,ezt írta az egyik moderátor:"To fix something like this would take a driver update from AMD or Nvidia. I know that Nvidia have released their drivers for Titanfall it's up to AMD to get their fingers out and put out their newest drivers as well".
-
Enclave
aktív tag
Erről jut eszembe, észrevettem egy furcsaságot az Oxide Starswarm demoja kapcsán.
Ha Mantle API-val futtatom a demo-t, a teszt közben mindig bejön a Win képernyő pihentető ha nem használom az egeret, hanem hagyom futni a benchmark-ot. Ez mennyire normális? (igaz 14.1-el fordult elő mindig, 14.2-vel még nem néztem de majd meg fogom)
(nincs Intel IGP-m se más vga-m, csak egy 290-es össz-vissz) -
Enclave
aktív tag
"Ha ezen módosítasz, akkor jó eséllyel működni fog továbbra is, de nem garantálható"
Nem garantálható a hardver működése abban az esetben sem, ha én egy meredekebb/agresszívebb venti profilt szeretnék, tehát ami desktop idle módban minimum 60%-on járatja a ventiket (ez alá sosem menne be) és 65 fokos gpu-nál már 100%-on? (nem vészes a zaja az MSI R9 290 Gaming-nek) Tehát a minél kisebb hőmérséklet lenne a cél, a gyártó értékeinél alacsonyabb hőfokokkal.
Gondolom más lenne az eset, ha halkabb és lassabb fordulatszámon járatnám így a túlmelegedés veszélye fennállna, ám én pont az ellenkezőjét tervezném az agresszív ventiprofillal.
-
Enclave
aktív tag
"Ezek most nincsenek meg és a driver összeakad magával a programmal is. Függetlenül a tuningtól."
Mi van abban az esetben, ha szándékosan letiltottam minden 3rd party tuningprogramot a rendszer indítása során, tehát nem indulnak el. Akkor miért csinálja ezt? Vagy a progit is el kellene távolítani, nem elég, ha éppen nem fut a Win indításakor?
Amúgy én a Trixx-et csak amiatt használom, mert lehet benne custom venti profilt készíteni, egyébként másra nem.
Valaha lesz olyan funkciója a Catalyst overdrive-nak, amivel szintén ilyen ventiprofilt lehet létrehozni?
Vagy valami custom szinteket a hőfokokhoz? (tehát ne "auto" módon működjön a venti kezelés, hanem az én elvárásaim szerint? Ha én magasabban szeretném hajtani, mint ajánlott, ugyanakkor ezt sávosan, akkor ne kelljen 3rd party progi, csak a CCC)(#8503) Prosector
Én inkább a Process Explorer-t használnám és az ott futó folyamatokról készítenék screenshot-ot, gondolom a Win8-at is támogatja...
(amúgy ha rootkit-es bányászvírust szedtél össze, akkor a feladatkezelőben sem biztos, hogy látszódni fog
) -
szasanyi
félisten
Na jó, de minek?
Mert ha jól értem ez mindig megy, ha kell ha nem. Annyi segítséget adj már lécci: ha 1 éven belül nem lesz VGA csere melyik megoldás lehet jobb választás: R9 290 vagy GTX 780? Egyszerűen nem tudok dönteni, mert igazából nem az a párezres különbség a döntő. Ha esetleg a konkrét típus nem ajánlott, problémás stb. és ilyen infó van az is érdekelne. 
-
az egész mining piac annyira hullámzó, hogy teljesen irreális olyan kijelenteni, hogy "semmi sem történt". a BTC miért esett 02.04 és 02.16 között 182 dollárt? 12.20 és 01.06 között mért ment föl 300-at? nagyon csábítóan hangzik a mantle-höz kötni a demand emelkedését, de nincs gyakorlati case mögötte. lehet a végtelenségig hajtogatni, hogy "de csak a mantle volt akkor", attól még nem lesz igaz.
a január 10 utáni árnormalizálódást pedig nem támasztja alá, amit körbenézve price trackereken láttam.igen, DX alatt tényleg nincsenek 300ms-os spike-ok
na jó, ez most troll volt, de ezt nagyon meg kellene javítani. akkor igaz lenne, amit írtál.az első generációs ASIC minerek 20-30-szoros perf/wattot ígérnek egy 290X-hez képest. ezt tudta az első generációs BTC ASIC is.
-
Oliverda
félisten
Ez valami rendkívül optimista álom karakterekben való manifesztációja lehet.Egyelőre semmi olyat nem mutatott a Mantle, ami miatt mindenkinek hanyatt homlok kellene rohannia a boltokba új kártyáért. Az előzetes eredmények alapján jelenleg sokkal inkább csalódás mintsem nagy durranás... sajnos.

"A mining részen semmi sem történt, ami hirtelen arra késztette volna a piacot"
Erről van szó. A semmi épp elég, mivel egyre többen másznak bele ebbe az egészbe, úgy terjed mint egy vírus. Aki pedig ésszel csinálja és be tud fektetni, annak a végén bőven megtérül, sőt. Van aki 10-20-50 kártyával csinálja ezt otthon, és semmi sem akadályozza meg a bővítésben. Ezért hiánycikk megint sok Radeon, és ezért mennek fel az árak. A Mantle csepp a tengerben.
-
az amúgy is MSRP felett 200 USD-vel szaladgáló kártyák hirtelen még kapósak lettek volna a Mantle miatt? ez sehogy sem kerek. 800-ért meg pláne nem vesz a tömeg 290-et, kijön belőle egy 780 meg egy 4770k. annak ér 800-at a 290, aki pénzt csinál vele.
nagyon bátor dolog ilyet kijelenteni, amit az ASIC miningra mondtál. lássuk meg.
-
igen, és minden bizonnyal a mantle gamerek tízesével hordták el a kártyákat, ezért vezetett be több e-tailer limitet az egyszerre megrendelhető darabszámra

de komolyan, amiről most beszélünk, azt fizikai képtelenség, hogy egyedi vásárlók, ráadásul high-end gamerek generálják. a bitcoinnak már nagyjából mindegy, aki arra GPU-t használ, az... khmmm, nem számol utána, viszont litecoinra még nincs off-the-shelf ASIC miner, úgyhogy arra érdemes akár farmot is építeni. és ez mellesleg egyben azt is jelenti, hogy az AMD a jelenlegi supply problémákban egyáltalán nem bűnös.
ja, és a lufi legalább részben ki fog durranni, amikor jönnek az ASIC minerek, és a difficulty eljátssza ugyanazt, mint a BTC esetében.
-
Oliverda
félisten
Nos, a fenti grafikon alapján nagyon úgy fest, hogy végül a többség inkább befogta bányászni a mantle miatt megvett kártyáját.

Mondjuk tökéletesen meg tudom érteni, mert 4K-ig felesleges egy ilyen VGA a BF4-hez. Egy R9 270 ad 69-es átlagot FHD-ban, Ultra presettel, AA nélkül, DX mellett.
-
Új hozzászólás Aktív témák
A topicban tilos bármilyen offtopic hozzászólás írása!
Ilyen célra használjátok a Lokál fórumban található offtopicot.
- Víz- gáz- és fűtésszerelés
- Milyen videókártyát?
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- Kormányok / autós szimulátorok topikja
- Fotók, videók mobillal
- WLAN, WiFi, vezeték nélküli hálózat
- Androidos tablet topic
- AliExpress tapasztalatok
- Xbox tulajok OFF topicja
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- További aktív témák...
- MSI RTX 3060 VENTUS 2X OC 12GB - GARANTÁLTAN KIVÁLÓ ÁLLAPOT! - 30 nap próbagarancia!
- NVIDIA ASUS TUF RTX 3070 TI OC 8GB GAMING Videókártya
- ASUS TUF Gaming GeForce RTX 3060 OC Edition 12GB GDDR6
- XFX Quicksilver AMD Radeon RX 7800 XT Magnetic Air - Arctic White - Alza garancia 2028.02.25.
- Gainward GeForce RTX 4080 SUPER Python III OC
- BESZÁMÍTÁS! ASRock B650 Steel Legend WiFi R5 8600G 32GB DDR5 500GB SSD RX 7800XT 16GB NZXT H700i
- BESZÁMÍTÁS! ASRock B450M R5 5600X 16GB DDR4 512GB SSD RX 5700 XT 8GB Thermaltake VersaH17 ADATA 650W
- RAKTÁRKISÖPRÉS! Eladó szerverek!
- GYÖNYÖRŰ iPhone 14 Pro 256GB Space Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3942, 100% Akkumulátor
- ÁRGARANCIA!Épített KomPhone i5 10400F 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: BroadBit Hungary Kft.
Város: Budakeszi


Amúgy pont az XDMA-a miatt szívnak a 3utas CF rendszerek...2 gpu-ig ok...aztán jönnek a gondok..


Kicsit fura is lenne nekem, ha teljesen melloznek ezt a technologiat.




![;]](http://cdn.rios.hu/dl/s/v1.gif)



Nálam ugye a GstRender.Thread.MaxProcessorCount 8 parancs a négymagos procin biza okozott eldobott munkákat, gondolom, a buta grafika ennek köszönhető. Érdekes, hogy ugyanezeket a butulásokat okozta bombibmw-nek is.




