- sziku69: Fűzzük össze a szavakat :)
- GoodSpeed: Megint 3 hónap Disney+ akciósan :)
- Luck Dragon: Asszociációs játék. :)
- sziku69: Szólánc.
- btz: Internet fejlesztés országosan!
- sellerbuyer: Te tudod, mi mennyit fogyaszt az otthonodban?
- Barthezz2: Cím: Ismeretlen - Chapter 4
- Magga: PLEX: multimédia az egész lakásban
- gban: Ingyen kellene, de tegnapra
- D1Rect: Nagy "hülyétkapokazapróktól" topik
Új hozzászólás Aktív témák
-
proci985
MODERÁTOR
majd harom het utan vegre jott a mail, hogy cserelik a 970et.
JESSZ!
---
levasarolhatom, meg egyelore agyalok hogy mi legyen.
merleg:
- 2 honapig hasznaltam
- 3 hetig nem volt kurrens videokartyam (ez 24 ev pcs mult alatt uj rekord, eddigi rekord emlekeim szerint egy het volt amikor megsult a creative voodoo bansheem)
- elment kb 16 oram tesztelessel -biztosra mentem-, 4 oram ugyintezessel -mail, telefon, utannajaras-
- elment kb 4 oram utodkeresesselazt hiszem most egy ideig tier2es NV kartyam nem lesz.
-
Abu85
HÁZIGAZDA
Attól még a probléma létezik. A gyártóknak egyénileg kell eldönteni, hogy ez a ghosting hiba belefér-e vagy sem. Az AMD ezzel úgy van, hogy döntsd el te: AFR friendly.
Az XDMA arra való, hogy a multi GPU akkor is működjön, ha a hidas megoldás már nem elég jó. 4K-ban a Crossfire XDMA azért ad sokkal jobb eredményeket, mint az SLI, mert híd sávszélessége kevés. 4K-val az NV már nem is használja. Helyette az adatokat először a rendszermemóriába másolják, majd onnan elérheti a másik GPU. Ennek az előnye, hogy nagyobb a sávszél mint a hídnál, de hátránya, hogy jóval nagyobb a késleltetése is, tehát nehéz a folyamatosságot biztosítani. Ez az oka annak, amiért a H azt írta, hogy 4K-tól a CF folyamatossága jobb.
-
TTomax
félisten
Én semmiféle ghosting hatást nem látok SLI-ben a FC4ben(pedig 144Hz-en tolom és elég kényes vagyok rá)...söt szerintem máshol sem mert még ilyen problémával nem találkoztam,villogó texturával már egy két játékban igen,de ilyet láttam már single gpuval is.Nem véletlen lovagolok a CF-en hajszál választott el töle,hogy azt vegyek... nagyon mélyen le volt árazva,és lapot sem kellett volna cserélnem.Amióta xdma van amdnél azóta lelassultak jelentősen a cf profiolokkal,és ez tény sajnos.Nem tudom minek tudható be,nincs rálátásom.
-
proci985
MODERÁTOR
eladas annyira nem problema, 3 ev mulva amikor ugy szamolok eladom mindket kartyat akkor valszeg nyomott aron, egy embernek probalnam elpasszolni (kevesebb macera). 7850akat is egy ember vette meg.
Matrix Platinum itt jelenleg a legolcsobb 290x, szoval amiatt nezegetem
. viszont az EKs tippert koszi
Abu85: -100W a kulonbseg ahogy neztem fogyasztasban, normalis hutes. azert ez eleg sokat jelent. CFem volt, kb tudom mire vallalkozom.
igazabol ha nem muszaj nem cserelnem a hutest, FC blokk veszmegoldas lenne, egyebkent ha nem muszaj nem epitenem at a vizhutest. tul sok ido, mostanaban meg egy nyugis pihenonapot semmittevessel tobbre ertekelek, mint egy egesznapos szerelomaratont
. ha ennyire bleeding edge a hutes az meg nem lesz feltetlenul jo.
egyedul az asetek pumpaktol felek, ha az meghal ket es fel ev utan akkor nehez lesz megoldani a potlast.
DX12 meg nem vegleges, kell nemi ido amig egyaltalan lesz szabvany, aztan meg nemi ido amig egyaltalan nekiall terjedni, meg a fejlesztok nekialljak megtanulni.
Far Cry egyebkent amiatt idegesito, mert az az egyik jatek aminek _tenyleg_ kene a multigpu tamogatas 1080p felett. 5760x1080 highon a 970 G1 20%al a vanilla 970 boost ertekei feletti clockokkal ment 35-40fpst, very highon ugyanez 20-25 korul volt ahogy emlekszem.
-
Abu85
HÁZIGAZDA
(#3487) TTomax: Ez nem teljesen igaz. Azt is lehet egyébként tudni, hogy mi a gond. A Dunia Far Cry 4-hez használt iterációja Ka Chen adaptív virtuális textúrázását alkalmazza. Ennek az előnye, hogy igen nagy méretű terepet lehet feltextúrázni, de a hátránya, hogy a rendszer címzése adaptív. Ez AFR-rel egy olyan problémát eredményez, hogy a páros képkockákon bizonyos textúrák eltolódva jelennek meg, mint a páratlanokon. Ez egyfajta ghosting hatást generál, ami elmossa valamennyire a textúraminőséget. Ez csak mozgás közben látszik, mert egy képkockára levetítve a ghosting jelenség nem él. Lehet dönteni, hogy ezt elfogadod és engeded a multi GPU-t, vagy inkább nem, és akkor nem lesz ghosting sem.
A CoH 2-ben is működhet az AFR, csak zizegni fognak a textúrák.
-
proci985
MODERÁTOR
válasz
#Morcosmedve #3474 üzenetére
harom-negy evre vennem.
najo, utobbi negy evben volt negy gpu alrendszerem (HIS 6950 ICEQ 2GB / HIS 7850 ICEQX 2GB / 7850CF (HIS ICEQX / PCS+) / 970 G1), de a 7850 valtas amiatt volt, mert rendeltem egy masodik HIS ICEQ 6950 2GBt, a boltbol jott egy 7850 ICEQ X es egyszerubb volt eladni a 6950 2GBt mint az elegge zoldfulu boltosokkal lezavarni egy cseret (nyugaton is megesik). 6950ek kozul hasznaltan a normalisan hutott 2GBsek feher hollok voltak es jellemzoen az orszag masik feleben helyileg, viszont CFet akartam. de ha a 7850 (fel)valtast nem nezzuk, mert kb 20% teljesitmenyert nem csereltem volna, akkor a 6950 2GB CFben kihuzott volna pont harom evet.
a 970 G1nek meg most mar lenne egy haverja is lassan a gepben, ha a kartya nem omlana ossze 5760x1080ban par jatek alatt. 1-3% avg persze, csak eppen az az 1-3 avg kulonbseg masodpercenkent kb egy-ket frametime tuskebol jon ki.
970bol meg ovatos duhajkent egyszerre egyet vettem.
varni fel evet nem akarok, egyreszt ugy sose lesz az embernek gepe, masreszt a 3870el ket kijelzot hasznalok ket es fel hete, es most a hetvegen mar pl nagyon orultem volna, ha egy fejlesztoi kornyezet / keresgelest igenylo task miatt mindharom kijelzot meg tudtam volna hajtani.
macskak volt hogy raleptek a monitorkabelre, de mas baj nem volt.
rocket: masfel evig volt CFem, nem betazok (multimonitorral bajos), plusz amennyire keves idom van jellemzoen sose nulladik napon jatszok semmivel. megesett, de az elso 1-4 hetben nekem oke, hogy nincs multigpu ameddig kb elfogadhatoan fut harom kijelzon. ha nem, akkor varok par hetet, Far Cry 4nel pl ketszer halasztottam emiatt a kezdest.
a 970re is inkabb amiatt vagyok szomoru, mert pont arra vettem, hogy bepattintom, megy, mert a 7850CF kezdett keves lenni egyedul ha nem ment a CF profil, egyedul meg sajnos a 7850 mar lassan lowon se bir kipreselni magabol 35fpst 4800x900on sem. nem volt hova fallbackolni.
-
TTomax
félisten
válasz
Malibutomi #3485 üzenetére
Jaja csakhogy ugyanarra épul a cf mint az sli... Utobbi müködik... És ez már nem az első játék.Ha az SLI se menne mint pl a COH2ben akkor érthető,de itt erröl szó sincs...egyszerüen most készült el,mert gondokba ütköztek,de a játék afr támogatásával nincs gond.Az egy szabvány vagy van vagy nincs.És ez nem az első játék,a mai napig vannak olyan játékok ahol nem megy a cf az sli meg igen...és két éves játékról beszélek...
-
Abu85
HÁZIGAZDA
Nem tudom kire gondolsz az OCUK-n. Én főleg Andrew Doddtól kapok erre vonatkozóan adatokat. Ő a driverfejlesztés vezetője. Elmondta, hogy ha az Ubisoft megoldja, hogy hibátlan lehessen az AFR, akkor bekapcsolják a támogatást. Addig csak az AFR friendly az opció erre, ami olyan minőség, mint az SLI. Ennél több ebben a programban még nincs. A nyárt sem véletlenül mondtam. Az Ubi akkorra ígérte, hogy megoldják az AFR-t. De ha mostani minőség elég, akkor ott AFR friendly opció és műxik.
-
Malibutomi
nagyúr
De mégis:
"We had a profile ready for launch, but unfortunately we've been unable to enable it due to issues with the game. Below is taken from the release notes of 14.1.2."The AMD CrossFire™ profile for Far Cry 4 is currently disabled in this driver while AMD works with Ubisoft to investigate an issue where AMD CrossFire™ configurations are not performing as intended. An update is expected on this issue in the near future through an updated game patch or an AMD driver posting."
By AMDMatt
-
Abu85
HÁZIGAZDA
Mert bugos az AFR támogatása a játéknak. Innentől kezdve vagy letiltja a gyártó az AFR-t, vagy bugokkal elfogadja. Egyébként azt ígérte az Ubi még januárban, hogy megoldják a gondokat, csak nem élvez prioritást a multi GPU. Valamikor nyárra talán lesz egy olyan frissítés, amivel bugok nélkül működni fog.
Egyébként az AFR-Friendly profillal bekapcsolhatod a CF-et is, csak ugyanazt az élményt kapod, mint az SLI-vel, ami nem jó.
Azt tudni kell, hogy az AMD akkor nem kapcsolja be AFR támogatást, ha bármilyen hiba van. Az NV akkor is bekapcsolja, ha akadni fog, vagy apró grafikai hibákat generál. A Far Cry 4-nél például a textúrák eltolódása. Ha hiba van, akkor döntsd el, hogy bekapcsolod-e vagy sem AFR-Friendly-vel. -
Malibutomi
nagyúr
Elöre látom mi lesz ebböl a nagy nasa technikás hütésböl, egy hónap múlva simán kijönnek a gyártók léghütéses kártyái, amik teljesen jók lesznek (kivéve az asust
).
-
Abu85
HÁZIGAZDA
válasz
daveoff #3478 üzenetére
A HBM miatt nem csak az AMD tervezi a hűtést. A Hynix, a Cooler Master és az Asetek is részt vesz benne. Ez az első bevetése egy nagyon új technikának, tehát másnak is nagyon tudni kell, hogy mi az, ami működik. Ez a kártya határozza meg azt is, hogy a Hynix a második generációs HBM-hez mit ajánl és mit nem.
-
Abu85
HÁZIGAZDA
válasz
proci985 #3472 üzenetére
Tulajdonképpen a 295X2 pontosan úgy működik, mint a 290X CrossFire, tehát abszolút mindegy, hogy melyiket választja. Nyilván a 295X2 előnye, hogy eleve egy baromi jó hűtéssel jön, de hátránya, hogy egy kártya, tehát egyben is lehet eladni. A 290X CrossFire pro/kontra dolog pedig fordított.
Az új szériából esélyes, hogy nem is lesz cserélhetű hűtés, mert a HBM nagyon bonyolítja a lehetőségeket. Sokkal jobb, ha marad a gyári, mert annál hatékonyabbat úgy sem fognak építeni a gyártók.
Az mindenképp előny egyébként, hogy az új GPU-k XDMA-sak. Ez majd a DX12-nél fontos lesz, mert XDMA nélkül le kell állítani a futószalagot az adatmásoláskor, míg XDMA-val erre nincs szükség, tehát a másolások mellett is számolhatnak a GPU-k.
-
Ghoula
senior tag
válasz
proci985 #3472 üzenetére
Igaz nem volt 295-öm, se cf-em, de ha belekotyoghatok:
HSM már írta, de osztom a véleményét, CF abból a szempontból jobb, hogy meg tudod bontani és könnyebben eladod, mint a 295-öt, illetve 2 részletben is megveheted.
Szerk: úgy látom mások is hasonló véleményen vannak.Alap hűtéssel jobb a 295, de pl. a DC2-es Asus a gpu-val simán megbirkózik, a vrm ami kérdéses, főleg CF-ben a felső kártya leolvadna szerintem, de a 295-el is izzana a vrm, ott még jobban össze van zsúfolva 2 gpu-ra a táp rész.
Ráadásul venti a borda felett van, nagy része a venti "holtterében" van és alapon ott is 100fok felett van.
Viszont a 295 a hő legnagyobb részét a házon kívülre vezeti, ez mindenképpen jobb megoldás.Ha pedig FC-zel, akkor nem hinném, hogy szükség lenne Matrix kártyára, elég egy DC2, sőt, a refinek a vrm-je is bőven combos, ha silányabb gpu-t fogsz ki, semmivel nem fognak többet menni az extra vrm-es kártyák.
Viszont akciós most EK-nál a Matrix blokk, olcsóbb 30 euróval, így ha az az irány, akkor most azon spórolhatsz 60-at, vagy kijön belőle egy extra radi, ha úgy gondolod kevés a mostani.
( A macskák mindkét verziónál boldogok lesznek, csak férjenek oda, ahol kijön a meleg)
-
#Morcosmedve
veterán
válasz
proci985 #3472 üzenetére
A monitorokat nem félted a macskáktól?
Egyébként egyáltalán nem tűnik drágának a 295x2, egy komolyabb 980 is 190k es akkor még egy kéne, hűteni meg nem lehet. Ha pedig abba gondolok bele, hogy 220k volt a 780Ti DCII akkor bőven jó ár, még itthon is a 260k érte... persze nem tudom mennék e A,D-re (nem), nem tudsz kiszállni úgy mint egy CF/SLI-ből, de én nem vennék FC-t, stb rá. Várni nem tudsz?
-
proci985
MODERÁTOR
btw, van valakinek a topikbol vagy volt valakinek 295je?`
munkatars visszavitte a GTX970SLIt, aztan nekialltunk agyalni, es a 295 tunik meg mindig a legjobb vetelnek mindent figyelembe veve.
igazabol ha le kell vizezni extran ugyanott vagyok, mint a 290 matrix platinum cffel, csak mig a 295bol kinezem hogy nem suti meg magat a gyari hutessel sem, addig a MP CF kapcsan tul sok a kerdojel.
neztuk 8GBket is, 290x DD kb egy arban van CFben a 295el, viszont, megint ott a kerdes, hogy a hutessel mi lesz. vaporX szinten kb 295 folott megy meg elfogadhatoan dragabban, csak viszont ha arra nem eleg a leghutese, akkor a gatyam is ramegy a custom FC blokkokra.
nvidiabol epp mindkettonknek kicsit elege van ertheto okokbol., plusz a 980 ahova nekunk kell ott mar csak fogyasztasban jobb kb 25%al.
uj szeria meg lehet junius, csak aftermarket hutos custom peldanyok ugyse jonnek elso 1-2 honapban (fc blokk se), plusz elejen az arpremium, szeptember-novemberig meg amig normalizalodnak az arak es elul az ujdonsag varazsa meg igazabol nem varnek.
igazabol az a baj, hogy egyben draga, plusz nem tudom azt megcsinalni, mint a 970nel, hogy vettem egyet "majd mellerakok meg egyet ha olcsobb lesz" alapon.
a cosmost lehetolet nem cserelnem (tul ergonomikus), extern radit meg a macskak miatt nem akarok
.
-
Abu85
HÁZIGAZDA
Abból megy ki a kép a monitorra. Ma az alkalmazás a low-level API-val megmondja a drivernek, hogy hol a képkockapuffer, majd a driver a kijelzőszinkronhoz igazodva kiteszi a tartalmát. Viszont a belső szinkron mellett azt is meg kell mondani, hogy a képkockapuffer kész-e. Mert ugye itt most törött tartalom is kimegy.
Ezt eddig a driver láthatta, és aszerint szinkronizálhatott, de a low-level API-val már nem látja a meghajtó, tehát az alkalmazásnak kell megmondani, hogy kész a puffer és mehet. Ha nem teszi meg, akkor a driver nem fogja tudni eldönteni, hogy mikor teljes a puffer tartalma, tehát se a V-Sync, se az ilyen-olyan Sync nem fog működni. Nem jelentős probléma, csak pár sor, de bele kell írni az alkalmazásba. Aki támogat V-Sync, annak lényegében nincs igazán dolga más Sync-cel sem. -
Abu85
HÁZIGAZDA
Mert csak az alkalmazás tudja, hogy hol van a memórián belül a képkockapuffer. Erről a DirectX 12 alatt egy külső programnak, vagy akár drivernek fogalma sincs.
Minimális dolog, hogy a külső rutinok megtudják hol van a szükséges adat, és ezt csak a program tudja megmondani nekik. Ehhez kell majd SDK. A fejlesztők munkája nem lesz túl nagy, de meg kell mutatni milyen címtartományban van a képkockapuffer és azt mikor olvashatja a driver.(#3466) Taposo: Mert amikor ezek a technológiák bemutatkoztak még nem került előtérbe a low-level API. Enélkül természetesen általános lehet a támogatás.
-
Taposo
aktív tag
Értem köszi, ettől féltem ezt bezzeg nem reklámozza az NV a G-synces monitoraihoz hogy biztos kompatibilitás csak a saját NV- s támogatású játékaihoz érhető el, erről egyik fél sem beszélt hogy programtól illetve fejlesztőtől fog függeni hogy használni tudjuk-e majd ezt a technológiát
-
Abu85
HÁZIGAZDA
Nem írtam, hogy nem lehet használni (és szerintem erre vonatkozóan nincs megkötés a partnerprogramokban), de az A-Sync és a G-Sync támogatásához direkt kód kell az alkalmazásba. Az A-Sync implementálásához szükséges alap ott lesz a DX12 SDK-ben. A G-Sync implementálása is lehetséges, de ahhoz egy külön csomag kell, amit az NV-től kell licencelnie a fejlesztőknek. Ha valamiért nem licencelik, akkor nyilvánvalóan képtelenek lesznek G-Sync támogatást írni az adott programba.
Olyan ez, mint a 3D Vision. Például a Square Enix nem licencelte, így csak több hónappal később épült be a támogatás a Deus Ex: HR-be, amikor az NV már ingyen odaadta nekik az SDK-t. Valószínűleg lesz olyan fejlesztő, aki a G-Sync-ért sem fog fizetni, hanem kierőszakolják az ingyenességet. -
Taposo
aktív tag
És akkor pl. egy amd gaming evolved által támogatott játékon esélyem sem lesz kihasználni az NV- s G-Sync technológiát vagy éppen forditva ? Mert sajnos logikusan gondolva minek törődnének a konkurens fejlesztéseivel mikor ott a saját, mert ugye mint emlitetted, ezek már csak alkalmazásból lesznek elérhetők és akkor gondolom driver- ből már nem is lehet majd ráerőszakolni ha a fejlesztő eleve nem irt rá támogatást a programba ?
-
lowzor
veterán
Tri-X-nél is bőven benne van a képben a gányolás, hogy miért, azt a 290 topikban már 1000-szer leírtam. És az nem egy 10 másodperces móka, mint egy venti rádobása a backplate-re. Ráadásul az nem is szükséges, csak azoknak, akik egész nap a VRM hőfokát pátyolgatják.
Sapphire palettájából én alapból a Vapor-X-eknél kezdenék, annyit szívtam már a belépőszintű kártyáikkal. -
Abu85
HÁZIGAZDA
válasz
daveoff #3460 üzenetére
Mivel a DX12 egy low-level API, így a Crossfire és az SLI pont annyira lehetetlen, mint az AMD API-ján. A fejlesztőnek kell egyénileg megírnia a több GPU-s módot. A driverből kényszerített megoldások üzemképtelenek.
Minden low-level API, amely explicit memóriamenedzsmentet enged annyit jelent, hogy a grafikus driver az aktuális formában eltűnik. Amit ma be tudsz kapcsolni, mint az MSAA, post-process AA, anizo, akármiizé, V-Sync, A-Sync, G-Sync, adaptív akármiSync, meg még a jó ég tudja, mi van a driverben teljesen eltűnnek. Mindegyik funkcióra az alkalmazásba kell támogatást írni, direkten, minden architektúra minden verziójára, mindenféle különbséget figyelembe véve.
Ez az egész abból keletkezik, hogy eddig a driver látta mi van a memóriában. Mostantól csak az alkalmazás látja ezt. -
daveoff
veterán
Most volt egy hír, hogy a DX12-nél több kártya esetén már nem kell tükrózni a VRAM-ot, hanem ténylegesen ki fogja használni az összes rendelkezésre álló memóriát. Ezek alapján kétlem, hogy nem kap CF/SLI támogadást, ez az elmélet is megdőlni látszik...
A monitorokra visszatérve, már lehet kapni 144Hz-es IPS G-Sync monitort, A-Sync még mindig sehol. És van egy olyan sanda gyanúm, hogy az ilyen paraméterekkel rendelkező A-Sync monitorok se lesznek 200$-al olcsóbbak.....
(#3459) Abu85: Rendben, reméljük így is lesz....
-
Abu85
HÁZIGAZDA
válasz
daveoff #3455 üzenetére
Dehogy lőttek! Már milliószor írtam, hogy az AMD API-ja mögött egyetlen cég áll, vagyis sokkal gyorsabban fejlődik majd, mint a DirectX 12. Amellett persze, hogy már ma is többet tud. Azért fejleszt számos stúdió elsődlegesen az AMD API-jára, mert ha igényelnek valamit, ami az API-ban nincs benne, akkor azt akár saját maguk belerakhatják. A DirectX 12-nél a Microsoft dönt arról, hogy mi a jövő és nem a fejlesztő. Ez még mindig sokaknak nem tetszik. De a DirectX fejlődése is irányítható, ha van egy olyan API-d, ami kikényszeríti a változást a Microsofttól. Nem kell könyörögni nekik egy funkcióért. Belerakja az AMD a saját API-jába és a fejlesztők odadobják a pöttyös labdát az MS-nek, hogy mi erre megyünk. Követhettek minket, vagy lemaradhattok.
-
HSM
félisten
-
HSM
félisten
válasz
#35434496 #3453 üzenetére
Amiket felsoroltam (Mantle, A-sync) is van gyakorlati haszna, csak a TrueAudio, aminek még nincs.
Mellesleg az Nv semmi különöset nem talált fel a Maxwell-el, kiszedtek pár játékra felesleges részt a GPU-ból, tettek bele egy nagy cache-t, és ultramobil GPU-knál szokásos megoldásokat, és kb. készen is voltak. Nem azt mondom, hogy bizonyos szempontból nem lett jó a végeredmény, de most a fejlesztésekről volt szó, abból meg semmi érdemlegeset nem látok a Maxwell-ben.(#3454) Asbee: Ne gyere már szalmabáb érveléssel... Egy nyamvadt 12cm-es elfekvő ventit rátenni a backplate-re nem egy nagy dolog. Senki nem beszélt olyanokról, hogy ki kell vinni a fagyban az erkélyre, meg hasonlók.
A Gigát, MSI-t fújhatod, nem lesz tőle lényegesen hűvösebb, mivel azokon gyárilag nincs backplate, ami akadályozná a kártya hátuljának hűlését. Az MSI-n ami van, az pont besegít hűteni, mivel máshogy oldották meg.
Ugyanazt írod, mint én, hogy minden nélkül a Tri-X a belépő. Oké. Az is 110K-ba kerül, mármint a 290X-ből. Akkor mi most a probléma az állításommal, hogy 110K-ért használható 290X-et kapni?(#3455) daveoff: Lesz még hely a Mantle-nak a DX12 mellett is. Főleg, ha tényleg multi-GPU támogatás nélkül hozzák ki a DX12-t.
Másfelől ma is van haszna, "kicsit" fürgébb vele pl. a BF4, mint DX-el. Tudom, a régi lassú monitoroddal nem láttad a difit, de attól még lehetett.
Ami meg az A-syncet illeti, nem tudom, hol tartanak a monitorok, de egy rakás típus már be is lett jelentve januárban, szóval már arra sem kell sokat várni. Aki pedig nem cserélgeti félévente a gépében a VGA-t, az nagyon fog örülni neki, hogy nem két monitor áráért fog egyet kapni, mint a G-sync esetén. -
daveoff
veterán
Mantlenak lőttek a DX12-vel, A-Sync monitort nem kapsz sehol, Trueaudioról semmi hír a bejelentés óta. Most akkor ezeknek hol a gyakorlati haszna? Abba szerintem most ne menjünk bele, hogy milyen párhuzam van a Mantle, és a DX12 között, mert annak ehhez semmi köze. Jó az AMD magában is, ezt nem vitatom, de nem ezektől a dolgoktól, mert ezeknek a fejlesztéseknek jelenleg(1,5 év elteltével) nem sok hasznát látom, ezek miatt most már biztos nem vennék AMD-t.
-
Asbee
veterán
Ja, akkor ha én kiviszem télen az erkélyre a gépet akkor a ref 290 is ajánlott már? Nem gányolás csak egy picit cipelni kell a házat. Ilyen alapon az MSI-t fújjuk 2 db ventivel a gigát meg 3 db-al és már azok is ajánlottak. Ami 970 meg a kezdetekben erősen coil whineolt az meg mehetett volna hangszigetelt házba. Én továbbra is azt tartom aki a gépbe akarja tenni a kártyát és használni ahogy van szépen nyugalomban oda a Tri-X a belépő. A vapor x meg egyenesen jó.
-
HSM
félisten
válasz
daveoff #3450 üzenetére
Nem látjuk a hasznát? Most viccelsz?
DX12 az nem haszon, ami lehet még hír szinten sem létezne a Mantle nélkül? A-sync nem hasznos? Egy rakás monitor be van rá jelentve, akinek olyan kártyája van, csak rádugja a monitort és megy, nem kell "feleslegesen" 200 dollárral megdrágítani a monitort, mint a G-sync támogatáshoz.
Igen, a TrueAudio még mostohagyerek, de azért nem temetném. Azt nem is azért rakták bele, hogy azonnal ki legyen használva, hanem hogy növeljék a piacát, mivel nem "drága" a beépítése és idővel hasznos lehet. No, meg nyilván a fejlesztők is csak akkor veszik majd komolyan, ha kellő felhasználóbázis van. Ez meg is volt említve, mikor bevezették. Szerintem ez is tök jó dolog.(#3451) Xmister: Így van.
-
Xmister
senior tag
válasz
daveoff #3450 üzenetére
Ez altalaban igy van...lasd a tobbszalu programok terjedese, vagy a ujabb utasitaskeszletek hasznalata a cpu-kban.
Altalaban az uj fejlesztesek eredemenyeit nem az azt bevezeto generacio elvezi leginkabb, hanem a kesobbiek, de valahol megis be kell vezetni, hogy elkezdhessenek epiteni ra.
Ha nem csinalnak ezeket a fejleszteseket valoszinuleg a legnagyobb ujdonsag ma is az lenne, hogy tamogatja a Pixel Shader x+1. verziojat. -
HSM
félisten
Ha neked gányolás egyetlen venti rápakolása a kártya backplate-jére, akkor igen, a Tri-X a belépő.
Házon belül akkor változott meg a véleményem az Asus-ról, mikor asdxv linkelt ilyen plusszventis eredményeket a kártyával, amik teljesen korrektek voltak. Korábban ilyen eredmény nem volt elérhető. Így a hűtetlen (ráadásul Elpida, ami jobban bírja a hőt) ramok sem tűnnek veszélyesnek. A plusszventi nélkül továbbra sem ajánlanám senkinek 100-110 fokig melegedő VRM-el, de nem is ez volt most a téma.30FPS-nél 10-15% az a 4-5FPS. Ugyanúgy, ahogy 100FPS-nél 10-15FPS. Nem egy lényeges diferencia.
Mondjuk ha már a 40FPS megvan (+30%), na azt már észreveszed. -
Asbee
veterán
Érdekesen változik a véleményed ha már nem házon belül kell maradni. Eddig mindenkit beszéltél le az Asusról, most meg már ajánlod. Továbbra is aki egy jó kártyát akar mindenféle gányolás, módosítgatás nélkül oda a tri-x a belépő. De inkább egy vapor X ami hőmérsékletben, hangban elfogadhatóbb egy custom 980-al szemben.
Ilyen több monitoros nagy felbontásos rendszernél a minimum 30 fps körül az a 4-5 fps is nagyon sokat számít.
-
HSM
félisten
Palit 980 volt a legolcsóbb 980, 160K. 290X-ből ugyanonnan Asus DC2 110K, Sapphire Tri-X szintén 110K.
Lesznek komoly AMD fejlesztések is, csak győzzük kivárni. A Tonga is igen jó lett, és a Fiji is nagyon ígéretes a HBM-el... Érdekes amúgy, hogy az Nv-re gondoljátok, hogy fejleszt, amikor úgy igazából semmi drasztikusat nem tud felmutatni a Maxwell. Gyors és hatékony, de mi újat tud felmutatni? Ehhez képest már a 290-ben, egy évvel korábban is már igen komoly AMD fejlesztések voltak, A-sync, TrueAudio, Mantle, csak ami hirtelen eszembe jutott. A csipjüket is sokat csiszolták azóta, pl. preemció a Tongában, fejlesztett tömörítés, felezett pontosság támogatása, rugalmasabb setup.
(#3431) Malibutomi: Ez a kedves visszatérő kuncsaftokat minősíti....
-
daveoff
veterán
válasz
Casanova* #3436 üzenetére
Erről sajnos nem tudok semmilyen adatot, de ha megnéznénk a 290x megjelenése utáni pár hónapot, akkor szerintem töredéke lenne ennek a számnak. Hogy ebből mennyi 290x-et vittek vissza? Jó kérdés, szerintem sokat a BS probléma miatt.....
Szerintem döbbenetes mennyiségben fogy a 970, tarol az NV ezzel a kártyával....
-
daveoff
veterán
válasz
Malibutomi #3427 üzenetére
Iponban 700db 970-et adtak el eddig, ebből eddig 2db-ot vittek vissza a mem sávszél probléma miatt, vagyis a téves specifikációk miatt. Ez friss infó, tegnap vitte vissza haver, innen tudom, Ő volt a 2. Egyébként neki azt mondák, hogy visszaküldik a beszállítónak, és vissza fogja kapni a pénzét.
-
Laja333
őstag
válasz
Malibutomi #3427 üzenetére
Mondjuk így belegondolva: ha a csalódott 970 tulajok elpasszolják a kártyákat azoknak, akik örülnek h vehetnek egy értékcsökkent terméket, ők meg vesznek maguknak 980at ráfizetéssel, akkor... még jól is jön ki az NV, mert még több kártyájuk lesz a piacon.
-
Malibutomi
nagyúr
válasz
#Morcosmedve #3429 üzenetére
Az a baj, egy ismerősöm jut szembe, aki minden kuncsaftjával úgy beszélt mint a szarral, de jó áron adott cuccokat, és mindíg azt mondta úgyis visszajönnek, lehetek köcsög velük. Ez jut eszembe az NV-ről is. Jó cuccokat csinálnak, de gusztustalan ahogy próbálták ezt az egészet elsumákolni.
-
#Morcosmedve
veterán
válasz
Malibutomi #3427 üzenetére
Pontosan, ugyan úgy jönnek a Maxwell topcba új vásárlók, akik tudtak is róla, de ha eltántorodnának is nV-tvesznek, jellemzően 980-at...
-
Malibutomi
nagyúr
válasz
KAMELOT #3424 üzenetére
Mégis mit kellett volna lépnie? Kiadja a kártyákat tesztek nélkül? Vagy GPU nélkül ha még nincs legyártva? Vagy memória nélkül, mert Abu azt mondja a HBM-re várnak. Vagy addig álljon ki egy mérnök és táncoljon a webcam előtt 24/7-ben ha még nincsenek kész a kártyák?
Ha minden igaz a 360X jön először most márciusban, aztán sorban a többi.
-
KAMELOT
titán
válasz
Malibutomi #3423 üzenetére
Jó de itt én arra akartam utalni, hogy októberben kijött a GTX970 utána meg a 980 erre kellett volna lépni AMD-nek. Azóta eltelt 5 hónap és a piacot elvesztették! Innét nehéz visszajönni!
Kitudja mikor jönnek az új AMD-k?! -
proci985
MODERÁTOR
válasz
KAMELOT #3421 üzenetére
oke, meg egyszer, a 970/980 iszonyatosan le van folytva a refkariknal.
gyakorlatban nonrefnel a TDP 200/230W korul alakul. nezz refteszteket, a kartyak egy resze az alap boost orajelbol visszavett neha, viszont OC modellek egy resze 20%al megy boost fole.
290x kb 300W.
AMD is fejleszt, csak chipet kihozni ido, az nv meg letartolta a piacot a 970el. mas kerdes, hogy ismerosi korben a GTX970ek fele vagy gariban van, vagy megy vissza. mondjuk mi nem igazan vagyunk reprezentativak.
-
KAMELOT
titán
Pontossan ez a baj! Elmaradt a fejlesztés 1 éve semmi hír talán most van, de az árakat nézve azok sem lesznek fényesek. Így elvesztették a vásárlók zömét mert nincs újítás. Mindenki átpártolt NV oldalra aki új kártyát vett. 970 csonkított picit, de még akkor is jó kártya alacsony fogyasztással és kicsi hőfokokkal.
Aki nem tuningolja szét a kártyát annak jó alternatíva.
Azért azt is meg kell nézni, hogy alap TDP és ott érezhető a különbség és itt kéne picit fejleszteni.
980...165W
290X....250W
AMD-vel nem tudom mi történt. Proci/VGA téren is csináltak erős termékeket csak rohadt nagy fogyasztással.
AMD FX-9xxx az is 220W...az már hardcore! -
TTomax
félisten
De,gyorsabb az mindenhol...az hogy 4Kra meg csak 5-10% marad nem csoda,de még így is gyorsabb,szerinted melyik 290X 110K otthon?Abból is ami értelmes hűtéssel van szerelve rögtön nem 110K.Azért ennyi az ára,mert még ezzel az árral is piacot vesztenek,ne gondold ha a 980at az amd találta volna ki nem 160K lenne...
Amióta az eszem tudom az amd ezt csinálja,beépít egy sor olyan dolgot amit végül nem használ semmi,csak most megfűszerezik azzal hogy nem akartak 3évig fejleszteni.Tévedés ne essék,nekem se jó ha 160K-t kell adnom egy 980ért,ezért kritizálom az amdt,fejleszteni kell,mindig kell.... -
HSM
félisten
Na, végre valami konstruktív. De nézd azt is, hogy így nem is igazán volt gyorsabb a 980. Íme a kép forrása, amit valamiért nem linkeltél a sebességekkel: [link].
Hogy nincs érv a Radeonok mellett? Ez azért minimum elgondolkoztató a linkelt cikkből: "...These technologies combined have turned the tables and now CrossFire feels smoother than SLI. It still feels smoother even when compared to NVIDIA's new GTX 980 cards in SLI. While overclocked GTX 980 SLI is faster in framerate, the actual feeling and smoothness in games feels better on AMD Radeon R9 290X. AMD currently has the upper hand in this arena.
There also seems to be some games that scale better on AMD CrossFire. Watch Dogs is a prime example of a game that works great with AMD CrossFire, but for some reason is completely dropping the ball under SLI. In our previous evaluation we also found better CrossFire scaling in Alien: Isolation. "
Mellesleg nem lebecsülendő érv, hogy korrekt 290X-et itthon 110K-ért kapni, ehhez képest egy 980 minimum 160K. Inkább örülni kéne, hogy ilyen jó áron lehet manapság 290X-eket venni....
-
TTomax
félisten
Te ne nézz engem teljesen hülyének!Nincs meg alapfeszen az 1580 a 980nak... még csak véletlen sem... mert az sem kap alapból 1.275V-ot,az olyan jó eredmény SLIben hogz még OCUK-n is validot kértek róla......ráadásul feszlockos is,ne gondold hogy lehet agyba főbe feszelni a 980akat...Soha nem volt se 780ad,se 980ad,csak véleményed van róluk,ha az lenne a jobb akkor most az lenne a gépemben még ha többet is fogyasztana...csak legalább gyorsabb lenne,nincs érv mellette ezért is lett alacsony ára...
Tessék ez fedi a valóságot...
-
HSM
félisten
Nyugi, korrekt minőségű konnektoros mérővel volt ellenőrizve a szoftveres mérő, nem mutatott hülyeséget.
Csak ugye az csak a GPU, nem számolta bele a ramokat, azokat hozzávéve jön ki a 300W magassága, amit írtam.
Ne nézz már teljesen hülyének, ha kérhetem, jópár felesleges kör megspórolható lenne úgy.Remélem nem veszed sértésnek, ha feltételezem, hogy az említett órajeleket feszültségemeléssel sikerült elérni a 290X-en és 780 Ti-n, ráadásul ismerve a hivatkozott GPU-kat, nem is kicsivel. Így nem lep meg a +100W nagyságrendű extra fogyasztás. Ehhez képest az 1580Mhz gyakorlatilag alapfeszen megvan a 980-nak.... Ez így minden, csak nem fair összehasonlítás. A 980-nak is pillanatok alatt elgurulna a gyógyszere fogyasztásban, ha egy komolyabb feszelést ejtenél meg rajta, erre mérget vehetsz.
-
TTomax
félisten
Én nem a teszteket nézem hanem berakom a 290X lightningot a géppbe,nekem linkelhetsz akármilyen tesztet (főleg a saját szoftveres mérésed) a 290X lightningom többet evett 1250en mint a 780TI kingpinem 1250en... mindenhol.. ezekhez a kártyákhoz fogyasztásban fasorban sincs a mostani 980am,még 1580on sem... 100W minusz... és ráadásul gyorsabb...
-
HSM
félisten
válasz
proci985 #3413 üzenetére
970 G1-nél tegyük hozzá, sokaknak nincs olyan erős CPU-juk alá, mint neked. Márpedig ilyen VGA-k alá már nagyon kell, jópár játékban. Ház is sokat számít.
Az aftermarket hűtőket én sem szeretem. Erősek, és jól meg lehet őket csinálni, de sokat kell barkácsolni (VRM és RAM hűtés ugye, ha rendesen meg akarod oldani), és árban se mindig meggyőző a végeredmény.
-
proci985
MODERÁTOR
hd6950 reviewek: "ugyan a kartya tud thorttlingolni, de ilyet csak furmark alatt lattunk, meg par jelenet alatt metro2033ban". gyakorlatban nalam a crysis1 3840x1024ben vegig 720as GPU clockon ment 800 helyett. furprime 460Wig ment, crysis 430ig.
7850 CF hasonlo.
970G1nel neztem, hogy mindenki ilyen 65 fokokrol beszel, hat nalam 80ig ment. ok, furmark alatt 1240ig throttlingolt, mig jatek alatt 1408ig. btw maxra tolt hazventikkel ahol kb hozom az open bench eredmenyeket hofokokra is 73fokig ment a kartya, szoval latszik a terheles. meg eleve volt eleget tulmeretezett aftermarket VGAhutom (ill most eppen megint van), soha tobbet mert annyira maceras szerelni. plusz a VRM, meg a RAMhutes.
-
HSM
félisten
válasz
proci985 #3409 üzenetére
Ezzel a kijelentéssel azért kicsit szkeptikus vagyok. Ugyan csak pl. a BF4 belső "resolution scale"-jével játszottam, de ott nem okozott jelentős emelkedést a 290 hőfokában, csak simán elnegyedelte az FPS-t 200%-on.
Ezzel szemben a furmark valami brutálisan meghajtotta szegénykém. Bár nagyon nem mindegy, hogy van beállítva, elég durván változik tőle a terhelés.(#3410) TTomax: Egyszerűen butaságot beszélsz már megint, fűszerezve nem kevés ferdítéssel. Amit linkeltem neked tesztek, ott nem feszemelt kártyák voltak. A Giga G1 csak megemelt órajelében és TDP limitjében tér el a referencia 980-tól. Lásd pl. feszek: [link] [link].
Márpedig így a 290-ek sem fogyasztanak Furmark alatt 300W-nál többet kiakasztott TDP limittel sem.
Nyugodtan nézd meg: [link]. Feltolt +50% TDP limittel ennyit tolt a Giga WF3 290-em. A GPU fogyasztás is látszik a HWiNFO ablakában, meg az is, hogy az órajelet is tartotta. Ugyanúgy 300W körül volt a teljes kártya, 450W-nak a közelében sem.(#3411) KAMELOT: Nem unod még a kazánozást?
-
KAMELOT
titán
válasz
Malibutomi #3406 üzenetére
Megnézem akkor én is game alatt! Kösz az infót iígy már mindjárt más!
(#3407) HSM: Akkor megvárom a 6-12GB kártyákat!
-
HSM
félisten
válasz
Malibutomi #3403 üzenetére
(#3405) KAMELOT: Pedig pont az ilyen Furmarkos mérésekben van a legkisebb előnyük a Maxwell-eknek fogyasztásügyileg. Persze, kiakasztott TDP-fékekkel....
Lásd a G1 gigákat: [link] [link]PRIME95 + FURMARK-ot amúgy csak tápok tesztjére van értelme használni. A "valós" energiaigény ettől durván kevesebb, akkor is, ha 80-90%-ra van kiterhelve a proci és 100%-ra a VGA.
-
#35434496
törölt tag
válasz
Malibutomi #3403 üzenetére
Ez jó volt.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Okos Otthon / Smart Home
- Tőzsde és gazdaság
- Vivo X200 FE – fenséges méret
- Telekom mobilszolgáltatások
- Debrecen és környéke adok-veszek-beszélgetek
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen TV-t vegyek?
- VR topik (Oculus Rift, stb.)
- Milyen belső merevlemezt vegyek?
- exHWSW - Értünk mindenhez IS
- További aktív témák...
- ASUS ROG STRIX 4090 (RTX4090-O24G-GAMING) 24GB GDDR6X (még 12 hó garival)
- AZONNAL VÁSÁROLOK RTX 4090 és RTX 5090 videokártyákat! Akár nem működő, hiányos, sérült is lehet!
- MSI GeForce RTX 4060 VENTUS 2X BLACK OC 8GB GDDR6 Videókártya!
- GIGABYTE GeForce RTX 5060 Ti WINDFORCE OC 16GB GDDR7 128bit Videokártya !
- GIGABYTE RTX 4060 Ti 8GB GDDR6 WINDFORCE OC - Gari 2027.03.28. -ig - Eladó!
- Ár/ÉRTÉK BAJNOK! Dell Latitude 5330 i3-1215U 6magos! - 16GB 512GB 13.3" FHD vilbill, 1 év garancia
- LG 48B4 - 48" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- Xbox One S 512 GB + kontroller 6 hó garancia, számlával!
- Samsung Galaxy A12 64GB Kártyafüggetlen 1 év Garanciával
- Xiaomi Mi 10T Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest