- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Geri Bátyó: Megint tahó voltam – SZEMÉLYISÉGFEJLŐDÉS
- Meggyi001: Nyilvános wc-k.....még mindig hiánypótló...
- MasterDeeJay: Alacsony fogyasztású házi szerver a korábbi projektekből összeépítve
- Argos: Adjátok vissza a netet! - szeretnék elaludni!
- gban: Ingyen kellene, de tegnapra
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
Új hozzászólás Aktív témák
-
proci985
MODERÁTOR
válasz
velizare #21992 üzenetére
VRM jellemzoen a kartya GPU feloli oldalan van. VRMnek nem kell jetplate, teruletre levetitve messze nincs akkora hotermelese mint a GPUnak.
290X refeknel volt ra pelda, hogy a VRM meg vizen is meleg volt (ezen jobb gap paddal lehetett segiteni + a backplatet is lehet hoteritesre hasznalni), de ez megint relativ, leghuteshez kepest azert meg ugy is jobb volt a helyzet.
egy 6mmes hocso (ahogy nezem akkora) az talan ilyen 25Wot tud, de a 8as is kb 35Wot ha jol emlekszem. vagy valahogy akorul.
-
talán. ha valami elmozdult/nem érintkezik. a hátsó vrmeket egy gap-pad köti össze a "frontplate-tel", arra van ráfogatva a hűtés rézcsöve. az fc maszkoknak szintén nincs jetplatejük a vrm felett, szóval ez nem lehet különbség, dedikált vrm hűtést pedig csak az aquacomputer 295x2es bp-n láttam, és az sem egy nagy durranás.
-
gyiku
nagyúr
válasz
#Morcosmedve #21988 üzenetére
az lehet. full cover alatt nem csinal ilyeneket.
-
Abu85
HÁZIGAZDA
Nem. De nem is ez a lényeg az AMD/Intelnek, akik a Raptr cuccát támogatják. A cégeknél nagyon jó kimutatás van rá, hogy amelyik felhasználóbázis egyáltalán tudja, hogy létezik külön letölthető meghajtó, akkor azoknak a felhasználóknak nagyjából a háromnegyede képes arra, hogy a default felbontást megváltoztassa. Ez nem vicc, így kategorizálva van a user. Tehát technikailag nem pont az a bázis a célközönség, akik tudnak meghajtót telepíteni, hanem akik csak Windows update-eznek. Őket egyedül a Ratpr-nek sikerült megszólítani. Nem ezekkel a flancos fícsőrökkel, hanem a tucatnyi social marhasággal. De a lényeg, hogy a Raptr telepítés után már tud nekik szólni, hogy "Hé te hülye, a te VGA-dhoz van gyártói kiegészítés is xy extrával, töltsd le most!"
Custom telepítést és pipa ki.
-
edari
őstag
És szerinted ha valaki letölti az amd oldaláról a drivert, akkor automatikusan a raptr-ba megy állígatni?
(Nekem mondjuk herótom van tőle, hogy kb 1 gépre kell csak figyelnem ebből a szempontból amiben amd kari van, mert ha frissül a driver akkor 2 olyan program is felmegy, ami k*rvára fölösleges. Mintha egy utorrentet raknék fel ami még másik 80 programot felrak.)
-
Abu85
HÁZIGAZDA
válasz
daveoff #21947 üzenetére
Az NV azt mondta, hogy aki driver telepít azok 90%-a felrakja az experience-t is. De azt már nem mondták hozzá, hogy a felhasználóik 85%-a Windows Update-en keresztül letöltött drivert használ, amiben nincs experience. Na most igazából pont ehhez a 85%-hoz kellene ezeket a programokat eljuttatni, mert ők azok, akik nem értenek hozzá. Azt sem tudják, hogy lehet külön drivert telepíteni.
Az energiahatékonyság és nem a fogyasztás szempontjából. Nagy különbség. Azt pedig te is kitalálhatod, hogy van egy 150 wattos TDP-jű cucc, amin a feszültséget úgyis x-re kell állítani, de nem mindegy, hogy ahhoz a hardver 1000 vagy 1150 MHz-es órajelt tud használni.
-
#85552128
törölt tag
-
#85552128
törölt tag
válasz
MiklosSaS #21979 üzenetére
Anno 1120-on néztem tesztet a non-xszel, de ahhoz is már plusz fesz kellett és rendszeresen rosszabb eredményt dobott a 3DMark mint 1050@1.187V (-63 mV). Szóval szerintem nálad az OC volt a gond, stock feszen/órajelen is volt, hogy néha nem fért bele a gyári TDP limitbe ez sem ( nem csinált ilyen "piramisokat" mint nálad, de visszavett egy keveset)...
A "kedvenc" AOTS is ugyanannyi vagy több FPS-t dobott 1050@1.187-en mint stock 1103@1.25V-on (ez se volt am. stabil, de az AOTS lefutott).
Am. szerintem akkor is mondtuk, hogy egy jófajta custom 980 Ti-ről nem nagyon éri meg váltani (sőt, inkább downgrade)... -
proci985
MODERÁTOR
válasz
proci985 #21850 üzenetére
na kozben talaltam egy megfelelo tesztet, tenyleg nem ment a Just Cause 3ban a multigpu egyik oldalon sem.
Az egyetlen kulonbseg skalazodik / nem skalazodik szinten a ket gyarto kozott nemi microstutter GTA5 alatt AMDnel CFben. Ebbol nekem az latszik amit korabban mondtam, hogy ha az egyik gyartonal skalazodik a multiGPU, akkor a masiknal is fog. AMDnel megesik, hogy par napot kesik a profil, de elnezve az idei helyzetet sajnos mar nem nagyon van profil.
Egyebkent ahogy nezem ez is a szokasost hozza ki, avagy minel GPUnehezebb a helyzet, annal jobb a skalazodas, ha van. Viszont tenyleg eleg sok jatek van hibahataron belul egy gpuhoz kepest, foleg 2016 kiabrandito. Ami meg ennel is jobban kiabrandito, hogy egy GPU meg mindig nem teljesen eleg 4Kra.
miklosss2012: ez nekem tulmelegedesnek tunik, nalam a Matrix Platinum csinalt ilyet meg legen aminel kisse alulmereteztek a hutest (ill kicsit magas volt a gyari fesz az alacsony ASIQos kartyahoz, ez nezopont kerdes).
a masodik ket kephez hasonlot en tulmelegedo memoria miatt lattam Project Carsban.
ja igen: Crysis3 magasabb felbontasban jobban terhel a furmarknal rendszerszinten (GPU szinten hasonlo a helyzet, de mas is melededik ami a hazban adott esetben magasabb ambient tempet csinal).
ez persze rajtad nem segit, az meg kulon szomoru, hogy adott esetben a 290X utan a furyt is custom vizzel kellett huteni.
-
MiklosSaS
nagyúr
válasz
Erdei88 #21976 üzenetére
Lehet igazad van.
@Gyiku: most komolyan, a kártyát szerettem, baXott jól nézett ki...anno még az XPower AC lapomat is lecseréltem miatta...de a szoftver...az valami hihetetlanül hulladék.
Vram melegedés, rángatás...különbözõ szoftvereket feltelepiteni hogy használható kategória legyen. Az az érzés megfizethetetlen amikor elkezdesz játszani és 100 FPS-rõl esik 80, 65, 45 majd 20-25-re mert utánozni próbálták az NV energia managementjét....igazi innovatív "gyümölcs". Meg amikor már azt hiszed hogy mindent xarját megoldottad, akkor elõjön a hupikék-lilla-foszfor zöld szinjáték.......Sajnos azt kell mondanom hogy amennyire szerettem az elején, annyira utáltam a végén. Pedig anno még rá is fizettem a 980Ti árára hogy megvegyem.
Ha olyan jó lett volna, akkor most nem 980Ti volna ismét a gépemben, ami 1500 MHz-en kb 25-30 %-al erõsebb mint a Furyka IKSZ 1150 MHz-en. 1440 p-ben.
-
Laja333
őstag
-
Laja333
őstag
válasz
#45185024 #21969 üzenetére
Sajnos ez csak 1 játék. Azért sokan vannak, akik 1-2 éves játékokkal is játszanak, ott meg nem igazán jön vissza ez a sorrend. Az tény, hogy 115-ért elég jó ajánlat egy Fury. Mondjuk engem zavarna, hogy egy játék eleve kizár a magasabb grafikai részletességből a 4 GB miatt.
Egyébként ezt a Fury/Fury X vonalat valahogy mindig egy bétának láttam. -
#45185024
törölt tag
Hozzá szeretném tenni a képhez hogy ma vadi újan 115 ért lehet Furyt kapni.
Kösz a halakat és csá -
keIdor
titán
válasz
Venyera7 #21965 üzenetére
Vicces az olyan kijelentéseidet olvasni, hogy nV-n nincs fejlődés. Mikor nagyon úgy néz ki, hogy a 1070 és 1080-ra és Titan XP-re jó 12 hónapig nem is lesz válasz.
Az az eset áll fent, hogy nem tudom eldönteni, hogy ide trollkodni jársz-e, vagy te ezt tényleg így is gondolod. Mindkét esetben hatalmas a baj.
-
keIdor
titán
válasz
Ren Hoek #21964 üzenetére
Nem lesz Vega szerintem idén már. Mindenhol ezt a 2017 első félévet hozzák már le. [link]
Ez egy AMD prezentáció, én szerintem igaz és amikor első félévet adnak meg, akkor az mindig Q2. Tehát 2017 április, május, júniusban lesz Vega. Csak az a baj (nekik) hogy VS Volta, mert azt is májusra mondják már. -
do3om
addikt
válasz
Venyera7 #21965 üzenetére
Úgy beszélsz mint egy gyerek. Úgy tűnik nem vagy tisztában a dolgokkal.
Elhiheted ha gyors karit akar az AMD 4000 sp-vel annak lesz gondja a hűtéssel és a fogyasztással. Vagy teljesen át kell tervezni amit eddig összehozta a csoda gyártástechnológiájukkal.Az NV nem fejlődött? Akkor az AMD mint csinált? A jelenlegi leggyorsabb VGA lassabb mint a 28nanon kiadott
, talán jön valami gyorsabb év végéig de már azt is pedzegetik hogy nem biztos.
A technika fölény egyértelmű a 390-hez képest sokkal kevesebbel hozza azt a szintet ez így van, de gyorsabb nincs, igy meg mi értelme? Adjanak ki valamit ami gyorsabb.Még lemaradt: olcsó legyen és gyors...
látjuk hogy megy ez, még az is meglehet hogy lassabb lesz de drágább. Mindkét cég pofátlanul áraz, nincs olyan hogy majd az AMD jól fog, kicsit sem jobb mint az NV.
-
Venyera7
senior tag
válasz
Ren Hoek #21964 üzenetére
Nehezen hiszem, hogy 250W lesz a fogyasztás, de legyen, hol a gond? Olcsó legyen és gyorsabb, mint a konkurencia...Aztán az Nvidianák befellegzett.
Kellene már az 50%-50% és talán jobb áron vehetünk kártyát.
"Pascalok ebben mocsok jók, szóval ebben NV win, ez egyértelmű. Kérdés?"
Ugyan nemigen van fejlődés Nv oldalon, ha a Maxwellhez hasonlítjuk. Az Rx 480 kb. 390 szinten van és ha ahhoz viszonyítjuk, akkor nagyobb fejlődés van AMD oldalon.
-
Ren Hoek
veterán
válasz
#02119936 #21956 üzenetére
480 custom hőtermelése/hűtése még szerintem rendben is van, vegyük úgy, hogy sokat fejlődött a korábbi generációhoz képest. (Keserű szájíz picit, de ez a hőmennyiség még elfújható, kb egy 970 szintje... ott nemrégen még egy jó hőfok/fogyasztásnak számított Hawaii-al szemben
- csak hogy objektívek maradjunk.
Pascalok ebben mocsok jók, szóval ebben NV win, ez egyértelmű. Kérdés?
Talán az, hogy ha Polaris 2300 SP-vel ennyit fűt, akkor mi lesz 4000-el? Fury-k odapakoltak rendesen fogyasztásban, negatívan... HBM2 ide-oda. Sebaj, bízzunk benne, hogy Vegát áttervezik és 250 Watt körül marad... bár nekem eléggé hihetetlennek tűnik. Nálam hónapról-hónapra exponenciálisan emelkedik az 1070 szemben a Vegával Karácsonyig...
Pedig a Vega / Karácsonyi szezon óriási ziccer, ha nem hozzák.
Pedig remélem jó lesz, mert Vincent Vega nevét nem csúfolhatják meg az AMD-sek
-
válasz
#65755648 #21950 üzenetére
Még 1x leírom, mert úgy látszik nem voltam elég világos: SENKIT NEM ÉRDEKEL, hogy maga a skálázás önmagában mennyivel gyorsabb vagy lassabb egyik vagy másik kártyán.
Nem, tényleg nem voltál elég világos, ugyanis egy olyan vitába kapcsolódtál be, ami kifejezetten a skálázási algoritmusról szólt. Visszatértünk az elejére - olvasd el, amire válaszolsz.
A többivel kapcsolatban meg - abszolút nem volt elfogadható, amit előadtál, mégis mire számítottál válaszként? Ha ennyire érzékeny vagy, akkor esetleg jobb lenne nem kötekedni. Ha kultúrált stílusban adtad volna elő a kételyeidet, és nem építesz fantazmagóriákat azzal kapcsolatban, hogy mit miért csinálok, akkor én sem javasoltam volna, hogy menj orvoshoz
Részemről is befejezve a dolog, nem volt egy túlzottan építő vita, viszont annál több benne a tanulság...
-
#00137984
törölt tag
válasz
#02119936 #21956 üzenetére
Azért én megpróbálom.
RX470 és GTX 1060 kártya GPU hőmérsékletek között 1 fok eltérés van terhelés közben. Másik meglepő fejlemény az állandó @812 RPM. Ez a ventifordulat kevés és ekkora terhelés mellett legalább 1700 RPM környékén zúgnának a ventik. Gyári értéken ez történne. Továbbá... jelenleg egy Tweak program sem müködik még hibátlanul RX400-on (főleg nem MSI-n), mert nem jól kezelik a Powertune és a ventiprofil beállitásait. Egy Tweak program behatása erősen érződik a teszten, amivel a Guru3D eredménye számomra kicsit fals. Nem olvastad el az utóbbi néhány hozzászólást.
-
Venyera7
senior tag
válasz
#02119936 #21953 üzenetére
Ez sok tènyezőtől függ, az èn 1080 FTW kártyám is ment 80 fok fölè. Aztán kiderült mièrt, elfelejtettem levenni a tetőt. Egyèbkét ez a kártya sem hideg, átlag 75fokos. Gond 90fok felett van, addig üzemi hőmérséklet. Könnyen lehet, hogy valami üvegkalitkàban teszteltèk.
-
#00137984
törölt tag
válasz
#02119936 #21953 üzenetére
Ilyen hőkép mérést Asus Strix RX470 kártyánál is néztem. Egyik tesztben 60-70fok felett nem mértek többet, másik oldal tesztjében meg 80-90fokot mértek. Nekem szintén MSI RX470-em van, de ez 4GB-os. Normális hőfokokat mértem terhelés közben és a zajszint is rendben volt. Ez gyári értéken van, de Tweak programokkal a helyzet majd tovább javulhat. Az MSI TwinFrozr VI hűtése az egyik legjobb és nekem valamivel hüvösebb is a kártyám mint az Asus Strix R9 380-am volt. Backplate nem minden körülmények között javit a hűtésen. Nem jó kivitelezésben még ronthat is a hőleadáson.
-
#02119936
törölt tag
válasz
távcsőves #21951 üzenetére
Tessék nézd meg a két tesztet. No comment.
MSI Radeon RX 470 Gaming X 8GB
MSI Radeon RX 480 GAMING X review480-as is izzik de takarja balckplate. ennyit az AMD-ről
-
#00137984
törölt tag
Szintén eladtam az R9 380-at, mert a DX11-ben elérhető teljesitménye az igényeimnek nem volt megfelelő. Ezt az igényt nem én emeltem ilyen magas szintre, hanem a hardver és játékfejlesztők. Most RX 470-et használok, mégsem zavar annyira az hogy ez mennyibe is került nekem. Deus Ex Mankind Divided játékban majd kifizetődik amit a fejlesztésre rászántam. Nem vártam az árak normalizálodására, mert az még a Battlefield 1 játék megjelenése után sem várható. Talán majd év végére olyan 4-5 ezret majd esik az ára, azt kész.
Fogyatékosnak nevezni egy RX470-es kártyát megint túlzásnak mondható a GTX970 fiaskó után. Egyszerűen letiltott részek vannak benne, da az teljes értékű 256bites kártya és nem egy csonkolt 192bites mint a GTX1060. Amúgy ettől függetlenül mindkét kártya gyorsabb és sok játékos gépben inkább a teljesitmény számit.
-
#65755648
törölt tag
"Nohát, megvádolsz mindenfélével, utána pedig elképeszt a válasz?"
A "szakmai" tudásodat kérdőjeleztem meg, szarkasztikus hangnemben, amit semmi nem tilt. Mire Te szánalmas személyeskedésbe és jelzőhasználatba kezdtél - ami itt a fórumon tiltott - és olyan szintre süllyedtél ahová nem akartalak követni - hogy egy klasszikust idézzek. És engem vádolsz miatta? Erre emlékeztetsz: "Nem tehetek róla! Idegállapotba vótam Maóónika!""Face-to-face sokkal kevésbé lettem volna türelmes, a 21853-hoz hasonlók után elküldtelek volna valami erősen deklaratív helyre"
Aha, és még én vagyok az őrült... na pont az ilyen mondatok miatt nem hiszek el vakon mindent amit leírsz. Ha úgy lenne ahogy írod akkor egy közveszélyes őrült kellene hogy legyél, márpedig én nem feltételezek rólad ilyesmit.Még 1x leírom, mert úgy látszik nem voltam elég világos: SENKIT NEM ÉRDEKEL, hogy maga a skálázás önmagában mennyivel gyorsabb vagy lassabb egyik vagy másik kártyán. Ezt csak Te keverted ide, mikor elkezdted levonni a magasabb felbontással mért FPS-t és erre írtam hogy félremagyarázol. Ugyanis senki nem tudja önmagában csak a skálázást használni. A magasabb felbontásban való számolás az ALAPJA a VSR-nek és a DSR-nek, így ha őket akarod vizsgálni, akkor nem vonhatod ki belőlük a magasabb felbontás teljesítményigényét (illetve kivonhatod, csak akkor már nem a VSR Vs DSR teszted végzed, hanem a skálázók tesztjét...).
És pontosan ezt mérte ez a teszt: megmutatta mi fog történni a felhasználó gépén ha bekapcsolják VSR-t illetve a DSR-t különböző kártyákon és játékokban. Jah, hogy talán CPU-limites volt? Lehet. Vagy hibáztak? Lehet. De az is lehet hogy jó és nem volt limit. Vagy hogy reális összeállítású konfignál ezek a játékok még FHD-ben is CPU-limitesek a felhasználók gépeiben is, vagyis a teszt az olvasók és a mi szempontunkból helyes és informatív. De az is lehet hogy nem. Ha meg akarod cáfolni, mérd ki és bizonyítsd be. Mindaddig én elfogadom helyesnek.
A skálázó meg egyedül a képminőség szempontjából érdekes, amiben jobb az AMD. Hogy mennyivel, maradjunk annyiban hogy nem értünk egyet.
Ennyi, részemről lezártam a témát. Így is túl sokáig osztottuk a semmit.
-
do3om
addikt
-
Egon
nagyúr
válasz
Yutani #21945 üzenetére
Régi szép idők, amikor még volt Diamond... V330 nekem is volt, meg utána V770 is (TNT1-esből Creative volt, az kevésbé volt bejövős).
Első, és eddig egyetlen használtan vásárolt vga-m pedig egy BBA Ati Radeon 9700 Pro volt (jó eséllyel az utolsó is, mármint használt - bár az asszony meg a gyerek gépébe vettem azóta is használtan vga-t, legutóbb tavaly). -
daveoff
veterán
Hát pedig akiknek NV van a gépében, azoknak a felhasználóknak a 90%-ánál telepítve van a geforce experience, akkor hogy tudna mégis a raptr nagyobb bázist kialakítani? Ezt megint mire alapozod?
(#21926) Abu85: Ezt még Te ecsetelted anno, hogy az AMD féle boost/powertune profil mennyire fontos a fogyasztás szempontjából, ha jól emlékszem.
-
Ren Hoek
veterán
válasz
Yutani #21909 üzenetére
"Abu leírja, amit a gyártóktól hall, illetve amit az alapján vár. Az, hogy nem jön be vagy eltolódik, késik, nem feltétlenül az ő hibája"
Most ezt nem Abu-ra értem, hanem általánosságban mondom a szakújságírókról. Egy szaktekintély, aki mély szakismeretekről ad tanúbizonyságot, vannak konkrét piaci információi jóval megjelenés előtt stb... a "nép" feltételezheti, hogy lehet adni a szavára. Kicsit olyan, mint egy AMD/NV céges "képviselő"... Az újságíróknak nagyon is kell vigyázni, hogy mit mondanak, mert könnyedén elindíthatnak például egy használtpiaci pánikot pl egy félresiklott kijelentéssel - ami már konkrétan embereket károsít meg. Hopp aztán belettek hülyítve az emberek, mégsem jön a kártya, mégsem lett olyan ütős, mégsem kerül annyiba, mégsem lett annyi chip stb.. aztán mire jön a valós termék, kiderül semmi nem olyan mint ami be lett lengetve.
(Mondom ezt azért, mert én is hülye voltam, beszoptam a Polaris hype-ot és elnyomtam gyorsan a 970-et még megjelenés előtt... akkor estek is jó nagyot az árak a generált pánik miatt "szart se fog érni a kártyád hamarosan... " stb.... Hopp aztán mikor kijött a Polaris újra normalizálódott a piac, mert kiderült még sem akkora atomrobbanás, Vegának meg nyoma sincs, és nem is lesz januárig. Persze ez az én hülyeségem, és most már lesz.rok 5-10K-s bukást. Megtanultam a leckét, piaci döntést soha ne hozz fórum alapján. Pont. Pont ellenkező a hatás, meg kell tanulni szűrni az infókat, mert a fórum "káros", és egyáltalán nem jó arra, hogy segítse meghozni a legjobb piaci döntést - mert főleg érzelmek és személyes preferenciák motiválják - még a szakújságírókat is. Utóbbi tény a szomorúbb inkább...)
-
#00137984
törölt tag
Akkor majd kivárom.
A Wattman-t eddig egyszer próbáltam ki, és a ventivezérlése két csúszka egymás mellett. Gyakorlatban sem tudom igy mi értelme van, mert egy fix fordulatnak érzékelte és attól az RPM-től kezdett el szakaszosan gyorsulni a terhelésre. Zajszint küszöb megint nem sok mindenre jó, mert a maximumszintett lehet vele leszabályozni. Igy együtt használva sem találtam jobbnak mint egy Tweak program adta lehetőséget. Egy normális ventiprofil létrehozásának lehetőségét jobban értékeltem volna, viszont a párositott órajel és feszültség értékeket a legtöbb felhasználó jó esetben nem állitgatja szét. Ott mégis megadták az esélyt a vandalizmusra.
-
Petykemano
veterán
válasz
#00137984 #21921 üzenetére
Cask azt hisszük, mikor teszteket nézegetünk, hogy hardvereket veszünk hardverek teljesítménye és mellékeeen kapcsolódó támogatás alapján.
Te azt gondolod, hogy a terep, ahol versenyezni kell és amelyeken való szereplésről a tesztekben tanúbizonyságot kell tenni, a független, önálló. A versenypálya csak úgy magától van, a játékok csak úgy maguktól dx11-et, vagy 12-t használnak ésatöbbi, ami jellemzi egy játékot hogy hogy fut egy hardveren.
Nem. Amikor tesztet olvasol és azt gondolod, hogy azt hasonlítgatod össze, hogy különböző játékokban egyik és másik gyártó hardvere hogy teljesít, valójában tévedsz. A hardvergyártó a tesztben mutatott teljesítményének összetevői nem állnak meg a drivernél, hanem valójában ott vannak benne a játékokban is.
Amikor azt látod, hogy az amd a doomban mennyit gyorsult, az nem az, hogy fejlesztette a hardvert, és nem is az, hogy javított a driveren. Az az, hogy sikerült egy tesztpályát úgy építtetni, hogy az az amd hardverének jobban fekszik. Ez pont nem az, hogy na végre sikerült egy hibáktól mentes hardvert összerakni, vagy hogx végre ráfeküdtek a driverre.
Ezzel együtt persze az alapján választást, amit a tesztben látsz. De abban ma legalábbis legalább ugyanolyan mértékben benne van a kh ökoszisztémára való ráhatás, mint a hardver és a driver. Lehet, higy jobban
-
Abu85
HÁZIGAZDA
válasz
#00137984 #21931 üzenetére
A GCN5 eleve egy új ISA lesz, mert a GCN4 a GCN3 ISA-ját használja. Ezt nem akarták cserélni annyi változás mellett, amit beépítettek. Ez részben jó döntés volt, mert olyan dolgokat pakoltak a GCN4-be, amit soha senki más nem rakott még GPU-ba. Nyilván nem ideális ilyen váltásoknál mindent cserélni ... létezik a kockáztatás és létezik az őrültség.
A Polarisnak nincs magas hőtermelése. Ez hűtésfüggő. Az persze igaz, hogy az AVFS-nek alapvetően szűkebb a működési tartománya, mint a DVFS-nek, vagyis az a legjobb, ha a működési hőmérséklet 60-85°C között van. A DVFS-hez jó a 60-95°C közötti tartomány. Az AVFS is működne 95°C-on, de picit ráhagynak, hogy legyen ideje a hardvernek reagálni a problémás külső tényezőkre.
Az Asic Quality paramétert egy szoftver adja meg. Bődületesen leszarják a mérnökök, hogy egy szoftver mit ír, nekik sokkal jobb berendezéseik vannak a tényleges mérésekre. Itt alapszabály, hogy ha szoftveresen mérsz valamit, akkor az nem mérés. Akár hasra is üthették volna és mondhattál volna egy százalékot. Nem lennél sokkal messzebb a valóságtól, mint a szoftverrel.
Tekintve, hogy az AVFS kalkulál, így gyakorlatilag a gyártóknak egyszerűbbé vált a gyári tuning. Nem kell hozzá külön táblázatot betáplálni a magasabb órajelet figyelembe véve. Majd az AVFS a szenzorokból kiolvasott adatok alapján eldönti, hogy mi legyen. Alapvetően nem ezért fejlesztették, de ez is egy előnye.
A Wattman-nak nincs különösebb kihatása az AVFS működésére. Attól, hogy megváltoztatod az órajelet még a menedzsment nem változik meg.Igen. Minden bekapcsoláskor azzal kezd a hardver, hogy a szenzorok első adatai alapján felépít egy táblázatot, ami alapján menedzseli majd a hardvert egészen a kikapcsolásig.
-
#00137984
törölt tag
GCN4 architektura számomra most még annyira sem tünik teljesnek, és valószinűleg a GCN5-ben néhány dolog optimalizálásra kerül majd, hogy a Polaris magas hőtermelését visszafogják. Jó dolog ha a teljesitményszint igazodik a GPU minőségéhez és ez alapján állitja be az órajeleket és feszültségeket, de az Asic Quality is nagy szórást mutat már egy tipuson belül is. Nálam 86% és másnak alig haladja meg 70%-ot, akkor nálam ideje nagyrészében nagyobb feszültségen és magasabb órajeltartományban megy a kártya. Ezek szerint a teljesitményre és a fogyasztásra is van kihatása. Ezért akkor a hőtermelésem is növekedni fog, ami miatt a hűtésre még nagyobb feladat hárul. 60fok zéró fordulat-> nesze neked...! Az custom kártyák többségén magasabbra veszik a turbó órajeleket a VGA BIOS-ban vagy a Wattman-ban kerülnek megváltoztatásra, akkor az is befolyásolhatja az AVFS müködését (felfüggeszti időlegesen a müködését) vagy hozzáigazodik a megváltozott körülményekhez? A "hardver indításkor magának kalkulálja a vezérlést azokra a körülményekre, amiben elindult" kijelentésedre alapozva akkor minden inditás után kalibrálja magát?
-
Abu85
HÁZIGAZDA
válasz
#85552128 #21923 üzenetére
Nem hiszem, hogy lesz Radeon Experience. Ha a GeForce Experience nem tudott olyan felhasználóbázist kiépíteni, amit kiépített a Raptr, akkor az AMD-nek ebbe felesleges belevágni. A Raptr egész egyszerűen ezen a területen verhetetlen.
Az a helyzet, hogy az NVIDIA, az AMD és az Intel képes ilyen experience programokat készíteni, de nem tudnak közösséget építeni. Ez az, amihez a Raptr sokkal jobban ért. Egyszerűen van ~60 millió felhasználójuk, és ezek a felhasználók innen nem akarnak elmenni. Olyan ez mint a Steam. Van már Origin, Uplay, Galaxy, akármi, de akkor is a Steam a kedvenc.
-
vader108
tag
válasz
Malibutomi #21927 üzenetére
Ezért is lesz érdekes a Q3 adat majd. Mindkét fél részéről. Abban már teljesen benne van a Polaris és Pascal is. Abból kiderül minden.
-
Abu85
HÁZIGAZDA
Számos helyen kapható. Az Apple például annyira ráugrott, hogy kirakták az NV-t. Nézd a problémát a notigyártók szemével. Egyre vékonyabbak a notik, és egyre nagyobb felbontású paneleket építenek be. Külső skálázónak már nincs hely, ezért muszáj olyan GPU-t választani, ami mondjuk ~4K-s kijelzővel nem csak ~4K-s felbontásra tud normális minőségű képet kirakni. Nyilván a probléma ma leginkább az Apple-t érinti a Retina Display miatt.
Amit leírsz az ennek a koncepciónak a pozitív oldalról való megközelítése. A valóság az, hogy hardver képes lenne elméletben x órajelre, de a DVFS elavultsága miatt a lapkák jelentős részére x-nél kisebb GPU Boostot tudnak csak engedélyezni. Egy felhasználó erre tényleg mondhatja azt, hogy "mákom volt, mert magasabb boostot kaptam a specifikációnál", de egy mérnök már azt mondja rá, hogy "basszus a lapkák többségében otthagyunk egy rakás teljesítményt". És technikailag a mérnöknek van igaza ebben, mert nem azért hagyja az NV ott azt a teljesítményt, mert ugyanolyan termék esetében annyira jó, ha a két véglet között 15%-nyi teljesítménykülönbség van. Ebből a gyártók a legkevésbé akarnak szerencsejátékot csinálni. A variancia elfogadható, de a legjobb és a legrosszabb modell közötti 3-4%-nál nagyobb tempókülönbséget már technikai problémának hívják a mérnökök. Az AMD-nál is volt a PowerTune-nal 7%-os differencia, az sem fícsőr volt, hanem probléma. Most az RX 400 sorozatnál az AVFS-sel úrrá lettek ezen, és 3% alatti lett a variancia. Ami egyébként iparágon belül az elfogadható maximum. Ez egyébként nem jelenti azt, hogy a korábbi Radeonok, vagy az aktuális GeForce-ok hibásak, csak nem tudták kezelni megfelelően az órajel-menedzsmentet, így szartak a variancia iparági normáira.
És remélem a dölt betűs példákból jól látszik, hogy ugyanazt a jelenséget mennyire másképp láthatja egy felhasználó és egy mérnök. Bármennyire is tetszik például nektek a GPU Boost szerencsejátékos megoldása, a mérnök akkor is arra fog törekedni, hogy a lapkák többségében ne hagyják ott azt a rengeteg teljesítményt, és ne legyen zsákbamacska, amit ma otthagynak. Már csak azért is gondolom így, mert azért fizetik ezeket a mérnököket, hogy a problémákra reagáljanak, és az bizony probléma, hogy a lapkák jó részéből nem tudják kihozni azt, ami bennük van.
-
-
Abu85
HÁZIGAZDA
válasz
daveoff #21838 üzenetére
De a DVFS/AVFS-nek nincs közvetlen köze a fogyasztáshoz, a hőmérséklethez, a magas órajelhez.
A fogyasztás az architektúra befolyásolja a legjobban, lásd az ultramobil és az asztali piacra tervezett GPU-kat. Az ultramobil verziók jóval kevesebbet fogyasztanak, főleg amiatt, hogy az architektúra rengeteg trükköt vet be. A grafikus számítások egyik jellegzetessége, hogy tervezhető. Ez nagyon csúnya szó rá, de ez az igazság. Akármilyen motort is írnak annak bizonyos részei lényegében ugyanazt csinálják, vagyis azokra tervezhetővé válik egy hardver. Az ultramobil GPU-k ezt a tervezhetőséget használják ki. Az asztali GPU-k abban mások, hogy olyan dolgoknak is jelentőséget tulajdonítanak, amelyekre már nem lehet tervezni. Például a compute teljes mértékben ilyen. Az oka ennek az, hogy compute alatt a fejlesztő azt csinál, amit akar, vagyis ahhoz, hogy a különböző algoritmusok gyorsak legyenek a hardvert kell általánosan erősre tervezni. Na ez viszi a fogyasztást. És ez egy pokolian nehéz ügy mérnöki szemmel, mert egyrészt ott van előttük a cél, amit el akarnak érni, de ott van előttük az a fogyasztási határ, amit semmiképpen sem léphetnek át. Tehát a két véglet közül ki kell választani egy ideális balanszot úgy, hogy amikor tervezik az architektúrát, akkor még nem sokat tudnak arról, hogy a rendszer megjelenése után milyen újításokat fog bevetni a Microsoft és a Khronos. Például ez az oka annak, hogy a Microsoft már a mostani Windows 10 frissítésbe is beletette a shader model 6.0 overview-et, hogy az Intel, a Qualcomm és az NVIDIA kapjon egy gyakorlati képet arról, hogy miképp kell támogatni az új nyelvet a következő év első felében. Az AMD-nek ez ugye mindegy, mert eleve rájuk, pontosabban az Xbox One IGP-jére írták az egészet. Mérnöki szinten ez nem sokkal jobb, mint a szerencsejáték.
A hőmérséklet tisztán a hűtéstől függ. Ha raknak rá vizet, akkor az bizony nagyon alacsony lesz.
A relatíve magas órajel részben az architektúrától is függ, mert amikor ezeket tervezik, akkor már van egy kialakult kép, hogy milyen órajelet szeretnének elérni. Ugyanis az áramköröket lehet célirányosan magasabb órajelekre tervezni. Az előnyök és a hátrányok mellett hosszú listák állnak, és nem véletlen, hogy ez az a kérdés, amit nagyon átrágnak a tervezés előtt.
A DVFS/AVFS közvetlenül azt határozza meg, hogy a célzott órajel tartomány mennyire van közel ahhoz a tartományhoz, amennyin a lapka az elméleti számítások alapján képes lehet üzemelni. A DVFS ugye már amiatt is elég messze van tőle, mert a paraméterezés eleve a legrosszabb körülményekhez illesztett, tehát teszem azt a GPU például hiába lenne képes x körülmény között 1,7 GHz-en is üzemelni, csupán 1,5 GHz-es órajelet tud beállítani, mert manuálisan betáplált értékek alapján dönt. A DVFS hatékonyságát nyilván még ronthatja az, ha szoftveresen vezérelt stb. És ennek az eredménye az két ugyanolyan lapka között igen nagy lesz a teljesítménykülönbség, annak ellenére, hogy a betáplált célórajel és a léptetés ugyanaz. Az AVFS a jelenleg ismert tudásunk szerint lényegesen közelebb van az elméleti maximumhoz, mert a hardver indításkor magának kalkulálja a vezérlést azokra a körülményekre, amiben elindult. Ez sem működik lényegesen más elvek szerint, mint a DVFS, csak nagy előnnyel indul, hogy nem az abszolút legrosszabb körülményekhez van illesztve a vezérlése. Ez az oka annak, hogy a legyártott lapkák teljesítménye is 3%-os határon belül lesz ugyanazzal a betáplált paraméterezéssel.
Végeredményben a cél az, hogy az elvi minimum órajel a lehető legközelebb legyen az elvi maximum órajelhez. Minél távolabb van ez a két érték, annál rosszabb a menedzsment hatásfoka, és annál több teljesítmény marad a lapkában kihasználatlanul. Főleg a szoftveres DVFS-nél, mert ott az elvi maximum eleve csak a lapkák egy kis részén engedélyezhető, tehát ott jellemzően meg van határozva még egy elvi átlag órajel is, ami mehet a specifikációkba.
-
proci985
MODERÁTOR
290Xnél a kiegészítésed egész pontos. A teljesítményében nincs hiba, de ismerősöknek én se nagyon ajánlottam 1080pre a 970 helyett, részben a fogyasztás, részben a hűtési igény miatt. Az intel mainstream platformon egy i7 + 970 kombo beérte egy 400Wos táppal és hűtésnek egy teljesen csendre hegyezett Fractal R5 is tökéletes volt (egyik barátomnak konkrétan ilyet raktunk össze pár hónappal azután, hogy a saját 970em visszaküldtem). 290Xeknél a topik legboldogabb lakói vagy feszt optimizáltak, vagy lightning/vaporX/triX kártyájuk volt, vagy levizezték.
A hűtés második, komolyabb problémája volt, hogy egyrészt microstuttert okozhatott (és okozott) a dinamikus órajelállítás és komoly teljesítményt lehetett vele bukni. Tehát benchmarkokban egy rosszul hűtött ref 290X legalább annyira nem adott reális képet a kártya teljesítményéről, mint mondjuk egy ref 970. Szvsz részben emiatt is állt elő az a helyzet, hogy az eredetileg 780 ellenfél 290X 390X néven (picit jobb hűtéssel és kisebb fogyasztással) már lényegesen jobban teljesített.
A hűtésére én nem mondanám, hogy igénytelen, inkább úgy fogalmaznék, hogy 300Wos fogyasztás mellett légen pciE szabványon belül (max 2 slot!) nem lehet csodát tenni, főleg nem egy blowerrel.
De tényleg, a GTX480 után pár évvel az ember nem számított rá, hogy az AMD is kiad egy hasonlóan élhetetlen kártyát.
-
#85552128
törölt tag
válasz
mlinus #21920 üzenetére
Ráfeküdtek a sokat vitatott supportra (megújult driver, "gameready" releasek, újabban már játékbeállításos cikkek is vannak a radeon.com-on ) és mit ad Isten a részesedésük is nőtt...
Még egy saját fejlesztésű "Radeon Experience" (vagy plugin a crimsonba a Wattman mintájára) kéne és úgy ahogy rendben vannak szoftveres feature tekintetben.
Bár az RX 480 launch megint nem sikerült valami problémamentesen.Q4-es karácsonyi időszak lesz majd érdekes, főleg ha a 1070+ szegmensben nézelődök tényleg csak az nV oldaláról választhatnak majd...
-
#00137984
törölt tag
válasz
Petykemano #21911 üzenetére
Rádcáfolt az élet.
A hardver miatt veszünk egyik-másik oldalról kártyát. Amelyik a játékban jobb teljesitményt nyújt és a tesztekben vezető szerepe van, az a nyerő. Egy rossz start vagy pár kibukó hiba esetén a tömegek a másik oldalról kezdenek vásárolni, de jó erdmények esetében sem garantált a siker. A hardver mellé driver és szoftver támogatás jár. Ha a driverek miatt a játékokban grafikai meg egyéb hibák jelentkeznek, a driverek miatti elégedettlenségtől eladják a kártyát és megnézik a másik oldalon mi a helyzet. Ha jó véleményük alakult ki, akkor generációkon keresztül nem váltanak újra és meggyözödésből elitélik a másik oldalt a hibáik miatt. Viszont ha már a hardverben is hibák fordulnak elő, akkor egy gyártó örülhet ha mégis sokan megveszik a kártyájukat és legalább a kedves felhasználóiknak a drivereket időben és hibamentesen jelentessék meg. Nvidia erőből oldja meg a teljesitménykérdést, de a fogyasztás és egyéb körülmények kielégitőek évek óta, ezért a felhasználók többsége a magas árazás ellenére is megvásárolja a kártyáit. AMD a hardverkben rejlő részletekben kiegyenlitheti a kevesebb erőforrásból elérhető jó teljesitményt, de ehez a szoftveroldali támogatásra is jobban rákényszerűl a driver és játékok felől. Ha sikerül jól összehangolt képletet összehoznia, akkor a teljesitmény és a játékosok elégedettsége megvan. Ha gond adódik a képletben, akkor a felhasználók vagy kivárnak és közben aggodalmaskodnak, vagy eladnak és megint mást vesznek. Nem csak a versenyzés számit, hanem a játékélmény közben. Nem csak sima aszfaltcsikon kell jót menni, hanem utcai és terep körülmények között is. Mindenhol kiegyenlitett teljesitményt kell nyújtani, minden körülmények között. Nvidia erősebb DX11-ben és az AMD meg javult közben, viszont az AMD meg DX12-ben jobb. A játékokra marad a végső döntés, mert ott eldöntheted melyik kártya mihez is elég.
-
daveoff
veterán
válasz
Malibutomi #21917 üzenetére
Ez egyébként tök jó kérdés, hogy lett 18-ból 30%, amikor semmi erre utaló jel nem volt.
-
válasz
#35434496 #21915 üzenetére
Jók a felvetései, de nem elég alapos. A 290X pozícionálását rosszul látja, és a vele kapcsolatos percepciót (gyors, de igénytelen a hűtése, ehhez képest drága) nem veszi figyelembe, ami szerintem sokat nyomott a latban. A Maxwelltől meg úgy van, ahogy írja, abban sok meglepő nincs. Szerintem Jensen éjszakákon át hánykolódott, amikor arra gondolt, hogy a 970-en darabonként 70 USD-t buknak
, de láthatóan hosszabb távon bejött a dolog.
-
Malibutomi
nagyúr
válasz
#35434496 #21912 üzenetére
Jol leirja hogy az NV nagyot robbantott a Maxwellel, az AMD meg akkor benazott, es elertek a valaha volt legalacsonyabb reszesedesuket (18%).
Viszont azota az NV tobb mint egy eve minden negyedevben vesziti a reszesedest az AMD-vel szemben ( mar visszajottek 30%-ra meg a Polarisok kiadasa elott).
Az is megerne egy ilyen cikket, hogy ez mi miatt van. Rajottek az emberek hogy az NV nem a szent gral? "Gyenge" DX12 teljesitmeny? Esetleg nekik most ut vissza a sok eladott Maxwell, ahogy a cikk szerint AMD-nek a banyaszkartyak? -
válasz
#65755648 #21910 üzenetére
Nohát, megvádolsz mindenfélével, utána pedig elképeszt a válasz? Szerintem olvasd végig, miket vágtál a fejemhez, utána pedig hívjál bátran moderátort.
Face-to-face sokkal kevésbé lettem volna türelmes, a 21853-hoz hasonlók után elküldtelek volna valami erősen deklaratív helyre, olyan szavakkal, amiket itt moderálnakA dolgok értelmesebb végével foglalkozva:
#2: szó nem volt csalásról, azt mondtam, hogy a teszt nem jó. Ha nincs CPU-limit, akkor a mérés rossz, ha pedig van CPU-limit, akkor nem alkalmas arra a mérés, amire a srác használta. Most minden bántó szándék nélkül - komolyan nem érted, mi a gondom a teszttel?
#3: ha visszaszerelem a 950-et, akkor küldök képet.
B1: fél éve mondogatom, hogy ha az AMD előáll valami értelmes megoldással, akkor teszek velük egy újabb próbát. A 460 erősen határesetes ilyen szempontból, de miután az nVidia b***ik csökkenteni a GM206-os kártyák árát, jelen tekintetében sem rosszabb vétel, mint a 950 vagy a 960. Az pedig megintcsak tudott dolog (és szoktam is mondani / írni), hogy 2 év távlatban az AMD kártyák 10-15%-kal erősődnek az induláskori helyzethez képest (a Kepler esetén több volt, de az több szempontból speciális helyzet volt, egyelőre nem tekinteném trendnek), tehát ha a jelenben hasonló értékű a két megoldás, akkor másodlagos szempontként figyelembe veszem, hogy mi várható a következő években. -
Yutani
nagyúr
válasz
#35434496 #21912 üzenetére
Ezen nem sok röhögni való van.
Sosem gondoltam volna, hogy a bányászok ilyen (illetve egyáltalán) hatással voltak az AMD részesedésére, megítélésére. Nagyon durva, ha igaz, ami leírtak ebben a cikkben.
És most van egy olyan érzésem, hogy a Polaris-hiányban bizony benne lehet a bányászok keze, és ugyanaz lejátszódhat, mint anno a Hawaii-nál.
-
#35434496
törölt tag
Forbes! Why Did NVIDIA Win The GPU Market? [link]
Egész jól leírták hol baxta el AMD. -
Petykemano
veterán
válasz
vader108 #21908 üzenetére
Azt kell látni ebben, hogy ma nagyon erős a hardveren kívüli küzdelem is. A hardver nem minden. Nem az van, mint régen, hogy kiadja egyik meg másik gyártó is a hardverét és győzzön a jobbik.
Ha megnézed a doomot, akkor az látszik, hogy az amdnek nagyonis versenyképes hardver felhozatala van jelenleg is. És itt most ez nem egy ha, hanem a küzdelem lényege szoftveres: nagyobbat tud nyerni, ha a fejekért és a részesedésért küzd, mintha kiadna egy túlméretezett, túlokosított erősebb, de túlfogyasztó hardvert, amit aztán mindenki lehúz és megveszi inkább a konkurenciát.A jelenleg zajló harc ahhoz hasonlít, mint ha egyik gyártónak lenne egy forma 1-es kocsija, a másiknak meg egy túra autója. Teljesen nyilvánvaló, hogy azon küzdeni, hogy kiadjak egy erősebb, gyorsabb kocsit értelmetlen a terep ismerete nélkül. A küzdelem azon zajlik a két gyártó között, hogy a pályákon, amiken versenyeznek mennyi.aszfalt, és mennyi földút van, mennyi kanyar, mennyi egyenes, essen -e az eső, vagy süssön a nap.
-
#65755648
törölt tag
2. Csupán arra hoztam példát, miért lehet az eredetileg linkelt teszt hiba és csalásmentes, amit Te megkérdőjeleztél.
3. Ebben az esetben megkövetlek a minőséget illetően. Az ide vonatkozó részeket hagyd figyelmen kívül. De ez nem bizonyítja hogy a dsr-es mérésed helyes volt, abban továbbra is kételkedem, és várom a képet.
B1. Nem szorosan idetartozik, de ezek szerint az Rx460-at sokkal időtállóbb megoldásnak tartod, mint a jelenleg (dx11-ben) hasonló teljesítményű 950-et, ha - felteszem némi ráfizetés árán - váltottál. Hasonló a véleményed az rx480 - 970 összevetésben, netán 480-1060 esetén is?A hsz-ed többi része személyeskedés, legközelebb nyugodj le és moderáld magad, különben én hívok rád moderátort. Elképesztő ez a stílus amit itt megengedtek magatoknak... Nem egy jöttment senkiházi vagyok. Csak ellentétes a véleményünk, és még ha az enyém lenne téves, akkor is kikérem ezt a hangnemet! Megnézném, hogy személyes találkozásnál meg mernéd-e engedni magadnak...
Más: TPU-n lehet szavazni, hogy melyik kártyát vennéd inább. ~22k szavazat után az állás:
Rx480 - 40%
1060 - 28%Már csak készlet kellene Rx480-ból...
-
Yutani
nagyúr
válasz
vader108 #21908 üzenetére
Nem értem ezt az Abu-rugdosást! Ki az a degenerált, aki az ő szavai alapján vesz VGA-t?
Abu leírja, amit a gyártóktól hall, illetve amit az alapján vár. Az, hogy nem jön be vagy eltolódik, késik, nem feltétlenül az ő hibája. A technika, amiről beszél, ott van az AMD hardvereiben, de nem az ő hibája, hogy a fejlesztők b*sznak használni. Persze sokkal könnyebb egy személyt szidni, aki "kézzelfogható", mint a gyártókat, fejlesztőket.
Mindegy, nem dolgom senkit védeni, de ez a fröcsögés szánalmas és fárasztó. Persze lehet, sokaknak ez jelenti a szórakozást, akkor bocs, nem állt szándékomban elrontani a jókedvet.
-
vader108
tag
Szóval ha 17 Q1 a launch ( papir ) akkor Talan áprilisban v. majusban mar lehet belole boltban is latni egy egy ritka peldanyt... szep jovo... Aztan meg jon a Volta...
Egyebkent merre jar mr. Professzor Vonalhuzogato? Megkene magyarazni ujra, h miert sikerult fél ph forumot belelkesiteni a bf1 es vega paros megjelenessel. ( vagy csak elcsuszott a vonalzo es azert logott at 2016ra?
)
-
válasz
#65755648 #21902 üzenetére
Keleten a helyzet változatlan - nem olvasod el, amit írok, helyette kitalálsz dolgokat, azokból következtetéseket vonsz le, és aztán hőbörögsz.
#1: paranoia...
#2: ha CPU-limit volt fullHD-ben, akkor mennyire lesz releváns az egész teszt eredménye? ha még nagyobb a CPU-limit, akkor még jobb az AMD, mert még kevesebb FPS-t veszít a VSR-rel? tényleg ennyire nem érted, amiről beszélsz?
#3: fullHD monitorom van, ami elbírja a WQHD input paramétereket, így lehet vele WQHD-ben sebességet tesztelni. a többi mondásod innentől hülyeség.
#4: tök felesleges...
#5: nem, időpocsékolás tömörített videokat nézegetni, amikor látom a képet a monitoron. és valóban, az AMD sem elmosott.
B1: nem tudom, miért gyanús, talán kérdezz meg egy orvost. azért vettem a 460-at, mert szeretnék egy olcsó, normális kártyát a következő 3 évre. azt a sok marhaságot, amit hozzáköltöttél, szintén mutasd meg a dokinak.
B2: ld. #3Konklúzió: szerintem igazából Te b***akodni akarsz itt, semmi mást.
-
#00137984
törölt tag
válasz
Petykemano #21905 üzenetére
Mibe fog nekünk ez kerülni...!
Körbenézek, mert nekem már a Polaris mainstream is sokba fájt. Amolyan átmeneti megoldásnak szántam, de lehet ez hosszabb ideig fog tartani mint gondoltam. Mire egy AMD-s GTX1070 teljesitményű kártya elérhető ársávban lesz kapható...2018.
-
Petykemano
veterán
válasz
#35434496 #21879 üzenetére
A slide csak megemlíti, aztán a kommentben elmondják ugyanazt, amit eddig tudtunk: hogy a kisebbik vega idén októberben jelenik meg.
Sokminden változott az AMD-nél. A tiereket utoljára Az R7 300 és R9 300 bevezetésénél használták. Ez alapján a 390(X) és a 380(X) jelentette a performance szegmenst. A fury nyilvánvalóan az enthusiast volt. Az R7 370 és az R7 360 a mainstream.
Jelenleg a polarist hívják mainstreamnek: RX 460 => RX 480
Ha nem dobták végleg ezeket a tier elnevezéseket, akkor efölé jön a performance és enthusiast tier is.
Ebből kiindulva a slide nem mond ellent a korábbi információknak, nevezetesen hogy az enthusiast Vega 2017H1. Csak kell legyen egy performance tier is.Ez is egy érdekes slide Itt már említik a fury-t, érdekes módon egy szinten a P10-zel.
Ahogy itt már kifejtettem, annyira nem állnak messze, hogy lehozzanak egy 1080 teljesítményű performance tier kártyát
-
#00137984
törölt tag
Jelen pillanatban az új RX470-es videókártyámhoz nem jó egyik OC és Tweaking program sem. Afterburner nem ismeri fel a kártyámat és a Wattman meg korlátozottan használható. Egyszer gondom is akadt vele, ezért azt nem aktiválom. A Crimson 16.8.2 Hotfix driver viszont jó és már ennek is örülhetek, amikor az R9 380 kártyához az utolsó Catalyst kiadást használhattam baj nélkül. Van látható fejlődés, de aki a kicsit nem becsüli...
-
#00137984
törölt tag
válasz
Milka 78 #21900 üzenetére
Lapozófájlt kihagytad. A virtuális memóriából az előbetöltés a játék elkészülte és forgalomba hozatala előtt hónapokkal előbb már játszható DX12-ben. Battlefield 1 néhány AMD játékosnak már megvolt és tudhatják a tutit. [link] Ezt a részt a BF1 megjelenéséig inkább tekerjük át. Most vagyunk már a mostban? Mikor? Most!
-
#65755648
törölt tag
1. "az AMD kártyák jellemzően kevesebb FPS-t vesztenek a felbontás növelésével,"
Igen, ezt én kevertem bele. Bocs, nem tudtam, hogy nem szabad. De ez önmagában egy olyan mondatod, amit ha én, vagy egy AMD-párti, vagy akár egy független kommentelő (ezen a fórumon olyan nincs!) mondott volna, akkor máris óriási ribillió lenne, égbekiáltó perpatvar! Aljas hazugság, az NV kártyák minden felbontáson jobban mennek! A FX különben is csak 4GB-os!2. "Elárulom: azt, hogy melyik kártya mennyi sebességet veszít, ha felkapcsolunk 1080p-ről 1440p-re vagy 1800p-re. Ráadásul azt is rosszul, mert no way, hogy a Far Cry 4-ben vagy a BF4-ben 10-15% FPS-t vesztünk a +78% pixellel." - De, ezt Te írtad, és bizony "way". Te is írtad, hogy nem kell más hozzá, csak CPU limit (vagy bármilyen más rendszerlimit). BTW korábban ez is vesszőparipa volt az NV oldalon, hogy az AMD karik sokkal CPU-limitesebbek. Most, amikor egy teszteredményre akár ez is lehet a magyarázat, akkor ez már el van felejtve, sőt ki van zárva, ugye? Biztos rossz a teszt
3. Kitartok amellett, hogy nem jó a mérésed. Csinálj már egy képet amin a monitor menüje FHD-t, a játék pedig WQHD-t mutat. Sajnos nincs rá lehetőségem, hogy teszteljem, mint már írtam is. De neked van már AMD karid is úgyhogy hajrá!
Még az is lehet hogy meggyőzöl. Csak arra figyelj, hogy csinálj nem átméretezett képeket is a minőség ellenőrzése végett!
4.Taníts, mester!
5. "Én is a saját szememnek hiszek" - De nem vagy hajlandó letölteni a videót a tesztből, hogy megnézd magadnak, mert véletlenül nem támasztaná alá igazadat és el kéne ismerned hogy tévedtél. Vagy hamisították a tesztet.
Bonus1: Nem véletlenül egy GTX950-et cseréltél (vagy melléje "vettél") egy hasonló teljesítményű RX460-at? Miért gyanús nekem, hogy ezt nem márkaszeretetből/ funkcionális okból/ felhasználási célzattal tetted, hanem pl hogy teszteket végezz? Most hogy pénzt is keresel ezzel, vagy csak annyit érsz el vele, hogy itt a fórumon te lehetsz az ügyeletes guru, az mindegy is. A lényeg hogy invalidálja az érvedet, miszerint Te objektíven szemléled a dolgokat, hisz mindkét oldal kártyáit használod. Tesztelni vetted, így akár k**vára gyűlölheted is, akkor se volt más választásod mint megvenni, ha AMD-vel is tesztelgetni akarsz.
Bonus2: Azon gondolkodtál már, hogy ha WQHD monitorod van, és FHD-ra állítod a felbontását, de WQHD-ban renderelteted a játékot, akkor a VGA legyártja a WQHD képet majd leméretezi FHD-ra, ezután a moncsid felskálázza WQHD-ra. Ez az utolsó felskálázás, amit a moncsi végez teljesen elmos bármilyen különbséget, ami AMD és NV kártyák között lehet, hisz az eredeti, VGA által előállított képet a skálázás által rontja. Ráadásul a monitorok közt is nagy különbség van ilyen szempontból, egyesek szépen, mások csúnyábban skáláznak. Ha tényleg élőben meg akarsz győződni arról, hogy pontosan mennyire életleníti a képet akár a VSR, akár a DSR, azt csak natív FHD vagy 1200P monitorral tudod megtenni.
Nem is tudom hogy képzelted, hogy Te majd jól megállapítod, hogy mennyire éles a kép DSR-el, miközben egy, a monitorod által átméretezett képet bámultál...
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- sziku69: Fűzzük össze a szavakat :)
- Tuningmesterek, teszterek, figyelem! Itt a Thermal Grizzly spéci tesztpadja!
- One otthoni szolgáltatások (TV, internet, telefon)
- Milyen videókártyát?
- Kerékpárosok, bringások ide!
- Milyen légkondit a lakásba?
- Kedvenc zene a mai napra
- Kerti grill és bográcsozó házilag (BBQ, tervek, ötletek, receptek)
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
- AKCIÓ! 6TB Seagate SkyHawk SATA HDD meghajtó garanciával hibátlan működéssel
- Ikea Eilif Paraván, asztali elválasztó
- Vállalom Xiaomi Okoskamerák szoftveres javíttását
- Xiaomi Redmi 13 128GB Kártyafüggetlen 1Év Garanciával
- Bomba ár! Dell Inspiron 15 3511 - i5-11GEN I 8GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Gari
Állásajánlatok
Cég: FOTC
Város: Budapest