- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- NASsoljunk: ZyXEL NSA-310 és az FFP
- bobalazs: Alulfeszelés profilok tesztelése és százalékos eltérés a gyári profilhoz képest
- shadowkidhu: SFF Itthoni labor
- Kalandor: Elhunyt I. Ferenc pápa
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Parci: Milyen mosógépet vegyek?
- sziku69: Fűzzük össze a szavakat :)
- gerner1
Aktív témák
-
R.Zoli
őstag
A legjobb nyílván ez lenne ha tiszta meccset láthatnánk, de ha megnézed milyen kampányokba fogott az NV mostanság illetve ,hogy mindenkit megvesznek kilóra... A GPU jobb mint a CPU és ilyesmi vitákat szított az Intel-el szemben...Szóval az NV most mindenféle baromsággal jött... Ezért érzem én azt ,hogy ők totál másképp képzelik el a jövőt mint az Intel és AMD...Rasterization vs. Ray Tracing...
A hátrányt én 2 helyen érzem:
1. úgy tűnik a CPU és a GPU egyre jobban közeledik egymáshoz és amikor a teljes fúzió bekövetkezik amolyan Cell szerű chipeket tudnék elképzelni pár év múlva persze annál komplexebb és sokkal nagyobb teljesítménnyel.Nos az NV nem tud közeledni a CPU felé mert neki ilyen nincs és nem tud olyan ötleteket felvonultatni mint egy AMD vagy Intel mert nincs ebben tapasztalata...
2. Ray tracing felé sem közelít, míg AMD és Intel már régóta elindultak ezen a vonalon és kutatják ennek megvalósítását és komoly tapasztalatokat gyűjtöttek ebben.Mondom aztán a pincéből lehet előszednek valamit de szkeptikus vagyok...
Egyébként meg a vak is megmondta: Majd meglátjuk
-
leviske
veterán
válasz
Bundás22 #894 üzenetére
Én sem tratom valószinűnek, hogy az nV bezárná a boltot a közeljövőben. Talán pár év mulva, ha nem jutnak cpu gyártási lehetőséghez és komolyabb alternatívával sem tudnak szolgálni a cpu helyettesítésére... na akkor lehetséges, hogy kiszorulnak a pc piacról. De ahoz az kell, hogy különálló vga-kra ne legyen szükség a felső, ill középkategóriában (leginkább a felsőben). Ez pedig nem valószinű, hogy hamarosan bekövetkezne.
(#889) R.Zoli : én nem hinném, hogy az nV-nak különösebb problémája származna a DX11-re való átállásból. Ugyan ugy új GPU-t kell kifejleszteniük, mint az ATi-nak, csak azzal a különbséggel, hogy az ATi-nak néhány DX11-es ficsör már a szolgálatában áll az R600 által (pl: tesszelláció). Részemről inkább annak örülnék, ha az nV a DX11-es kikötéseket tartaná az AMD-vel együtt. Jó lenne végre tiszta versenyt látni a vga piacon...
MOD: off
-
Foglalt név
addikt
Mindig is szerettem volna ilyen polihisztor lenni, akinek zsebében a vállalat managment, kisujjból rázza ki a piacelemzés, már a könyökén jön ki a jövőelemzés, a jelen és a közeljövő architektúrái alapján álmából felkeltve is legalább 3 megvalósítható fejlődési irányt tud kijelölni és természetesen birtokában van, az összes nagyobb konszern és cég naprakész könyvelése. De sajna én kicsi vagyok ehhez, úgyhogy csak csendben figyelem a nagyokat és irigykedem, hogy ennyi minden mellett még van idejük csevegni is erről, hiszen a munkájuk valahol a hobbijuk is
-
Bundás22
őstag
szerintem meg az a komolytalan h szerinted lehúzzák a rolót
egyenlőre ott tartunk h ők gyártják a gyorsabb VGA-kat és nagyobb a részesedésük az atinál, nyereségesebbek, a 8800GTX másfél éves és még ma is felsőkategóriásnak számít, van pénzük, szellemi tőkéjük, megvették a játékfejlesztőket, messze állnak attól h csődbe menjenek, sokkal de sokkal esélyesebb erre az AMD
-
R.Zoli
őstag
válasz
Bundás22 #892 üzenetére
hülyeség annyi tőketartalékuk van ha 2 évig egyetlen egy vga-t sem adnak el akkor is kihúzzák
Ez annyira komolytalan ,hogy inkább nem is mondanék rá semmit...
Az AMD-Ati páros ha nagyon szarban lenne bezárnák Drezdát és eladják a TSMC-nek és megoldódott az anyagi probléma... Ugyan ott lennének mint az NV mert annak sincs egy gramm gyártósora sem viszont a mögöttük lévő tudással csak az Intel tudna esetleg versenyezni...Az AMD-Ati páros elött több választás van mint az NV elött...
Az Intel totál más kategória mindkét cégtől...
-
Bundás22
őstag
de ha elöbb nem is amint az Intel pályára lép 1 éven belül le is húzhatják a rolót ez hülyeség annyi tőketartalékuk van ha 2 évig egyetlen egy vga-t sem adnak el akkor is kihúzzák
rémlik valami 2,5 milliárd dollár, inkább az amd-ati megy csődbe ha nem tudnak eladni nekik nincs egy vasuk se csak tartozásuk, az intel se fog annak is olyan 12 milliárdja van a bankban, hiába ebben ne reménykedj
-
Hmm. Hát azért jelenleg még a legjobb és legsikeresebb gafikus kártya (és nem alaplapra integrált grafikus chip) gyrátó. Ha ki fog szálni az nem feltétlenül azért lesz mert úgy érzi esélye sem lesz.
Viszont ha tényleg kiszáll akkor lehet azért nem is erőlködik next-gen cuccokkal...
Vagy miért hihetetlen elképzelés az hogy csak 1 korszakot lép át? FX után is elő tudták rántani a Gef6-ot. Nem mondom hogy biztos van valami a pincében a tervasztalon ami megváltja a világot, de nem lehetetlen hogy nem csak a saját sírjukat ássák az alagsorban. Főleg nem kell ezt tényként kezelni mégha valószinűbbnek is tűnik. -
fLeSs
nagyúr
mennyi jóstehetség van itt...
-
R.Zoli
őstag
És az UE3 is csak egy "lightos" DX10-es stuff... Egy alapjaiban DX10.1-es játék semmit sem tudna NV kártyán... Namost akkor miről is beszélünk? Nem a userek fognak szerintem szívni nagyot mert így is úgyis venni kell 1,5 évente új kártyát, hanem ,hogy az NV meg tud-e újulni ha Dx10.1-es vagy később DX11-es játékok jönnek...Jó év múlva a DX11 közelében leszünk, míg az NV-nek Dx10.1-es hardware sincsen és ami most van a kezében alkalmatlan Dx10.1-re és ez a lényeg...
A dolog lényege az ,hogy RADIKÁLISAN át fog alakulni a DX10.1-gyel minden a DX11-ről nem is beszélve és ennek az alapjait nem az NV fektette le és a DX11-ét sem ő fogja... Az Intel/AMD páros gondol a jövőre és lép is ilyen irányba, az NV úgy tűnik nem... Meglátjuk mi lesz a vége... Sok szakértő szerint az NV ki fog szállni a játszmából amint az Intel belép a Larrabee-vel mert nincs meg mögötte az a tudástár ami a versenhyez kell...
-
Drizzt
nagyúr
"Én azt írtam, ha valaki HD29-est vett, az még 2év mulva is eltud indítani egy játékot... medium beállításokon, normál felbontáson. Viszont aki 88GTS-t vett és megtartja 2évig... az már nem biztos, hogy akár low beállításokon eltudna indítani egy játékot." Ez merő jóslás, így nem tekinthető vitaalapnak. Szerintem az r600 megjelenése óta egyfolytában azt halljuk, hogy fél év múlva majd már egyértelműen az lesz a jobb, semmi nem jött be ebből, UE3 alatt jól érzi magát, az tény, de más alatt nem nagyon bír felülkerekedni. És ott se vészes a helyzet a 8800Gts-sel, teljesen jól megy mindkét karin.
Mellesleg novemberben megkérdezheted majd a 8800Gts tulajokat ugyanerről, akkor már lesz akinek két éve meglesz. -
R.Zoli
őstag
válasz
janos666 #884 üzenetére
Jah és még annyit ,hogy egy Intelnél mekkora kárt okozott ,hogy a P4 útvonalán indultak el... 3 év kellett nekik mire megszűlték a Core architektet addig az AMD ott verte meg őket ahol akarta és még egy Intel sem tudott a tasiból előhúzni egy vészmegoldást pedig szerver piacon rohadt nagy pofonokat kaptak és ergo az Itanium projektjük is ha elsüllyed azt csakis az AMD akkori megerősödésének köszönhetik mert kénytelenek voltak lépni ellene és az ellenlépéssel (Core 2) kinyírták a saját terméküket is hosszú távon (Itanic)...
Ugyan ezt érzem az NV-nél azzal a különbséggel ,hogy szerintem az NV-nél nincs egy 3 éve futó projekt a G80 mellett ami Ray-tracing és hasonlókra fog építkezni... Namost szerinted mi fog történni ha belép ide Intel bátyó azzal ,hogy a Ray tracing alap dolog és emellett hoz még be pár olyan dolgot amire NV bátyó nem is gondolt 2-3 éve mikor a Larrabee projekt elindult...
-
R.Zoli
őstag
válasz
janos666 #884 üzenetére
Amit írsz egy tök új chip kezdeti szar kihozatal utáni finomított revje , logikus ,hogy ahogy kifutja magát a gyártástechnológia az új revek sokkal jobban mennek...De az architekt vége felé járunk már... Nem úgy működik ez ,hogy ha megcsinálunk egy G92-t 45 nanon akkor az a 65 nano-hoz képest iszonyatosan jobban fog menni...Van az architektnek is vége és a G80/92 effelé közelít...Nem lesznek most itt majd 55 nanon 2500 Mhz-es Shader órajelek ez tuti... Örülnek ha 2000-et elérnek...
Ha marad az NV a mostani architekt foltozgatása mellett akkor szerintem rövid távon még egy 6--7 hónapig jó pozícióban lesznek de utána elindulnak a lejtőn lefele... Nem látom a jövőt az NV-ben, közük sincsen a Ray-tracinghez (GIobal I.-hez), illetve a Larrabee megszorongatásához, az Ati Fusionjéről már nem is beszélve...Annyira begyöpösödötten és agresszíven próbálják visszatartani a fejlődést ,hogy ez még egy darabig mehet nekik ,de ha elöbb nem is amint az Intel pályára lép 1 éven belül le is húzhatják a rolót ha nem tudnak megújulni és a megújulásnak már most el kellene kezdődnie mert a Fusion és a Larrabee is itt kopogtat az ajtón...
-
R.Zoli
őstag
válasz
janos666 #884 üzenetére
Namost , ha nem DX10.1 akkor szerintem iszonyatosan kezdi magát elásni az NV... É ez ajövőre nézve még inkább igaz (Larabee-nek nem lesz ellenfele egy rasterizációra éplő idejemúlt hardware- ezzel csak az Ati fogja akkor felvenni a versenyt). Biztos ,hogy van pénzük de nem hiszem ,hogy annyi mérnökük van aki tervez egy GT200-at és közben a pincében egy másik csapat meg egy kurva ütős DX01.1-es hardware-t tervez ami megveri majd a GT200 utáni időkben (azaz kb. 1 év múlva) az Ati akkori csúcs chipjeit... Gondolj csak bele ,hogy az Atinak van egy nagyon jó kis cucca már most ami jelenleg nem tudja még kimutatni a foga fehérjét de nem kell egy év mire jönnek olyan játékok amiken elvérezne a jelenlegi G80/G92 architekt...A fejlődést lehet lassítani de megállítani nem...Én szerintem a jelenleg összefosott DX9-ről DX10-re "felpatchelt" szutykok ideje fél éven belül lejár...
Namost az Ati minden erejével EGY Architektre koncentrálhat és tökéletesítheti míg az NV-nek 2 projekt kellene ,hogy fusson párhuzamosan... Illetve ahogy Abu85 is írta az NV-nek jelenleg köze sincs a a DX10.1-es újításokhoz, ez az Ati pályája jelenleg akik nem mellékesen megjegyzem közel 2,5 éves bejáratott és bizonyított architektet hoztak össze (ala XBOX 360)... Ez egy ismert és kiismert architekt, az Ati 2-3 generáción keresztül ha tökéletesíti én nem látok rá esélyt ,hogy majd jön az NV a semmiből egy DX10.1-es hardware-rel és lenyomja az ATi-t ,főleg ,hogy közben a fél mérnök csapat GT200-at tervezett a több maradék mérnök meg azon imádkozik ,hogy beleférjen az 1 milliárdnál is több tranyós chippel a kártya a PCIE 2.0-ás szabványba és 300 watt alatt maradjanak...
-
Hát a G80-nak annakidelyén többet hozott A2-ről A3 revízióra váltás. Volt nálam A3-as ultráról selejtezett GTS is és úgy repkedtek a GPU, de főleg a shaderclockok az A2-eshez képest hogy csak lestem. Aztán hasonló mértékben hozott javulást a G92, szerintem 20% is kihozható a G92b-vel sima G92-höz képest ha ki akarják. (bár szerintem nem lenne értelme, így ez marad a tuningosoknak)
882 -> 883-ban is azt olvashatod hogy a GT-200 még marad G80-as felépítésű. Máshol azt állítják DX10.1-es lesz. Szóval hogy DX9-ben lehagyja-e a 9800GX2 jó kérdés. De mindegy is mert ha egy duplájára hízlalt G80 lesz akkor döngetni fog az eddigi játékokban amivel tesztelgetni fogják. Ha meg titokban mégis valami radikálisan új dolog lesz belerejtve akkor szépen jönnek majd a DX10.1 patchek AC-hez (ha tényleg kiveszik addig), Crysishez, stb. és megintcsak nyerő helyzetbe kerülhetnek.
-
keIdor
titán
Elég egyformán jár az agyunk, bár a GT200-ról még nagyon keveset tudunk... ami biztos:
-G80/G92 architektúra
-240 vagy 256SP lesz benne
-240W TDP
-1 milliárd tranzisztor
-65nmEzeket az Nvidia elismerte. (kivétel az SP rész) Szerintem ez durvább lesz, mint a 2900XT volt... hőmérséklet, fogyasztás elég durva lesz és tényleg kérdéses, hogy egy ilyen chipnek milyen lesz a kihozatali aránya... A G92b meg nem tűnik nagyszámnak... szerintem átlag +50MHz azt csá...
-
R.Zoli
őstag
Na sok mindent lehetett eddig olvasni de szerintem ez lesz a végleges spec:
Ezek alapján én azt várom ,hogy single GPU-s megoldásabn a HD 4870 kb. GX2 alatti teljesítményt hoz átlagban, megverni nem igazán fogja (DX9 alatt biztos nem, DX10.1 alatt meg...), cserében nem lesz kompatibilitási probléma mint a GX2-nél és majdnem fele annyit fog csak kajálni és a "jővő" kártyája valóban nem úgy mint a GX2, jah és a fele lesz közel árban... A GT200 jobb lesz single chipes megoldásban mint a HD4870 olyan 30-40%-kal szerintem. Viszont a GT200 nagyon forró chip lesz és itt nem is a single chipes HD4870 versenytársa lesz hanem a HD 4870 X2-é (árban és fogyasztásban sem). Namost a crossfire skálázódását figyelembe véve és,hogy a chip az R600-as architektre épül így szerintem a kompatibilitás és a skálázódás csak jobb lesz mint a mostani 3870 X2-nél mert már egy bevát dolgot kell csak tökéletesíteni...Szerintem a 4870 X2 a GT200 alapú megoldásokat kb. 25-30%-kal verni fogja és csak minimálisan fog többet fogyasztani.
Amit még hozzátennék ,hogy a GT200 szeritnem nagyon rossz kihozatalú lesz, ergo drágább is lehet majd mint egy HD 4870 X2 és az is lehet még ,hogy elég chipet sem fog tudni szállítani az NV a rossz kihozatal miatt. Most okosabbnak tűnik az Ati húzása mint az NV-é ,de az NV igazából nagyon nagy szarban van mert nincs next-gen architektje és kell valamit robbantani míg a GT200-hoz olyan 45 nano lenne a megfelelő ,de ezen nem tudják legyártani a chipet így marad a probléma.
Namost a GT200 szerintem nem fog jönni 4-5 hónapon belül... Olyan augusztus végére illetve szeptemberre várnám az új chipet és akkor is csak 65 nanon.Addig még lesznek 55 nanos G92-k is, bár ezek szerintem ki fognak kapni az Ati kártyáktól elég rendesen. HA az Ati ki tud jönni Júniusban az új chippel az azt jelentené ,hogy mire a GT 200 jön az Ati lassan 45 nanora tudna átállni az RV770 alapú chipekkel. Ha pedig olyan November környékén ki tudna hozni 45 nanos RV770-et akkor még nagyobb előnyre tehetne szert.
Összegezve: Annyit akartam kihozni az egészből ,hogy szerintem az Ati 2 dologban van előnyben:
1. Sokkal átgondoltabb és jövő felé tekintő , kiforrott architektet "toldozgat-foltozgat-tökéletesít" míg az NV egy tök új és bizonytalan felé lép amihez még nem is optimális a gyártástechnológia
2. Az Ati gyártástechnológiai lépéselőnyben is van és termék kihozatal tekintetében is fél generációval előzi legalább az NV-t.
Azért azt még megjegyezném ,hogy belegondolt már bárki is abban ,hogyha a GT 200 új generációs chip lesz akkor akár előfordulhat ,hogy mondjuk egy GX2-nél alig lesz gyorsabb vagy szinte ugyan azt hozza DX9 alatt??? Nos ugye ami az Atinak most hátrány volt ,hogy béna és ósdi DX9-es kód alatt nem volt jó a next gen architekt az most az NV-nél duplán visszaüthet... És ki tudja a GT200 mennyire lesz érzékeny ilyen dolgokra, de van egy olyan érzésem ,hogy az sem kizárt ,hogy akár lehet az ,hogy jobban mint az R600 volt...
-
keIdor
titán
Igazából fölösleges 2 évről beszélni a PC világában, mert ez rengeteg idő... aki 2 évre tervez egy kártyát az szerintem tudja, hogy hamar elavúl és egyre gyengébb lesz. És végülis sose lehet jó döntést hozni. A GeForce 8-9 csak DX9-re jó, de arra viszont nagyon! Gyors nagyon DX9-ben. Az ATi jó lenne DX10-re, csak az NV visszafogja a dolgokat. A következő kártyáknál meg az lenne a baj, hogy nem támogatják a DX11-et... szóval "tökéletes" vétel nincs.
Egy gyógyír van erre: Dolgozni, jó sokat keresni és évente/félévente cserélni. -
Hát én nem bántam meg a 8800GTS-t. 7900GT-vel vagy X1900XT-vel nem futott volna ilyen szépen max beállításokkal, AA-val az idei év felhozatala (HL2:EP2, COD4, Bioshock, UT3, stb.) Jó kártyák voltak ezek amire kellettek míg futottak.
Amúgy könnyen lehet hogy 2 év múlva is mellékelnek még DX9-es és DX10-es verziót a játékokból, vagy legalább is csak minimális DX10 kódokat alkalmaz majd a játék low/medium beállításokon, a dx10.1 giccs meg high/higestbe jön ki. -
leviske
veterán
válasz
janos666 #873 üzenetére
Látom, hogy nem érted amit írok.
Én azt írtam, ha valaki HD29-est vett, az még 2év mulva is eltud indítani egy játékot... medium beállításokon, normál felbontáson. Viszont aki 88GTS-t vett és megtartja 2évig... az már nem biztos, hogy akár low beállításokon eltudna indítani egy játékot.
Öszintén szólva, aki az első generációs DX10-es gpu-kba fektetett be, azok jól megszívták, tehát senki nem járt jól, sem a HD2, sem a HD3, sem a 8, sem a 9-es szériával. Aki tényleg akar későbbiekben megjelenő DX10-es játékokkal játszani, az leginkább a HD4-esekkel és talán a következő nV családdal járhat jól.
De majd meglátjuk...
-
Magyarázd meg, így a mai tudásunkkal az elmúlt egy évről, hogy miért is tippelte be jól a jövőt aki 2900XT-t és nem 8800GTS-t vett (ugyanannyiért GTS640-et vagy inkább olcsóbb GTS-320-at ha elég volt neki átlag felbontású monitorhoz)?
Merthogy kiadása pillanatától máig se változott úgy a driver és játékprogram helyzet hogy bármikor is előnyét élvezte volna a felhasználó hogy a hangosabb és picit lassabb 2900XT van a gépében és nem egy 8800GTS.
Mára meg mindkettő egyformán kezd elavult lenni és mire jön valami DX10-es cucc addigra már egyik kártyán se lehet elvárni hogy rendesen fusson max beállítással, merthát a 4870-et is illik majd kihajtani.
Mit ne fűzzek hozzá, mire igazi DX10-et látunk szerintem az kapásból DX10.1 lesz, úgyhogy legfeljebb az járt jobban aki 3870-et és nem 8800GT-t vett, de szerintem még ez se igaz, azok is kifutnak mire hasznát látná bárki is, ugyanaz a helyzet mint a fent vázolt szituációban. De addigra az nv-nek is lesz DX10.1 GPU-ja megfizethető árú kártyán is.Nem azt mondom hogy ez a helyzet ami most van nem manipuláció, de ez van, ezek ma tények, szóval aki azt hitte jobban jár a 2900XT-vel tévedett. Aki 3870-ről hitte ezt szerintem még az is elkapkodta.
Most azon állásponton vagyok hogy aki a 4870-ről hiszi ezt annak talán már igaza lesz (és 1-2 hónapig néhány játékban élvezi valami előnyét is, de mellette több hónapig nem biztos ha a GT-200 is kintlesz amit nem várt meg) -
Abu85
HÁZIGAZDA
válasz
VaniliásRönk #867 üzenetére
AZ MS-nek nagyobb gond, hogy a Pistára nem kapott rá a nép. Édesmindegy számukra az nV és az AMD harca amíg a saját házuk táján nem tudnak rendet rakni.
Amúgy meg az nV a következő DX-szel éppen elég bajban van, mert az összes komolyabb technológiát az AMD dolgozza ki, az nV csak az A-Buffert adja a rendszerhez. Ezért dolgozik eszeveszettől azokon a handled kütyükön és a grafikus kijelző technológiáin. -
Abu85
HÁZIGAZDA
Nem, DX10-ben élesebb, XP alatt DX9-ben olyan fura kockás a széle. Gondolom DX9-ben PCF-fel van az árnyék, míg DX10 VSM-mel.
Biztos nem jön vissza a DX10.1 támogatás, ilyen nincs, hogy hibás a megjelenítés, ezt észreveszik még a megjelenés előtt. Alapvetően csak a Multisample buffer kezeléséhez nyúltak hozzá, tehát ha hiba van a DX10.1 megjelenítésben akkor a DX10 is rossz.
Az egész dolog mögött az nV áll, mivel nekik nincs DX10.1 így annak előnyeit nem lehet kihasználni. Most jön az a rész amikor az eddig előnyük hátrányba megy át, így elkezdődhet az FX féle stratégia, tartsuk vissza a fejlődést.
Egy évvel ezelött megmondta, hogy ez lesz. -
válasz
VaniliásRönk #867 üzenetére
no igen, de mit tudna tenni az MS?
-
Drizzt
nagyúr
Igazad van ebben, de a G92 nem jött volna ki(még), ha nem kezd "olcsó R600-zal" ijesztgetni az Ati, erre kellett valamit lépniük. Attól függetlenül tényleg igaz, amit írsz, mindenesetre én jól jöttem ki a dologból, Gts320+7K ráfizetésből lett egy sokkal erősebb kártyám. Összességében talán mégis így a jó, hogy kijött mindkettő, szélesebb tömegek előtt nyílt meg az út a nagy teljesítmény, nagyobb felbontások élvezete felé. Egyébként jó lenne, ha lassan jönne valami on hír is.
-
leviske
veterán
-
VaniliásRönk
nagyúr
-
Dare2Live
félisten
Avval nincs baj, ha marketingesek nyomják a rizsát: ez dolguk.
Mi meg mgnézzük a "gyorsteszteket", fogyi tesztet és eldöntjük melyiket veszük meg.A baj ott van amikor az egyik gyártó csúnyán csal és emiatt a gyorsteszteknél kiderül, hogy ő a jobb, megvesszük a karit, aztán azt vesszük észre, hogy a régi 9600XTvel szebb volt... és mire ez kiderül addigra csilióan ott vannak egy hajszárítóval a gépükben. [link]
de legalább volt humoruk....
-
válasz
VaniliásRönk #864 üzenetére
sajnos én is így gondolom. ha igaz lenne, amit mondtak (kimarad egy post processing pass), annak legalábbis az állóképeken jól látható jelei lennének...
-
Drizzt
nagyúr
Izgi. Kiváncsi leszek a fejleményekre. Gondolom XP alatt volt élesebb az árnyék? Az lesz a megnyugtató nekem, ha 1 hónapon belül kijön egy olyan dx10.1 patch, ami ugyanúgy gyors lesz, s már hibátlannak minősítik, vagy ha megmondják, hogy pontosan milyen megjelenítési hiányosságra is gondoltak.
-
-
Bundás22
őstag
válasz
Kozmonauta #848 üzenetére
ha ez igaz elég lesz nekem egy 4850-es is
én elképzelhetőnek tartom h igaz, ha azt vesszük h ez nextgen GPU aminek a brutális GT200-zassal kell majd felvennie a versenyt, az r670 és G92 nem újgenerációs, szinte ugyanaz mint a régiek
optimista vagyok, ha kiönnek elfilléresednek a 8800-as árak a ph apróban az tuti -
Drizzt
nagyúr
Hát nekem épp az R600-tól lett pont elegem egy időre az Ati-ból. Be lett harangozva mint valami világmegváltó, erre egy 320-as Gts-től sem volt egyértelműen gyorsabb, ellenben sokkal drágább volt, sokkal többet fogyasztott. Nem hittem a szememnek amikor kijött. Aztán jött a majd pár driver múlva, s közben igazából semmi látványos gyorsulás nem jött el. Arról ne is beszéljünk, hogy elég gyorsan mekkora értékesésen ment át, többek között az új Ati kártyagenerációnak köszönhetően. Ha rögtön a 38xx-es család jött volna ki, akkor nem lett volna komoly csalódásom, de az eredeti R600 minden szempontból mélyen alulmúlta várakozásaimat.
-
Drizzt
nagyúr
"Ezzel, hogy most "kivetetik" az AC-ból a DX10.1-et, mert nekik olyan nincs most ez baszta ki nálam a biztosítékot..."
Szerintem amíg nincsen erre bizoníték, nem kéne tényként kezelni, Ubisoft nyilatkozat:
[link] Azt írják, hogy azért vették ki, mert megjelenítési hibák vannak, ha megoldják, visszarakják. Amúgy valaki játszott már huzamosabban a dx10.1-es változatával? Tapasztalt különbséget(a teszt ami volt, abban egy kép alapján nem könnyű megítélni, az AA jobb volt dx10.1 alatt, de az, hogy tényleg hibás-e valamelyik PP effekt, az nem derült ki belőlük). Ha meg tényleg hibás, akkor semmi kievtnivaló abban, hogy javításig kiveszik a dx10.1 supportot. -
ulveczkii
tag
A Crysisnál vedd figyelembe hogy az AA nincs bekapcsolva és álltalában az fogta meg nagyon az ATIt. Nameghogy a Crysisnak nagyon gyatra a töbmmagos kártyákon mért sebességnövekedése vagyis lehet hogy a 9800GTX is ittkörül kapna. Ha innen nézed nem biztos hogy kamu de énsemtudom hogy mennyire tekinthető valósnak. Egy biztos, hogy ha igaz akkor az elvárásaim felett teljesít
-
samfishR
senior tag
válasz
Kozmonauta #848 üzenetére
remeljük nem fake!
-
-
leviske
veterán
válasz
janos666 #849 üzenetére
Hát kérlek... jelen pillanatban tökéletes előnyt kovácsolna magának vele az ATi, ha a GX2 szintjét tudná hozni egy egymagos kártyával.
Főként abból kiindulva, hogy a HD4870-nek lesz olyan 70-80k-s induló ára (magyar kereskedőkkel számolva) a GX2 125k-s árához képest. És még ha le is viszik a GX2-t 80-90k-ra, akkor sem verik ár/értékben a 70-est, viszont a nyereségről lemondhatnak.
(#843) <<< erre pedig annyit tudok reagálni, hogy aki HD29-est vett, az még mindíg előrelátóbb volt, mint aki G80 arch.-ra épülő karit vett.
Meg lehet nézni, hogy az ATi (kisebb változtatásokkal) tudja tartani az R600 által betaposott utat, míg a GT200 igen csak más, mint a G80 (tudtommal)
Nem mondom, hogy jobban járt, aki 29-est vett, de előrelátás szempontjából jobb megoldást választott.
-
7600GT
senior tag
válasz
Kozmonauta #848 üzenetére
150%, hogy kamu a teszt. Crysis alatt megverjen, ráadásul ennyivel egy 9800GX2-t?? Nah ne vicceljenek már kéremszépen.
-
Thrawn
félisten
válasz
Kozmonauta #848 üzenetére
Fake...
-
PPSH
őstag
válasz
Kozmonauta #848 üzenetére
eleg szepen elveri 1 maggal a duplamagos megoldast
aztan meg a 4870 X2
-
válasz
Kozmonauta #848 üzenetére
Hmm. A legutolsó hírek szerint nem is lesz 512Mb-os 4870 és az GPU is 50Mhz-el gyorsabban jár. A másik meg hogy a 3870-ből kiindulva ha 3DMarkban "csak" ennyivel veri meg a 9800-ast akkor Crysisben kb. egálban kéne állniuk.
-
Kozmonauta
tag
www.guru3d.com/news/ati-radeon-hd-4870-vs-geforce-9800-gx2-benchmark-results/
Ha ez igaz akkor inkább a textúrázókban ugrik nagyot az új chip, shader teljesítményben az 50% növekedés bőven elég amíg nem lesz valódi DX 10-es játék
-
samfishR
senior tag
Már én is eldöntöttem h nem fogok venni nvidiát, majd nyáron veszek egy 4870-et. bárki bármit mond, én az ár/érték arányt nézem, és remélem h ebben a 4800-as széria jobb lesz mint az "új" nvidia. lehet h az új nvidiával több pontom lenne vantage-ban, de lesz*rom, az a lényeg h akadjon a 250 fps cod4ben
meg persze h ne kelljen fél év mulva kidobni a karit
itt a május, dobhatják kifele a 4800-as sorozatot!
Vaniliás Rönk: én is remélem már h vagy jogi úton és/vagy teljesítményben keresztbe tesznek az nvidia gerinctelen önkényuralmának.
-
Az első sor után nem konkrétban neked szólt a többi bekezdés.
Ez most tényleg EXTRAOFF lesz:
Amúgy úgy is nézhetem hogy te vettél volna egy 8800-ast, kerül amibe kerül, aztán jött egy olcsó radeon és az lett helyette. Most több pénzed maradt, de lassabb a géped, pedig azt a pénzt gondolatban rászántad már a gépre és nincs rá garancia hogy értelmesebb dologra költötted utánns (lehet hogy elittad, lehet hogy értékes dolgot vettél belőle, nem tudjuk) -> nem feltétlenül jártál jobban
EXTRAOFF vége... -
TTomax
félisten
válasz
janos666 #843 üzenetére
Nem ertem miert kell messzemeno konzekvenciakat levonni.Az 50-es 100 font volt a 70-es 159font volt a 8800GT meg 176 font volt,azert valasztottam az 50-est mert a 70 meg nem tud 50%-al tobbet,inkabb megalkudtam egy gyengebb kartya mellett.Szerintem ebben semmi hihetetlen nincs,amugy jol tettem mert a 8800GT most 126font a 70-es 116 font az enyem meg 95font.Ha most vennek akkor lehet mar 70-est vennek de tavaly decemberben az Nvidianak a 8600-as szeriaja volt ugyanide arazva...
Az hiszem ki ismeritettem az offtopic fogalmat...read offba rakom magam,es varom a fejlemenyeket.... -
Hát ha ugyanezt egy 3870-el és nem 50-el adod elő még találtam is volna benne realitást mert a 70-est nem hagyja ott olyan durván a 8800 mint az 50-est.
Én nyíltan nv párti vagyok ma is mint mindíg, de annakidelyén megvártam a HD2900-ast mielőtt megvettem a 8800GTS-t. És akkori teszteket mérlegelve pártatlanul nézve is jobb vétel volt a 10-15k-val olcsóbb és akkori játékokban picivel gyorsabb vagy egál 8800GTS-320 mint amennyiért akoriban adták a 2900XT-t (és a pro csak későb jött).
Aztán telt az idő, kicsit összeszedték magukat az ati driverek is mire kijött a 3870-es. Ekkor megint megnéztem megérné-e lecserélni a 8800GTS-t 3870-re? Válasz: Nem, ha valami öregebb kártyáról váltanék akkor is sokkal jobban megérné egy 8800GT. És nem csak aznap hanem előreláthatóan még életciklusa végéig.
Aztán most jött a Gef9800, erre is egyértelműen csak passzal tudtam válaszolni, de jön ez az ígéretes 4870.
Erre most azt mondom megveszem, mert jelenleg jobb lesz mint egy Gef9800-as és megéri majd a ráfizetést lecserélni rá a mostani kártyám. Aztán mire kintlesz a GT200 nemhiszem hogy pilnatnyi helyzetben is annyival gyorsabb lesz hogy megérné eladni a 4870-est és lecserélni, de már ott lebeg majd az ember szeme előtt az is hogy: na igen, most lassan tényleg nem árt már DX10.1-es kártyát venni a jövőre nézve.Nade még mostantól a jövőbe érheTI meg ilyen kártyát venni, szóval aki már a 2900XT-t is azért vette meg mert előrelátó az szerintem leejtette a szódásszifontalpat a fejéről és a fasza hegyéig se látott el. (már elnézést, csak sose birom mikor valaki marha okosnak hiszi magát mikor épp butaságot csinál és ezzel még erkölcsi előnyt is titulál magának a bölcsessége mellett - aki tudatos hülyeséget csinál húzza meg magát, ne ezzel villogjon, tudom ilyen a világ, de attól ez nem helyes magatartás)
Szabad csak azért ATI kártyát venni mert neked az tetszik és az nv-t utálod, ahogy fordítva is, csak ha ez épp egy valós helyzeteket mérlegelve rossz döntés akkor ne állítsd be se bölcseségnek, vagy erkölcsiségnek. Azért teszed mert téged boldogít, és ez a lényeg, de attól még a világ felé nézve hülyeség.
Azért vett 2900XT-t aki vett mert ugyan olyan olyan elvakult volt mint én mikor annak idelyén FX5800-ast vettem. Akkor tényleg 9800-as radeont kellett volna vennem, de senki se mondja hogy ma jobban járt egy 3870-essel mint egy 8800GT-vel, mert kb egy áron utóbbi mai játékokban lényegesen jobb.
Esetleg aki majd 4870-et vesz van esélye rá hogy még jól dönt (ahelyett hogy várná és megvenné a GT-200-ast), de nem biztos, csak most én így tippelek. (és nem jósolok, tippelek)
-
TTomax
félisten
En mar ezert vettem HD3850-et es a 4XXXX-ekbol ahogy kijon rogton veszek.Eredetileg 8800GT-t akartam 150fontrol indult,csak amire odajutottam 176font volt ugyanaz merthogy sikeres lett a kartya,erre fel is kaptam a vizet.Pont akkor jottek a HD-k par nap olvasas utan el is dontottem,hogy a 3850 eleg lesz nekem.Amikor vettem 102 font volt,most 95 ugyanez...
Azota csak erosodik a hitem,hogy nem kell Nvida -
Def26
félisten
Huhh, mi van itt.
Szvsz ahogy nálunk is, gondolom külföldön is ezerrel mehet a forrongás a megfelelő emberek agyában.
A posztok olvasása után én is felb@sztam magam, és arra jutottam, hogy nem veszek nv kártyát, (pedig 2 hete terveztem). Kis porszem vagyok tudom, de biztos vagyok benne, hogy egyre több ember vélekedik igy...
-
keIdor
titán
válasz
janos666 #836 üzenetére
Nem is lenne baj ezzel, ha nem venné el az ATi-tól azt a kis előnyét is ami van nekik... felőlem csináljanak még olyan grafikus motorokat, mint a CryEngine 2...
Ezzel, hogy most "kivetetik" az AC-ból a DX10.1-et, mert nekik olyan nincs most ez baszta ki nálam a biztosítékot... remélem az Nvidia tényleg kivonúl a PC piacról 1-2 év múlva, nekem nem fognak hiányozni... konkurenciának meg itt lesz a Larrabee. -
Amúgy szerintem ilyenkor nem az a lényeg ki áll erkölcsi vagy elméleti erőfölényben hanem ki a sikeresebb. Szóval én pl. gratulálok az nvidiának hogy sikeresen műveli amit csinál. (még a szarból is tud várat építeni ha az kell) Amúgy legközelebb 4870-es radeonom lesz (csak megjegyzem hogy elvakult azért nem vagyok, legfeljebb részlehajló).
-
keIdor
titán
Bizony
Általában nem vagyok kárörvendő tipus, de az Nvidia megérdemli!
janos666: Jah azokat is jól lefizetik... (ebben 100%-ig biztos vagyok)
Srácok az Nvidia a G80 eladásokból gazdagodott meg ennyire?Tudom, hogy annó is ilyenek voltak, de akkoriban (FX) nem volt ennyi pénzük. Egyébként HL2: EP3 kulcsot sztem majd a GT200 mellé adnak..
-
-
dokar
addikt
válasz
VaniliásRönk #831 üzenetére
hű de jó lenne
-
leviske
veterán
Várható volt, hogy az új 3dmarkba is beleszól az nV.
Túl nagy ütőfegyver eladások terén.
Bár mivel a Sapphire logója is helyet kapott, ezért némi esély talán csak van, hogy HD4-esek majd visszavágnak.
Nem hiszem, hogy hülyeségből alakítottak át pár megszokott dolgot (pl: coreclock=shaderclock)
Én inkább arra leszek kíváncsi, hogy helyet kap-e a HD48-asok dobozában a vantage, vagy azokhoz is 06-ot csomagolnak?
-
Hakuoro
aktív tag
válasz
VaniliásRönk #829 üzenetére
Nem volt rá idejük a pár millió nvidiaától kapott zöldhasú számolgatása közben.
Egy olyan szemét eszközöket alkalmazó cég ellen mint az nVidia csak hasonló magatartás lehetne sikeres. Ők is megvehetnének pár fejlseztőt kilóra.Teljesen át kellene alakítani az AMD marketingjét.
-
Hakuoro
aktív tag
Az új 3dmark se támogatja a directX 10.1-et!?
[link] -
leviske
veterán
Fog ez a helyzet még változni...
Amint az Intel beszáll a VGA bizniszbe, már csak az AMD tud majd lépést tartani vele. Az nV vagy más vizek felé hajóz, vagy a VIA-val alkot valamit.
Nem hinném, hogy a játékfejlesztők mernének az Intel-AMD páros ellen szavazni egy olyan kétséges jövővel rendelkező gyártó mellé állni, mint az nV.
Bár ez mind csak az én véleményem. Nem mernék rá fogadni, hogy így is lesz.
-
rocket
nagyúr
válasz
janos666 #824 üzenetére
3dmark2k6 mikor megjelent mar volt az ATi-nak is SM3.0-at tamogato kartyaja, nem ertem mirol irtal a 6800GT es SM3.0 kapcsan
Ha mar mindenkeppen hasonlitgatni akarsz akkor emlekezzel meg a 3dmark2k6 altal hasznalt PCF-rol amit az R600 elott egyik Radeon se tamogatott, mig a masik oldalon G7x-tol mar tamogatva volt, lehet vitatkozni mifan terem a dio, de egyre jobban felesleges, a tortenesek elarulnak mindent meg annak is aki nem is igazan akar ebbe belelatni -
-
-
Nem értem miért hagynak az ilyen képekben apró kételyeket.
Pl. a 4 kép (2x2) közül 3-on tök ugyanoda néznek, de a geforceos SP1-es lépen picivel el van fordítva a gyerek felye felfelé. Mondjuk ez kevésbée érdekes,
Másrészt a 2 radeonos és 2 geforceos képen kitudják nagyítani ugyanazt a 2-2 pontot, de ezek a pontok nem egyeznek a georceos és a redonos képeken.
Tudom hogy semmit se számít de miért csinálják így? Mindkettő olyan hiba ami csak figyelmetlenség, nem isgényelne túl sok plusz munkát rendsen csinálni.Azzal meg szerintem csak a szemem vagy a montirom csal, de mintha picit mindkét (geforce és radeon) esetben változna a pillérek textúrájának minősége. Az SP1-es képeken mintha picit halványabbak lennének az apró kis karcolások/árnyékok. És erről a képről nem is tudom megitélni hogy azért mert finomabban rajzolódnak ki, vagy mert elmosódnak egy picit.
-
Abu85
HÁZIGAZDA
So, regarding DirectX 10.1 in Assassin's Creed two things are clear. It is obvious that DirectX 10.1 brings significant performance enhancement for AMD's ATI Radeon HD 3870 and Radeon HD 3870 X2, and likely for all of the other Radeon HD 3K series of video cards. It is also clear that DirectX 10.1 does not bring with it a visual upgrade worth getting excited about in this game right now. One lousy edge receiving multisampling is not worth writing home about. The ATI Radeon 3870 performance boost gained with DX10.1 certainly is though.
Rather less clear, however, is the fate of DX 10.1 support in Assassin’s Creed and whether ATI Radeon HD 3000 series video cards will maintain the performance results they currently exhibit when AA is enabled. One thing is for sure, DX 10.1 seems to be very positive for AMD. This is the first game to use it, and we saw positive gameplay results. Removing that support would be taking a step backwards instead of pushing the industry forwards. If it truly gets removed in the next patch, that would make absolutely no sense at all from a gamers standpoint.
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.
We did not find it to be “costly,” but Ubisoft is the company that has to pay to support their users, not us. Surely if you are playing with an 3800 series Radeon and using AA, you might want to look before you accept the next AC patch from Ubisoft.
AA minőség DX10-ben:
HD3870x2
9800GTXMindenki eldöntheti maga, hogy fontos-e a DX10.1...
-
keIdor
titán
Az Nvidia pénze mindenhol ott van...
Ubisoft nixes first DX10.1 support
3Dmark Vantage doesn’t like DirectX 10.1
Nagyon nehéz dolga lesz így az ATi-nak... bár a 3DMark engem hidegen hagy, de ha ezt csinálják az AC-vel, akkor más játékokkal is meg fogják ezt csinálni.
-
Azóta figyelem, a mondatszerkesztésed mióta olvastam a DX10-es kártyákról szóló, cikked.
És nemtudom figyeled, e mire akarom felhívni a, figyelmed? Esetenként vagy rossz helyre rakod, de többségében inkább csak van egy felesleges vessző is olyan helyen a mondataidban ahova szerintem nem csak hogy nem kéne, de zavaró is mint itt az UE3 után.
Eddig azért vonakodtam ezt megemlíteni mert én meg gyakran elhagyom a vesszőket. (de célzatosan annak érdekében hogy úgy olvassák ki ahogy mondani akarom) -
Abu85
HÁZIGAZDA
válasz
janos666 #808 üzenetére
Szerencsére az UE3, még csak Deferred Shadowing-ot használ, így az eléknel ha nincs árnyék, akkor jó az eredmény. Ha van árnyék akkor nyilván nem működik.
Call Of Juarez-ben, vagy a STALKER-ben Deferred Shading van, ott már marha nagy probléma a kényszerítés, mert sebességvesztéssel is jár, és lényegében semmi eredménye nem lesz. A COJ fejlesztői, ezért alkalmaznak SBAA-t saját kártyákra optimalizált algoritmussal. A STALKER a legújabb Patch-el amolyan Deferred Supersampling féle megoldást használ, mindegyik Render Targeten AA-t végez, ez is helyes eredményt ad, de a sebességet tulajdonképpen tizedeli. -
Abu85
HÁZIGAZDA
A DX10.1-es sebesség az AA nélküli eredményhez képpest van viszonyítva.
DX9-ben hackolt eljárás van, picit hibásan működik, de legalább van. Azzal viszont sokkal lassabb a Radeon (25-30% is van). -
A Bioshock kiváltotta nyavajgás után driverekkel megoldotta az nvidia hogy DX10 alól (defferend renderinggel) is működjön az élsimítás.
Azon lehet vitatkozni hogy ez sohol sincs a radeonok DX10.1-es élsimításához se minőségben se sebességben, de tény ami tény hogy működik, kevesebb a csíkozódás és játszható az UT3 meg az AC is 8xCSAA-val.
Sőtt, a radeonok azthiszem erre nemisigen képesek, hogy dx10 alól éltsimít (már driverből), csak dx10.1 alól ami meg csak AC-ben van egyenlőre. -
Nemtom, az Assassin's Creed történetesen teljesen jól néz ki az én kártyámon maximális AA-val, nem tudom, hogy DX9-ben a bedrótozott MSAA-t használja, vagy mást. Szerintem az év végi játékdömping előtt nem billen még a mérleg az alternatív eljárások felé, úgyhogy piacilag tökönszúrta magát az ATI a HW MSAA kihagyásával, hiába volt műszakilag helyes döntés...
-
Abu85
HÁZIGAZDA
Ahogy elnézem már a többi játék sem szereti az AA-t, nem csak UE3 szindróma sajnos.
Az Assassin's Creed-ben viszont van DX10.1-es Pre-Defined AA mintavétel. Azzal a 4x-es AA 5-8%-os teljesítménycsökkenést okoz maximum. Crossfire-ben meg észre sem lehet venni a deficit-et bekapcsolásakor. Jól tette az AMD, hogy nem támogatta tovább a Hardveres eljárásokat, kompatibilításuk és a sebességük sem elfogadható már. -
válasz
ulveczkii #803 üzenetére
A 3850 realisztikus beállítások mellett bőven a 9600GT alatt teljesít (általában cca. 20%), kivételek egyedül az UE3 alapú játékok, ahol meg elsősorban az AA hiányának tudható be az RV670 jó szereplése (kivétel a Rainbow Six: Vegas, ott tarolnak a Radeonok).
És amúgy mennyire érdemes előrelátónak lenni? Én áprilisban úgy vettem a 9600GT-t, hogy jó, ha év végéig kitart - fog addig valami izgalmas történni?rocket: az RV670-esek kihozatala biztosan nagyon jó, mert ezért tudták az eredetileg tervezettnél hetekkel előbb kihozni a kártyákat.
-
ulveczkii
tag
Azért én nem mondanám hogy a 3850 512 alul marad a 9600gtvel szemben. Talán csak az álsimítás és az anizo okán egy hajszállal de aki egy kicsit is előrelátó az egyértelműen a 3850et választja. A 3870 meg minden szempontból jobb és talán 2-3 ezer fotintal drágább, amit már csak a klasszisokkal jobb hűtés okán is megérik kifizetni.
Nemrég volt rólla szó hogy az ATI-nál gyakorlatilag nincs selejt a strukstúra miatt. Ami kicsit kevesebbet bír az megy 3850 be és ennyi. Úgyhogy innestől csak a G94 kihozatala a kérdés. -
rocket
nagyúr
válasz
ulveczkii #798 üzenetére
Az, hogy kisebb meg onmagaban nem mutat semmit, nem tudjuk a kihozatali aranyokat, ugyhogy csak talagatni lehet, az biztos a HD3850 teljesitmenyben elmarad a 9600GT-tol, HD3870-et vehetjuk konkurens termeknek teljesitmenyben, ez meg arban marad el a 9600GT-tol a rossz iranyba.
Hamarosan beerik az ATi-t csikszelessegen a G92-vel, jelenleg ugytunik a RV740 lehet az elso 45nm-es diszkret GPU, de csak 2008Q4-ben jon, addig az RV670 maradhat a kozepkategoria ami mar a 65nm G94-gyel is nehezen veszi fel a versenyt minden szepontbol, az NV-nek meg ott lesz a lehetoseg 55nm-es G94-re, mig az ATi ellotte az osszes lehetoseget az RV670 kapcsan (ugye szo volt az A12 reviziorol, amivel esetleg javithatnak meg a dolgok allasan, de ugytunik nem lesz), persze azt azert belekell kalkulalni, hogy a kisebb csikszelesseg sokszor nem azt hozza amit varnak tole, de jelen esetben nem nagy highend GPU-rol van szo, igy az esely kisebb arra, hogy rossz dolgok tortenjenek 55nm shrink kapcsan.
Szoval lehet megint egy ideig hatranyuk szarmazik majd a kisebb csikszelesseg hajkuraszasbol, ahelyett, hogy augusztus vegen (fontos idoszak a back to school szezon)55nm-en kijonnenek az RV740-nel.
Aktív témák
Hirdetés
- Házimozi belépő szinten
- Építő/felújító topik
- Az egész világon terjeszkednek a dollármilliárdos kibercsalók
- Samsung Galaxy A54 - türelemjáték
- iPhone topik
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- PayPal
- Gigantikus leépítéssel építené újra az Intelt a cég új vezére
- Milyen videókártyát?
- Ismerős a CMF Phone 2 Pro kamerarendszere
- További aktív témák...
- Szinte új, minőségi, állítható ritkítóolló
- iking.Hu - Apple iPhone 11 - White - 100% - Használt, megkímélt állapotban
- BESZÁMÍTÁS! Intel Core i9 13900K 24 mag 32 szál processzor garanciával hibátlan működéssel
- Motorola E40 64GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RX 9070 XT GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopszaki Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest