Hirdetés

2024. március 28., csütörtök

Gyorskeresés

Téma összefoglaló

Téma összefoglaló

  • Utoljára frissítve: 2013-02-03 13:32:02

LOGOUT.hu

A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!

Összefoglaló kinyitása ▼

Hozzászólások

(#951) rocket válasza Bj Brooklyn (#945) üzenetére


rocket
nagyúr

Az NV azert nem fog tudni semmikeppen akkorat durrantani mint a G80-nal, mert az ATi nem az R600 V2-vel jon a piacra ~6 honappal kesobb ;)
Altalaban egy kimagaslo sikerhez kell a masik fel szerencsetlenkedese is, R300 azert volt a varhatonal jobb, mert az NV a varhatonal rosszabb GPU-t csinalt az NV30 szemelyeben, ugyanez volt a helyzet a G80 es R600 kapcsan es a kesesek is kozre jatszottak a helyzet kialakulasaban.
Legfontosabb az adott generacioban elsokent piacra lepni az uj termekekkel, ezzel kilehet alakitani a megfelelo hypeot es elonyt, ha ez meg egy uj OS (Win7) es A+ (Q4-ben jon a legtobb jatek) kategorias jatekok megjelenesehez kozel esik az ujabb pluszokat jelenthet.

Ha joval kesobb jonnek az NV kovetkezo generacios termekei mint az AMD-e, akkor azt kell megvalositsak, hogy a megelelo grafikai teljesitmenyt nyujtsak jatekok alatt.
NV30 es az R600 veszte is az lett, hogy kesobb jottek es nem hoztak azt a szinten amit vartak toluk, tehat ha az NV nem egy GPGPU szornyben gondolkodott es gyorsabb tud lenni akkor az ATi kezdeti elonyet konnyen letudja nullazni, viszont ar/ertek/meret aranyban hasonlo helyzet alakulhat ki mint az RV770/GT200-nal, igy uzletileg hasonlo buktatok lehetnek.

Ha volt eszuk strategiat valtottak es nem eroltetik tovabb a monolitikus highend GPU-t :)
Ha maradnak a monolitikus highend GPU-nal, akkor szerintem az NV a highendet behuzza, viszont alatta megint nagy sz@rban lesznek, de mivel marketingben erosek igy johetnek majd a felrevezeto temrek nevek, hogy ugytunjon mintha a DX11 highend kartyak kistestverei lennenek a DX10.1-es elozo generancios kartyak.

"A lower resolution generally means that there can be more quality per pixel."

(#952) hugo chávez válasza Abu85 (#949) üzenetére


hugo chávez
aktív tag

Na és az nem lehet, hogy mind a két verzió igaz? Úgy értem, hogy jön egy kártya a gpu piacra és egy a gpgpu piacra is.

"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari

(#953) Abu85 válasza hugo chávez (#952) üzenetére


Abu85
HÁZIGAZDA

Ilyenre manőverre nincs kapacitásuk. A mérnöki gárda létszámát minimum meg kellene duplázni, és akkor még a két rendszer támogatását nyújtó rendszerprogramozókról nem is beszéltünk. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#954) Laraxior válasza Abu85 (#949) üzenetére


Laraxior
titán

igazából olyan mindegy melyik hir igaz... brutálisan erős kártyát fogunk kapni az tény :))
:C
A másik meg... úgyis csak pár hónapig fog felülkerekedni az egyik... aztán jön a másik...
soha véget nem érő pénzlehúzós műfaj ez :O de mi élvezzük :K :DD
Szó ami szó: 8800Ultrát keresek továbbra is :DDD ;]

"Mi a hazugság ára? A legnagyobb veszély nem az, hogy elhisszük, hanem az, hogy ha rendszeresen hazugságokat hallunk, akkor már egyáltalán fel sem ismerjük az igazságot. S akkor mit tehetünk? Mi mást tehetnénk, hogy lemondunk még a valóságnak a reményéről is és egyszerűen beérjük történetekkel."

(#955) Bluegene válasza Abu85 (#953) üzenetére


Bluegene
addikt

és a marketing osztály és a vezetők megduplázását :DDD

sry csak vicc volt

Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!

(#956) MSI.inc válasza Bluegene (#955) üzenetére


MSI.inc
csendes tag

Helo!
Nekem a kérdésem az lenne,hogy hallotam vmi pletykát miszerint az nVIDIA új csatlakozási felületell is ellátja uj kártyáit!Eszerint búcsút mondhatun ka Pci Expressnek?

Micro Star International...

(#957) Bluegene válasza MSI.inc (#956) üzenetére


Bluegene
addikt

nem hinném, mert akkor nem lenne sikere a X58 as, core i7 tulajok között sem

esetleg PCI-E 3.0 ami visszafelé kompatibilis

Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!

(#958) p87 válasza Abu85 (#949) üzenetére


p87
senior tag

Szerinted mekkora magmérete lehet majd ezeknek 40nm-en?
Mert ha megint egy 450mm2 körüli lesz akkor megint jó drága lesz, és ha a GTX295 teljesítményét fogja hozni kb. akkor ha az AMD RV870 -ese meg 200mm2 alatt lesz és hozza a 4870X2 teljesítményét akkor nem kérdés ki nyeri az ár/teljesítmény csatát.
Pláne ha még két RV870 lesz MCM-ben akkor még azt is olcsóbban tudják adni mint az NV-ét és sokkal gyorsabb lesz nála.
Elszúrta az NV, hogy csak ilyen nagy chip-ekkel tudja tartani a lépést.

[ Szerkesztve ]

(#959) Bluegene válasza p87 (#958) üzenetére


Bluegene
addikt

állítólag szabnak a felépítesén is nv-ék, viszont ha átalakítják az architektúrát alapjaiban akkor driverekkel lehet a gond

Elszúrta az NV, hogy csak ilyen nagy chip-ekkel tudja tartani a lépést.így jár aki elhanyagolja a fejlesztéseket és lenézi a riválist ;)

ez van, ezt kell szeretni gyerekek ;]

[ Szerkesztve ]

Siemens S65-re való adatkábelt keresek! egyszeri Szoftverfrissítésre! Írj megbeszéljük ha van elfekvőbe/kölcsön neked!

(#960) Bj Brooklyn válasza Bluegene (#959) üzenetére


Bj Brooklyn
aktív tag

Vagy aki nem a holnapra gondol hanem a jövőre :DDD

Ha a Google a barátod, akkor a Wiki a barátnőd :)

(#961) Abu85 válasza p87 (#958) üzenetére


Abu85
HÁZIGAZDA

Nemtok konkrét paramétert, így méretet sem tudok számolni. Ha OBR 480 SP-je igaz, akkor kicsivel 400 mm alatt lehet. A többi megoldás tovább növeli a méretet.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#962) Bj Brooklyn válasza Abu85 (#949) üzenetére


Bj Brooklyn
aktív tag

Na már megint ez a "nesze semmi fogd meg jól" hozzászólás :W

Ha a Google a barátod, akkor a Wiki a barátnőd :)

(#963) szasanyi válasza Abu85 (#949) üzenetére


szasanyi
félisten

A megjelenés körülbelül várható időpontról semmi infó sincs?

(#964) Abu85 válasza szasanyi (#963) üzenetére


Abu85
HÁZIGAZDA

Leghamarabb év vége. A DX11-es játékokra kell minimum egy paper launch, valami butított kártyával, még akkor is ha a chip felét le kell tiltani.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#965) szasanyi válasza Abu85 (#964) üzenetére


szasanyi
félisten

Az jó, év vége vagy következő év eleje sztem nem (lenne) rossz. DE lehet, hogy nem értelmeztem helyesen: akkor a jelenlegi info szerint az új GPU által támogatott API nem a DX11 lesz? :U

[ Szerkesztve ]

(#966) Abu85 válasza szasanyi (#965) üzenetére


Abu85
HÁZIGAZDA

A DX11-et tuti támogatják. A baj itt azzal lesz, hogy az AMD már ott van a kártyájával a fejlesztőknél, és írogatja bőszen a DX11-es eljárásokat. Az NV-től az elmúlt években a CUDA fejlesztése volt a megszokott, DX10-es dokumentálásuk is alig van. Persze érthető a CUDA nyomatása, mert független platformokkal ők erről a piacról kényszerűen kiesnek.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#967) szasanyi válasza Abu85 (#966) üzenetére


szasanyi
félisten

Igen olvastam a CUDAr történetet. Én nem értem, mi a jó abban, ha nem egységes, és mindenki által elfogadott és jónak tartott rendszerben dolgoznak/fejlesztenek, hanem ezt az egyedi és hátrányoktól sem mentes irányt erőltetik. De amúgy már nem is érdekel igazán (meg hol vagyok én annyi info birtokában, hogy ezt megítélhessem), csak ugye lenne már új feature-kel rendelkező, korszerűbb nVidia GPU technology. De még mindig csak az abszolute találgatások szintje van.
Tudom, hogy ez a topik nem az a topik... de lehet, nem is árt egy kis kitérő: véleményed szerint - kis túlzással, a DX11 küszöbén - érdemes HD4890 1GB VGA-t venni? Mire lesz elég DX11 alatt az a teljesítmény?

(#968) Abu85 válasza szasanyi (#967) üzenetére


Abu85
HÁZIGAZDA

Pedig az NV szempontjából van értelme a CUDA-nak. 2011-től az AMD és az Intel a csúcslapkán kívül olyan CPU-kat fog kínálni, amik integrált GPU-val rendelkeznek. Ezzel kiesik az alaplapi és a diszkrét GPU piac 120-130 dollár alatti szegmense, vagyis az NV akaratán kívül meg lesz fosztva a GPU piac legnagyobb bevételforrásaitól. Nyilván ez ellen csak úgy lehet védekezni, ha olyat kínálsz amit az AMD és az Intel nem fog. Ez lenne a CUDA, amit természetesen úgy fejlesztenének, hogy az újdonságokat csak az NV GPU-k támogatnák, és az AMD illetve az Intel csak akkor kezdhetne neki - teszem azt - a 4.0-ás verzió hardveres követelményeinek megfelelő rendszer építéséhez, amikor az NV kiadja a speckókat. És persze, hogy akkor adja ki ezeket doksikat amikor már lesz a zöldeknek tökéletes 4.0-ás hardvere. Ezzel a módszerrel az NV egy folyamatos hátrányt teremtene az Intelnek és az AMD-nek, és a kisebb szereplőknek. Nem véletlen, hogy nem akarja senki támogatni a CUDA-t. :D
Az infóhiány nem biztos, hogy rosszat jelent. Attól még lehet jó egy hardver, hogy nem kürtölik ki a speckóit. :)
Elején a DX11-es kód 10-15%-kal fog jobban futni, a DX10.1-es kódhoz képest (látványbeli eltérés nem igazán lesz). A Radeonoknak még a tesszellálás sem lesz akadály.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#969) Iron Funeral válasza Abu85 (#968) üzenetére


Iron Funeral
őstag

Akkor ez a DX11 megint olyan nagyszerű újítás lesz mint a 10 volt... :U
Ennyi erővel maradhattak volna 9nél, ott legalább nem volt élsimítás-mizéria :DDD
Kicsit más, ok, szóval a CUDA vs. DX10+ eldőlt, mert a CUDA nem nyílvános, de van egy kérdésem, hogy CUDA vagy a DX támogatással lehetne jobb (nem, nem feltétlen szebb) játékokat csinálni? Most arra gondolok, hogy pl. hardveres fizika alap a CUDAnál, ráadásnak az élsimítást is meglehet oldani vele (pont azt hiszem valamelyik csuda DX10.1 játékban meg is csinálták) szóval nekem jobbnak tűnik a CUDA, legalábbis felületesen, amit egy hétköznapi user láthatna egy platformból :U

Which Twilight do you like the most? Twilight of The Thunder God! /,,/

(#970) Abu85 válasza Iron Funeral (#969) üzenetére


Abu85
HÁZIGAZDA

Inkább úgy fogalmaznék, hogy olyan nagyszerű újítás lesz, mint a DX10.1. De a DX10 adta mindkettőhöz az alapot.
Pont a DX9 miatt nincs elsimítás. :) Az a rendszer nem tud szín és mélység információt szerezni deferred render esetén. A DX10 már tud színt, míg a DX10.1 tud Z-t is, azaz támogatja a Multisample Accesst, amivel tökéletesen működik az élsimítás Deferred Rendering esetén is.
A CUDA az OpenCL és a Compute Shader ellenfele, azaz egy GPGPU interfész. Jelenleg a CUDA a legfejlettebb, de támogatás hiányában a többi hamar utoléri majd.
A PhysX működhet OpenCL-en és CS-en keresztül is, ahogy a Havok is megy OpenCL-en (várhatóan CS-re is megírják). Az NV köti a CUDA-hoz a PhysX-et, ami azt szorgalmazná, hogy legyen értelme az AMD-nek beállni a támogatók közé, de ez is bukott ügy lett.
Az AA-t meg felesleges másik API-val csinálni, amikor a DX10.1-ben ott a Multisample Access. Ezentúl az NV is minimum DX10.1 kártyát fog kiadni, mert nem lehet tovább húzni.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#971) Iron Funeral válasza Abu85 (#970) üzenetére


Iron Funeral
őstag

:) Bár iróniának szántam a nagyszerűt, de ha tényleg úgy gondolod, hogy nagy pukk lesz lesz akkor elhiszem :R. Jó oké, a tesszalálás már megér egy misét, remélem nem csak békákon lesz fellelhető az effekt :DD
Ez a DX9 dolog új nekem, úgy értem, a HL2 ben (SM2.0-3.0) volt AA és a felpatchelt (SM3-as, HDR-es) Far Cryban is volt, bár ahhoz Radeon X1k vagy G80 kellett.
Vagy ott is úgy volt mint a Crysisban, mármint hol van hol nincs :))
PhysX-et tudom, hogy lehetne más platformon futtatni, úgy értettem, hogy most jelenleg a CUDA része.

[ Szerkesztve ]

Which Twilight do you like the most? Twilight of The Thunder God! /,,/

(#972) szasanyi válasza Abu85 (#968) üzenetére


szasanyi
félisten

Nagyjából értem. Sztem még nem dölt el minden, legalább is nekem úgy tűnik. Akár sikerülhet is az NV-nek ez a CUDAr politika, bár az ellenállás nagyobbnak tűnik,mint a támogatás. Majd kiderül ez is. A lényeg, hogy tényleg dobjanak piacra új, korszerűbb VGA-kat, és lehetőleg még idén. Bár ezt kétlem, hogy megtörténik.
A HD4890 kártyával kapcsolatos válaszod nem egészen világos. Tehát nyilván lesz sebesség különbség a DX10.1-et támogató GPU és DX11 GPU között (természetesen az utóbbi javára), de a rendelkezésre álló GPU számítási kapacitás és a fejlettebb feature-ök miatt egy HD4890 valószínűleg elég lesz az újabb, DX11 játékok alá is. Jól értem? :U

(#973) zuchy válasza Iron Funeral (#971) üzenetére


zuchy
őstag

Csak azok a motorok, amikben van DX9 alatt AA, azok nem deffended renderinget használnak.

PC-STYLE.hu

(#974) Iron Funeral válasza zuchy (#973) üzenetére


Iron Funeral
őstag

Az oké, én úgy értettem a "mardtak volna DX9nél" dolgot, hogy pl. a Source motorból kihozzák a technológiai maximumot. Aztán miutál láttuk, hogy milyen lassú a gép a csomag alatt jöhetett volna a DX10+os gyorsítás :)

sz.: off

[ Szerkesztve ]

Which Twilight do you like the most? Twilight of The Thunder God! /,,/

(#975) janos666 válasza Iron Funeral (#974) üzenetére


janos666
nagyúr

Így a korábbi hsz-eidhez:

FarCry-nál messze nem kellett G80 a HDR+AA kombóhoz, Gef6-al is ment. Én úgy emlékszem, hivatalosan a Gef7 megjelenésekor villantották meg a HDR+AA dolgot, de gyakorlatilag a Gef6-osak is tudták friss driverrel (mert nem sokat változott a GPU felépítése, és tudásra is SM3.0-ás mindkettő, én végignéztem az összes Gef7 techdemót Gef6-on, miután eszközöltem egy friss drivert, ami akkor hivatalosan nem ment még rá a Gef6-okra, csak 7-es beta volt). A Radeonokon viszont nem tudom mikortól vált elérhetővé a dolog, mert ugye x1yyy-tól volt csak SM3, ami alap, a HDR+AA együtt jó kérdés, lehet hogy kezdettől fogva? Ugyan ez érvényes amúgy UT3 motorra is, ahol a forceware driver összeütyköd valami félmegoldást, hogy legyen AA a deferrend rendering mellett is. Állítólag a Catalystnál is működni kéne ilyesminek, ha CCC-ből erőltetsz AA-t UT3 motorra, de előbbit én is láttam üzemelni (egész jól), utóbbit még soha (illetve esetleg benyelte az FPS-t, de tényleg semmit nem simított).

pl. a Source motorból kihozzák a technológiai maximumot - Kukkants bele a Cinematic mod 9.5-be, vagy 10b1-be. Na, ennyit tud a source2007, és ehhez bekajál egy akkora gépet, mint a Crysis Hyghon. Mikor szórakoztam, volt egy jelenet, ahol kivágott valami üzivel, amire a készítő azt mondta "nem elég 1Gb VRAM 1920-hoz", visszavettem a félbontásból, és továbbment. :DDD
Az számomra most rejtéj, hogy ha lesz EP3, illetve ha az nem, akkor valami citromsárga box a Portal2-vel és Left4Dead2-vel, az alá mit tesznek, mert nem úgy néz ki, mint ha a csodamoduláris sorurce annyira vágyna most a DX10 kódra, akkor megvillantották volna már vagy az orangeboxnál, de legalább most az L4D-nél, újatírni meg nemigen fognak, míg ezzel is lehet pénzt csinálni.
Persze jó az a source, de már nem egy technikai csoda. Megjelenéskor fasza volt, de akkor sem volt már olyan hanyattvágós, mint a Cryengine 1,2 (csak a játék volt 1000x jobb, amivel debütált). Jobb példa akkor a Cryengine 2, 95%-ban DX9, és egész sokmindent tud, amit a source2007 nem.

Hmm. Tetszik ez a tegra2-ből kilegózott GPU. :B
Ha emulálnak, akkor később friss driverrel még az sem lehetetlen, akkor a következő DX verziót (pl. megint egy ilyen sunyi 11.1, vagy 11.0b) is ismerheti majd, és ehhez hasonló előnyei lehetnek. Ha nyers erő meglesz hozzá, akkor jó lesz az. Hihetőbb, mint hogy kiadnak egy sokadik G80-at, mert ez a vázolt tegramagos elképzelés ugye GPGPU fronton is jól jöhetne.

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#976) GuB3Ra válasza janos666 (#975) üzenetére


GuB3Ra
aktív tag

Nem az nv 7000es szériánál volt,hogy nem volt AA+HDR egyszerre?

Daark minimalism

(#977) Bici válasza Abu85 (#968) üzenetére


Bici
félisten

Már többször írtad, hogy pár év múlva a prociban lesz a GPU is, ezért felmerült bennem egy kérdés:.
Ez már a sw render előszele, vagy ezek még a mostanihoz hasonló felépítésű GPU-k lesznek?
Vagy az intelnél Larrabbe szerű várható, az AMD-nél pedig R600 utód?

Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

(#978) janos666 válasza GuB3Ra (#976) üzenetére


janos666
nagyúr

Elvileg így van:

"Two key hardware features present in GeForce 6 and GeForce 7 GPUs that accelerate and enable great HDR effects include FP16 texture filtering and FP16 frame-buffer blending. There are many ways to accomplish AA and HDR simultaneously in applications. Some games like Half Life 2 Lost Coast use an integer-based HDR technique, and in such games, the GeForce 6 and GeForce 7 chips can render HDR with MSAA simultaneously using that method. The GeForce 6 and GeForce 7 series GPUs do not support simultaneous multisampled AA (MSAA) and FP16 blending in hardware (the method used in 3dMark 2006).

Viszont nekem úgy rémlik, hogy FarCry alatt is volt HDR+AA Gef6-tal is, csak újabb driver kellett hozzá. De ott van a Gef7 techdemó, amivel sokat szórakoztam Gef6-al, mert kimondottan tetszett, abban tuti ment egyszerre, igaz az OpenGL, de SM3-as kártyán. Az Oblivionhoz is volt erre külön driverprofil.

Szóval elvileg nem ment, de gyakorlatilag mégis megbütykölték driverből, ahogy a deferrend rendering + AA téma is egész jól megy Geforceokon (már amennyire mehet, és pl. radeonokhoz képest).

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#979) Abu85 válasza Iron Funeral (#971) üzenetére


Abu85
HÁZIGAZDA

De a HL2 és a Far Cry nem is volt Deferred Render motor. Ellentétben az újgenerációs motorokkal (UE3, RAGE, Yeti leszármazottak, és még lehetne sorolni.). :)
Az MSAA sok új dologgal nem kompatibilis. A Crysis esetében csak az Edge Detect volt a probléma, így ez az effekt kikapcsol az MSAA aktiválásakor, ez eredményezi a fák, bokrok túlzott recézettségét.
Nyilván a PhysX jelenlegi formában való támogatásához CUDA támogatás szükséges a gyártóktól. :)

szasanyi (#972): A DX11-et támogató játékok első hulláma alapvetően DX10.1-re van írva. Tehát a DX11-et sebességnövelés szempontjából használják (Compute Shaderes Local Data Share, stb.) Nyilván a Compute Shader programokat sebességvesztéssel tudják futtatni a mostani DX10.1-es karik is. Emellett a HD Radeonokban van tesszellátor is, így az is megoldott.
A DX10-es kariknél sok függ az eljárástól, de átlagosan 35-40%-os sebességhátrány áll majd fent, és a kpminőség sem lesz megfelelő (mérsékelte, vagy teljesen hiányzó AA, AF és gyenge minőségű árnyékolás, illetve SSAO)

Bici (#977): Az első CPU-GPU variációk még a jelenlegi architektúrákkal lesznek megoldva. Az Intel nem Larrabee alapot tervez a Sandy Bridge-be, mert egyszerűen ez az elképzelés a DX kötött futószalagjának emulálásával nagyon lassú. Egy célhardver kisebb és gyorsabb. Azt nem tudni, hogy a GPU GMA4xxx, vagy PowerVR GMA5xx leszármazott lesz-e. Az utóbbinak mindenki jobban örülne. :D Az AMD cucca biztos, hogy R6xx-7xx-8xx buherálás.

HDR+AA kérdéshez: Többféle HDR van - az FP16, az FP32, az int10b és az RGBE az elterjedt formátumok. A HL2 például int10b-t használ, így nem gond az AA. Például a régen bőszen alkalmazott FP16-hoz már FP16-os blending egység kell, az AA támogatásához.

janos666: A Catalyst AI a GeForce meghajtóhoz képest másképp működik. Az AMD az effektet tartja előbbre és az AA kényszerítés csak másodlagos. Az NV pont fordítva csinálja, AA lesz, de effekt nem. Ez esetenként érdekes mintavételezés eredményeket szül ami elcsúszott tükröződéseket és helyenként hibás árnyékolást eredményez. Ezt amúgy csak Deferred Shadowingnál lehet eljátszani, Deferred Shading, vagy Lightning esetén már eleve rá sem kényszeríthető az AA a motorra.
Igazából egyik kényszerítő felfogás sem jó, az AA-ról nem a gyártónak kell gondoskodni, hanem a motor fejlesztőjének, főleg ha van megoldás a problémákra.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#980) Iron Funeral válasza janos666 (#975) üzenetére


Iron Funeral
őstag

Na ezt így konkrétan nem tudtam, hogy driver újítással van AA+HDR NV40/G70 karikon :Y .
Még úgy is emlékszem mintha annó a pH! G80 teszben írnák, hogy végre van HRD+AA GF karin :U
A Source tudom, hogy nem csoda motor, annó jobbnak tartottam az id Thech4-et pl, de még az UE2 tuningolt változatai is szebbek sokszor... :U Csak a HL2 az HL2 :)
Arról meg ne is beszéljünk, hogy az árnyékok átlátszanak a falakon, lépcsőkön stb... ilyen persze a Tech4-el nem fordult elő sosem. de még a Cry1-el sem...
Mondjuk, ha jól emlékszem annó a Valve tiltakozott is, hogy most minek kellett ez a DX10 mert nem is olyan jó :K

szerk.: G80 teszt, idézek a lap közepéről: "Az ATI korábban büszkén hirdette, hogy csak az ő termékei képesek egyszerre HDR-t és AA-t használni. Mostantól nem érvényes ez, ugyanis a G80-ban végre van egyidejű HDR és AA. A nagy dinamikatartományú renderelés extrája, hogy nem csak 64 bites, hanem 128 bites precizitással is végrehajtható."

[ Szerkesztve ]

Which Twilight do you like the most? Twilight of The Thunder God! /,,/

(#981) Med1on


Med1on
aktív tag

GT300 reportedly taped out

A semmi az a valami, ami azáltal van, hogy nincs.

(#982) Abu85 válasza Med1on (#981) üzenetére


Abu85
HÁZIGAZDA

Nem értem miért hívják még mindig GT300-nak. :D De mindegy is. Ha igaz a hír, akkor legjobb esetben december végén kiadható lesz. Karácsonyra lehet egy paper launch.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#983) keIdor válasza Abu85 (#982) üzenetére


keIdor
titán

Mert Fudzilla.:)

¡GLORIA A LAS PLAGAS!

(#984) Med1on válasza Abu85 (#982) üzenetére


Med1on
aktív tag

Állítólag egy nagyon szerény méretekkel megáldott chipről van szó alig: 23mm * 23mm ~530mm2 :D
Ekkora gpu kihozatala 40nm-en a TSMC-nél igazán "'lehengerlő" lehet. :)

Nagyjából 3db RV870 (~180 mm2) kijön belőle ha mind két oldalon igazak a pletykák.

A semmi az a valami, ami azáltal van, hogy nincs.

(#985) tzsolesz válasza Med1on (#984) üzenetére


tzsolesz
nagyúr

Nagyjából 3db RV870 (~180 mm2) kijön belőle ha mind két oldalon igazak a pletykák.

És a TSMC-nek ehhez nem lesz valami mondanivalója? Vagy majd lesz úgy ,hogy 100-ból 1 ami sikerül? Az úgy nem lesz jó szerintem. Állítólag még az RV840-est is rossz kihozatallal tudják majd kezdetben gyártani. :U

(#986) Med1on válasza tzsolesz (#985) üzenetére


Med1on
aktív tag

Nem túl rózsás a helyzet az tuti de akkor mit lehet várni egy 3x nagyobb chip esetében? :U
Pontos számokat én nem tudok mondani de az R8xx-ek kihozatala valószínűleg az RV740 felett van az pedig kb. 30%+. jelent. Az biztos ,hogy most is lesznek redundáns terültek a gpu-ban amikre most valszeg nagy szükség lesz.

Komolyabb javulást az őszre ígért a TSMC de ezt már párszor hallottuk tőlük mostanában. ;]

A semmi az a valami, ami azáltal van, hogy nincs.

(#987) janos666 válasza tzsolesz (#985) üzenetére


janos666
nagyúr

Ha 3x akkora terültet foglal el ugyan azon a korongon, attól még csak 3x-osára nő a statisztikai selejt arány. Ha összevetjük azzal a feltevéssel, hogy 2db kis GPU lesz az egy nagy ellenfele, akkor ez feleződik, és az nv máris csak 1,5x-es hibatényezővel viseltetik AMD-hez képest (na persze csak a csúcskártyákon, mert mindkettőből lehet herélt chipes kártyát csinálni, de attól nem lesz olcsóbb, mint az egychipes a kétcsipeshez képest). És ez a 1,5x-es szorzó nem áll lineáris kapcsolatban a költségekkel, elvileg ettől kisebbnek kéne lennie, hacsak nem állnak hasonló számban a selejt, és hibátlan GPU-k.

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#988) Abu85 válasza Iron Funeral (#980) üzenetére


Abu85
HÁZIGAZDA

Ha jól tudom, akkor az Oblivion RGBE HDR-t használ, amit tényleg az X1000 széria támogatott legelőször. Tudás szempontjából erre képes lett volna a GF6-7 is, de az NV tiltotta az RGBE melletti AA, mert drasztikusan tizedelte a sebességet. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#989) tzsolesz


tzsolesz
nagyúr

Értem, tehát nem túl rózsás a helyzet. :U

(#990) Drizzt válasza keIdor (#983) üzenetére


Drizzt
nagyúr

"According to Charlie D's squad of angel moles, the chip everybody likes to call GT300, although that's not its real name, has finally taped out."

Egy szóval se mondta a Fuad, hogy GT300 lenne.

I am having fun staying poor.

(#991) tzsolesz válasza Drizzt (#990) üzenetére


tzsolesz
nagyúr

De hiszen ha végig olvasod a cikked nem is az a lényeg. ;)

A címét nézd csak meg még egyszer. (mondjuk a cikket így többen megtalálják a világhálón :D )

(#992) keIdor válasza Drizzt (#990) üzenetére


keIdor
titán

Next-generation-nak kellett volna hívni egyből, nem kavarni a szart... de Fuadtól mi mást várhatunk? :B

¡GLORIA A LAS PLAGAS!

(#993) Med1on


Med1on
aktív tag

A GT300/Fermi specifikációit nem tudjuk biztosra (még a nevét se) de a jó hír, hogy David Kirk elmondta milyen grafikus kártyára számíthatunk tőlük 2015-ben.

"In 2015, the 11nm-generation will have 5,000 floating point arithmetic cores, a performance of 20TFLOPS per chip with an operating frequency of 3GHz, and a memory bandwidth of 1.2TB/s."

:DD

A semmi az a valami, ami azáltal van, hogy nincs.

(#994) Abu85 válasza Med1on (#993) üzenetére


Abu85
HÁZIGAZDA

Okos stratégia. :) Ahogy olvastam már több elemzőnek leesett, hogy az NV nem tud már semmit alakítani a GPU piacon. Kis tűzoltás lesz ez, hogy az NV komolyan gondolja még mindig a GPU fejlesztést. Valószínűleg ezért is ez a hosszútávú jóslás. :U

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#995) Iron Funeral válasza Med1on (#993) üzenetére


Iron Funeral
őstag

Ő, ez a kedves úriember arra gondolt jól értem, hogy 5000sp lesz a chipben? :Y
elég merésznek tűnik mostantól, bár 5 -6 év alatt végül is lehet ekkora fejlődés

[ Szerkesztve ]

Which Twilight do you like the most? Twilight of The Thunder God! /,,/

(#996) Med1on válasza Iron Funeral (#995) üzenetére


Med1on
aktív tag

Jól gondolod így számolnak 2015-re.

A semmi az a valami, ami azáltal van, hogy nincs.

(#997) janos666 válasza Med1on (#996) üzenetére


janos666
nagyúr

Furcsa, kicsit olyan ez, mint ha Gef6 időszakban mostanra 512 pixel, és 128 vertex futószalagot jósoltak volna elő. Ha le akarnak nyűgözni, valami ahhoz hasonló újítást ígérjenek 2015-re, mint a G80 volt. :))

[ Szerkesztve ]

TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

(#998) Abu85 válasza Iron Funeral (#995) üzenetére


Abu85
HÁZIGAZDA

Nem vagyok benne biztos, hogy 2015-ben ez az "5000 shader" proci a helyes irány. A Larrabee-féle felépítés tűnik a jó elgondolásnak, ilyen távlatban.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#999) biggamer


biggamer
veterán

NVIDIA: 11 nm-es, 5000 darab stream processzorral rendelkező GPU-k 2015-re : [link]

[ Szerkesztve ]

Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN

(#1000) Laraxior válasza biggamer (#999) üzenetére


Laraxior
titán

write only? :W egy egész oldal óta erről megy a vaker... :(((

"Mi a hazugság ára? A legnagyobb veszély nem az, hogy elhisszük, hanem az, hogy ha rendszeresen hazugságokat hallunk, akkor már egyáltalán fel sem ismerjük az igazságot. S akkor mit tehetünk? Mi mást tehetnénk, hogy lemondunk még a valóságnak a reményéről is és egyszerűen beérjük történetekkel."

Copyright © 2000-2024 PROHARDVER Informatikai Kft.