- sziku69: Fűzzük össze a szavakat :)
- SzőkeKapitán: Világ vége túlélők topicja
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- gban: Ingyen kellene, de tegnapra
- KRTLPC: Ki és hogyan élt túl? Volt ám fennakadás
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Meggyi001: Anya, tudsz segíteni a matekban?....Nem érek rá kisfiam, majd segít a ChatGPT...
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- Jack Hunter: Kínai erősítő vásárlási tippek
-
LOGOUT
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
janos666
nagyúr
válasz
h.adam.92 #1196 üzenetére
Hát ja, VGA terén nem kicsit vagy lemaradva.
Ha már eddig vártál, várd meg mindkét gyártó DX11-eseit, az ördög nem alszik.
(Bár úgy sejtem, ez most átmeneti pótkártya, mint nekem is az, ami épp van.)(#1197) VinoRosso - Hány átlagos pistike tudja, mikor VGA-t vesz, hogy neki milyen DirectX featurek kellenek? Ha azt mondják neki, netán látja ő maga tesztekben, hogy gyors, akkor kell neki, ha nem, nem. Szerintem nagyon kevesen vásárolnak VGA-t DX verzió szerint, és felük ugyan úgy meg is járja, mint akiről azt hitte, hogy rossz lóra tesz. (2900XT vs 8800GTS). Én is megbántam, hogy 4870-est vettem GTX260 helyett, már seholsem volt a 4870-ese, mire DX 10.1-et látatnék. (Épp Stormrise időszakban cseréltem 4870x2-re, de az hiba volt - bár nem azért, mert GTX295 kellett volna, dehogy, csak önmagában volt hiba...)
-
VinoRosso
veterán
válasz
janos666 #1195 üzenetére
Szurintem se hazudnak csak hülyék, windowws platformon kvázi minden játék dx-et használ, így szinte midnen attól függ, hogy mikrofosék mikor púzzák el magukat. Amikor ez megtörténik, akkor odaáll a sok éhenkórász, és megpróbálja vitorlába fogni a szelet, hátha lendít egyet a hajójukon. Nyilván mindenki únja a bűzt, de nem sokan voltak olyanok, akik próbáltak fordított utat járni, széllel szembe hugyozni meg ilyenek. Az nv most éppen ezt csinálta, és egy kicist azt hiszem ezután a kijelentés után vizes lesz a gatyája, mert minden dx11-es kártyát a dx11 fog eladni. Persze ha ők mondjuk a nem dx-es VGA piacra gondoltak, ott nyilván nem fogja feltolni a dx11 a keresletet mert semmi köze azokhoz az eladásokhoz.
-
h.adam.92
őstag
fuu én addig tuti nem várok(várnék)
igazából vacillálok h nvidia v ati dx11-em legyen-e, de mindenesetre megvárom amig kijön az nvidia dx11-ese és gyorsan megveszem a jobbat.
még mielőtt mondanák h "3 hónap és kijön egy tuningolt verzió 500csilliárd shaderrel több és 4234mhz-el nagyobb GPU órajellel és "csak" 20k-val les drágább, de odaver mindent!"
ugyhogy én igyekezni fogok, ahogy csak tudok -
janos666
nagyúr
válasz
VinoRosso #1194 üzenetére
Szerintem nem hazudnak, ha azt mondják, nem a DX11 adja el a kártyákat. Az hype lesz, hogy vegyél újat, mert az új játékok szarul futnak a régin. Az mindegy, hogy DirectX vagy AponX, netán PissiX, az a programozóknak szól, neked csak az FPS táblázatokat kell nézni, persze szelektálva, nehogy az elenyésző számú szélsőséges esetekből (Stormrise) vond le a konklúziódat.
-
Bici
félisten
válasz
janos666 #1191 üzenetére
Értem a logikádat, de én azért emlegettem az rv790-et, mert mire jön a gt300, addigra jöhet akár egy rv890-es is.
A gt300 feszeivel kapcsolatban meg nekem logikusabb az a gondolatmenet, hogy pont a nagy szórás, és az erős konkurencia miatt lesznek kénytelenek nagyobb alapfeszt megállapítani, hogy a rosszabb példányok is menjenek egy adott órajelen. Így a jobb példányokban (amik mennének kisebb fesszel is) több tuning marad. -
janos666
nagyúr
A 90-est lehet, de a 70-est nem, ez csak a több, mint fél évnyi továbboptimalizálás eredménye, érdemesebb az Rv770-ből kiindulni az Rv870-hez, mint az Rv790-ből. (Bár 1Ghz-hez magasabb fesz kellett több OC-s 70-esnek is, mint a refeknek, csak bírta a 70-es hűtője, mert kevesebbet evett az új chip azonos feszen és órajelen)
Szerintem ha már ilyen ráérősen csinálgatták a kártyákat, és ilyen magas a TDP, akkor igencsak a lehető legmagasabb értéket lőtték be a referenciához, ami nem bírta, az mehetett 5850-nek. Ugyan úgy ki lesz facsarva minden a 70-esen, mint tavaj nyáron.
Ha pedig kemény kezdés lesz a GT300-nál a sok gyenge chip miatt, akkor ott várható a kevésbé kifacsart referenciaórajel (a nagyobb szórás miatt nagyobb biztonságot hagynak rá). És persze a tuningra nincs garancia, de ilyenkor jobb eséllyel maradnak bent a tuningos lapkák, főleg miután rendeződik a sorozatgyártás, de nem jön azonnal gyárilag emelt órajeles széria. -
Bici
félisten
válasz
janos666 #1188 üzenetére
Az is fontos tényező, hogy most egy köhögős 40nm-es eljárásról beszélünk, ami a nagy csipeknek eleve nem kedvez, és az AMD már valamivel nagyobb tapasztalattal rendelkezik ez ügyben, és állítólag kedvezményt is kap a TSMC-től, ami kevésbé teszi szükségessé az rv870 felülfeszelését, mert se versenytárs, se túl nagy gyártási költségek.
Egyébként az RV790-et azért elég jól lehet húzni. Persze, azt nem tudom, hogy a GTX285 hogy áll tuningban, erről kevesebbet olvastam. -
janos666
nagyúr
Nem rémlik, de a Geforceokban átlagosan sokkal több tuning szokott maradni, mint a radeonokban. Rv770~5-8%, G80~15-20%, G92~20-25%+
Szerintem az Rv870-et is addig tolták a 70-esen, ameddig csak lehetett, sokkal tovább pedig nem szoktak menni az ES chipek se, inkább a retailok a fickósabbak manapság, nameg ha léggel hűtik, akkor nem lehet szénnéfeszelni se, és nem nem nagyon van miből leválogatni a legjobbakat, mert azok már eleve a legobbak, amik egyáltalán hibátlanul futnak valami elfogadható órajelen. -
Bici
félisten
válasz
janos666 #1186 üzenetére
Kérdés, hogy az mennyire lenne reális demonstráció.
Kiválogatnak valami jó példányt, ami 300W-os fogyasztással, de megy olyan frekin, ami odaver az 5870-nek, de a rossz kihozatal miatt a gyakorlatban csak alacsonyabb órajellel fogják kiadni a kártyát.
Csinált már ilyet az nv régebben is, legalábbis emlékszem valami variálásra a memória sebességgel. -
Bici
félisten
válasz
janos666 #1182 üzenetére
Oks, én nem értek hozzá, csak leírtam, amit olvastam. Valszeg nem is teljesen igaz, és csak szenzációhajhászás folyik.
tome.jr: Én is drukkolok, hogy a méretéhez képest is versenyképes legyen az új nV cucc, mert tavasszal, vagy nyár elején jó olcsón akarok venni izom VGA-t.
-
janos666
nagyúr
Nekem ez nem mond semmit. A próbagyártás arra való, hogy élesben bukjanak ki a hibák, amik a tervasztalon elkerülték a mérnökök figyelmét. Akár olyan is lehetne még most, hogy egy sem jó, lehet hogy egy ember 2 perc alatt kijavítja azt a farkashibát, és 0-ból 20% lesz, még 1 hét munka több emberrel az apróbb rejtett bakikon, és 40...
-
ashot
tag
egykis hir:
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #1174 üzenetére
Kb. az a helyzet ami az RV740 esetében. Nagyon keveset gyártanak. Persze az NV ezt ügyesen oldotta meg, és csak az OEM-eknek érhető el a cucc. A GT218 a napokban debütált ténylegesen. Gyakrolatilag beindult a tömeggyártás. Októberben követi ezt a GT216, és december elején a GT218.
-
Devid_81
félisten
Ki tudja miert kesik az a GT300...lehet lesznek pislogasok ha kijon
-
Bluegene
addikt
elégtelen, reméljük javul
végülis Nv-nek az se olyan hatalmas gond ha elveszítik a koronát, erős/jó a márkaneve max nem csúcskártyákat, de mid/low-end és notikba való kártyákat készíthet, no meg a tegrát(mobiltelefnok, GPS-ek, Autóipar, professzionális kártyák) szal elterjeszkednek másfelé
szal most ez nem olyan nagy katasztrófa, persze bukás, de nem végzetes
lehetséges a high-endbe egy jó ideig csak atit lehet venni? az is lehet X2 nem is lesz, hisz túlságosan forró+nem lenne ellenfele, CF-et meg építhet bárki
sztem karácsony előtt felejtsétek el a GT300-at, vagy akkor is csak korlátozott számban lesz
mire kiizzadják magukból lesz tavasz isemlékezzünk a sikeres G80 és sikertelen R600 viszonyára, akkor majdnem félévet késett az Ati, talán most az Nv jár így a különböző gondok miatt(az is lehet a GT300 nemcsak drágbb, hanem lassabb is, azért az durva, akkor tényleg nehéz szülés lesz, hisz a motiváció a béka segge alatt a dolgozók körében)
-
Bici
félisten
Oliverda betette az ATi-s témába, akkor én beteszem ide.
-
VinoRosso
veterán
válasz
Bj Brooklyn #1164 üzenetére
The energy consumption of this card in the peak was about 22 W, and in the simple regime approximately 9 W
Úgy látszik az NV csak szélsőségekben tud gondolkozni
-
Bj Brooklyn
aktív tag
Itt az Nvidia Geforce G210 az új generáció első "fecskéje" ! Ez egy belépőszintű VGA, szóval úgy kezeljétek
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #1162 üzenetére
Hivatalosan megjelent a GT215, csak a mérete miatt nem tudnak belőle sokat gyártani, így a tömegtermelés decemberben indul/indulhat be. Addig csak korlátozott számban érhető el a fő OEM notebookgyártóknak.
-
Abu85
HÁZIGAZDA
Most nézem, hogy ebben vannak újak is.
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"Érdekös. Nem tudom hova rakni. Ki sem jött a GT215, de máris újítás, rosszabb esetben átnevezés lesz.
A 190-ből kiindulva ezek a DX10.1-es lapkák.
-
emmm
őstag
-
-
janos666
nagyúr
válasz
Bj Brooklyn #1149 üzenetére
AMD-nél van 3 dátum, és igazából senki sem tudja pontosan ki mikor mit fog tudni (csak újságírók, vagy már a nyilvánosság, bejelentés, tesztek, árusítás, stb...)
nVidia esetében igazából csak annyit tudunk, hogy páran azt állítják lesz valami 10.-én, ha már az AMD-nél is lesz valami, de ezt nem ők mondták, sőt tagadták (persze attól még lehet igaz).
De itt 10.-én, vagy akár 23.-án is csak demózás lehet, vagyis talán lehet fényképezgetni az ES kártyákat (bár nem valószinű, ha még nem végleges a kinézet), és talán indítanak rajtuk techdemókat (ha még az órajel sem végleges, akkor valószínűleg más kártyákkal összevethető benchmark nem nagyon lesz), de boltokba még nemigen kerül egy jó darabig. -
syC
addikt
Srácok, akkor szeptember 10-én láncs?
-
VinoRosso
veterán
válasz
janos666 #1140 üzenetére
Hiányzó driver esetén (ha jól emlékszem) mindenre 0 Mhz-et/unknown-t ír, mint egy süket vak néma. Ugynaz a szindróma mint riva-val, amikor nincs, vagy nem ismeri a drivert. Pl.:
Állatorvosi ló:
- lehet látni, hogy a devicc idét siekrült kiszopálnia drivertől, meg a default órajelet, sztinte mindent amit úgy általában egy driver interfészén keresztül le lehet kérni a BIOS-ból. Minden más, ami be van drótozva(vagy valamiért nem sikerült lekérnie) az ánnón vagy zíró. Ezeket lehet átfirkálni ha akarod. Aaz órajelekből ill a ram méretéből ítélve ez egy G92-es GTS, a 169-es driverből meg rájön az ember, hogy valszeg még a G92 megjelenése előtt adták ki, ezért hiányoznak a dolgok.
tlac: Ez most beugratós kérdés? Nem HW<<>>Driver közti rétegől papoltam hanem Driver<<>>App közti rétegről. Ha ezt babrálod, azzal meg lehet csinálni, hogy az alkalmazások annak lássák(eméletileg, meg szerintem gyarkolatilag is, de konkrétumot ne kérdezz, mert nem csináltam ilyet). Pont ezért változattak a WDM-en NT6-nál, mert ezt egy csomó malware( leginkább rootkitek ) kihasználta. Bár sokra nem mentek vele, mert még a Vista megjelnése előtt a bluepill-el sikerült aláíratlan drivert is installálni NT6-ra, szal annyit ért mint halottanak a csók.
-
janos666
nagyúr
válasz
VinoRosso #1139 üzenetére
Hmm. Ez így érdekes. Mondjuk én is lusta vagyok átírni a z inf-et, és a laptopomra így telepítem fel a desktop VGA-khoz szánt forceware-t, hogy kiválasztom a nem mobil 8600GT-t. De azt még nem figyeltem, hogy ekkor a GPU-Z is bedől már ennek is. Sőt, azt viszont tudom, hogy később az nvidia control panel már rendesen fogja kiírni a kártya nevét ilyen esetben is. (A 3DMark féle system analysis megint más, de a RivaTuner is ki tudja neked hámozni a VGA BIOS-ból az adatokat, akármilyen driverrel, vagy driver nélkül.)
Ez is érdekes, hogy elsőre átverődik a GPU-Z, mert ha nem telepítesz fel hozzá semmi drivert, csak az alap Vista/Win7 onbox "Standard Graphic Adapter"-ként jelenik meg az eszközkezelőben, akkor is fel szokta ismerni a GPU-Z (persze nem az órajeleket, de a chip tipusát, és a kártya nevét igen, mint imént mondtam, olyan kártyáit is felismer, amihez nem is létezik az OS-hez telepíthető driver ->ősrégi S3 VGA, amihez esélytelen bármi 64-bites OS-re szánt driver...).
-
VinoRosso
veterán
válasz
janos666 #1131 üzenetére
Nem kell BIOS mod ahhoz, hogy átverd a GPU-Z-t. Sőt még .inf-et sem kell átírni sem semmi mást. Egyszerű hardver telepítése varázsló elég, legördülő listából kiválasztasz egy előre konfigurált drivert(amelyik szimpatikus) és felrántod. Innéttől kezdve a GPU-Z azt látja amit felraktaál, tökmindegy milyen vas van a gépben. Olyannira semmi de semmi köze nincs a BIOS-hoz, hogy még az alap órajelek sem stimmelnek tehát ha mondjuk 8600GT-d van és 8600GTS-nek látja a progi, akkor az eslő fülön a 8600 GTS órajelei jelennek meg. Nem akarom bizonygatni, mert mi a túrónak magyarázzam, aki nem hiszi majd utánajár. Ennél sokal alattomosabb dolgokat is lehet művelni driver hackkel, én azóta nem trémárkolok mióta ezeket megtudtam. Nem tudom, hogy milyen drivert nem tud egyébként betölteni a GPU-Z, de ennek is utánajárhat aki akar, leszedi a drivert( én nem akartam ezzek szarozni), aztán elindítja és megnézi, hogy mit ír ki, szép kerek számokat fog látni.
Ami magyarázatot ad ezekre, ahhoz nem kell éjjel nappal a fórumokat bújnod, alap dolog, hogy az OS-t azért készítik, hogy szegény alkalmazásfejlesztő válláról levegyen egy csomó terhet. Vannak a szolgáltatások, és az alkalmazói programok ezeket használják, a GPU-Z pl a driver szolgáltatásait, ha itt belepiszkálsz a dolgokba, akkor bármilyen programot át lehet veni, mert közvetlenül semmi sem buzerálja a vga-t.
-
janos666
nagyúr
Mindegy, mert te is épp erről a témáról beszéltél, de igen, inkább neki.
tlac - Ja, az úgy már valóban más, ha a grub csak programot indít, de belefér a felsorolásszintű listába, mint "grubbal, stb.", mert ahhoz köthető, még ha azon túl kell hozzá más is, vagy mással is el lehetne indítani azt a programot, csak ezzel szokás...
Ha úgy vesszük, akkor a RivaTuner sem képes túl sokra, csak a plugin-jai, és a drivere... -
tlac
nagyúr
válasz
janos666 #1135 üzenetére
a sima grubban tudtommal nincs lehetőség az acpi táblák módosítására
a grub2-ben a dsdt táblát lehet piszkálni (itt van az x58-as sli kulcs is)
a vista hackhez meg azt hiszem az slic tábla kellaz lehetséges, hogy vannak módosított grub-ok is, amik több mindent tudnak
de inkább az van, amit már az előbb is írtam, hogy a grub4dos indít el egy programot, ami módosítja a biost és ezután indul a win
(de az új aktivátorokhoz szerintem már grub sem kell) -
janos666
nagyúr
Én is a Vista/Win7 loaderből indultam ki, mert az is az alaplapi BIOS lekérdezésbe szól bele, és úgy láttatja, mint ha benne lenne az OEM Vista/Win7 kulcs.
És korábban láttam már más hasonló trükköket grubbal, azt hiszem te is foglalkoztál ezzel egy időben x48-SLI kapcsán. Szerintem a lehetőségei ilyen téren majdnem "határtalanok", csak esetleg még a profi hackerek sem jönnek rá mindenre, és amúgy is van, amit egyszerűbb mással megoldani. -
janos666
nagyúr
Én már saját magam is csináltam olyat, hogy az INF-ben neveztem át a kártyát, és olyat is, hogy a BIOS-ban írtam át a DeviceID-t.
Előbbi semmire sem jó, csak a Windows eszközkezelőben megjelenő terméknév lesz egyedi.
Utóbbi átver mindent, még a drivert is, és a GPU-Z-t is. Ezt nem tagadtam.
Csak azt mondtam, hogy még ha át is írjuk a DeviceID-t (ha nem BIOS-ban, akkor grub-bal, vagy RivaTuner-rel a memóriában bootoláskor, vagy bárhogy...), akkor is felisjmerhető marad(na) chip, mert attól még az egy G80-as BIOS marad, ha G92-es terméknek tünteti fel. Azt is mondtam, hogy ezt persze egyetlen neten lévő program sem fogja így levadászni. Főleg nem a GPU-Z.Szóval, Abu is tévedett, és Te is, csak neked címeztem, mert neked volt nagyobb a....
De nézzük tovább. Csökkentett módban a GPU-Z drivere az, ami nem tud betöltődni! (Ez kéri le a VGA BIOS-t, amiben a DevoceID-t keresi.)
Ha beraksz Vista alatt egy 10 éves PCI-os VGA-t, amihez foltokban sincs 64-bites Vista driver, még XP-s se, csak max NT-re, és csak "Standard Graphich Adapter" lesz a Vista számára, a GPU-Z akkor is szépen ki tudja írkálni hogy pl. S3 Virge 4800, megmondja hogy 2Mb RAM van rajta, hány bites, stb. -
VinoRosso
veterán
válasz
janos666 #1127 üzenetére
nehogy már ennyire ne vágjátok, hogy hogyan néz ki egy OS ??? Mi a tökömet hív már a GPU-Z, hogy megkapja egy kártya adatait? Nézd már meg mire megy a GPU-Z, vagy bármelyik másik program driver nélkül
Te magad mondtad, hogy be van gyógyítva az infbe, de egyébként nem csak oda.
Viszont a meg kell követnem Abu-t, mert beugrott, h a magára chipre G200/G200b van írva.Viszont meg lehet nézni hányan hívják annak:
-
janos666
nagyúr
válasz
VinoRosso #1126 üzenetére
Vagy inkább neked nincs.
Ha a driver inf-jében írod át a terméknevet, akkor max a windows eszközkezelő fogja 9800GTX-nek kiírni (vagy akár lehet a neve "ViniRosso csúcs-VGA-ja" is...), de a driver control panele már a helyes elnevezést dobja majd.
Ha átírod a DeviceID-t a BIOS-ban, akkor van esélyed átverni a drivert, de egy diagnosztikai program szerintem még úgy is meg tudja mondani a chip tipusát, mert ugye a GPU-Z még talán a DeviceID-ből következtet (mint a driver is) mindent az előre letárolt adatokból, de az még csak a termékre vonatkozó séma. A BIOS-ban sem tudsz mindent olyan egyszerűen átírni (hex aditorral se), hisz G80-as VGA-hoz csak más G80-as VGA-k BIOS-a passzol (sőt, még az sem mindíg csereszavatos), a G92-eské nem, tehát megállapítható marad, hogy az mégis milyen chipes cucc. (persze 90%, hogy nem kering ma a neten olyan program, ami ezt megteszi, mert minek is lenne, de visszahámozható még az szoftveresen is). -
Abu85
HÁZIGAZDA
Mivel a DX11 funkcionalitása eléggé kötött, így bármilyen okos egy rendszer csak annyira lesz okos a gyakorlatban amennyire a DX11 engedi. Az emulációval teljesen programozható lesz a tesszellálás, bármilyen tesszelláló algoritmust írhatna a fejlesztő. Persze ez a mai számítási teljesítményen sebesség szempontjából töredéke lenne a fix-funkciós egységnek.
-
Bici
félisten
Okkay, csak aszittem, azóta ez már tisztázódott.
De akkor az már legalább tuti, hogy senki sem tud semmit. Ez is valami.Nem akarom tovább fosni a szót, de múltkor a BKV-n ülve - jobb dolgom híján - azon gondolkodtam, hogy az nV-féle mókának (hogy emulálva oldanak meg dolgokat) nincs véletlenül jó oldala is a játékokra optimalizálás szemszögéből?
Arra gondolok, hogy egy általánosabb felépítésű (GP)GPU-nál van lehetőség korrigálni a működést, és az erőforrások elosztását az odott játék igényei szerint.
Úgy, ahogy az unified shader is rugalmasabb, mint a fix shader egységek.
Vagy ez az előny elveszik az emulációból eredő veszteség miatt?Szólj, ha nagy hülyeségeket hordok össze!
-
Bici
félisten
Áhoj!
Azt végül megerősítette valami megbízhatónak látszó személy, hogy a FermiGéTé300-nak látszó kütyü a pletyiknek megfelelően "cGPU" lesz-e, azaz (?) MIMD tömböket (is) fog tartalmazni?
És ha igen, akkor ez mit és hogyan befolyásol? (Régebben írta valaki, de nem találom a hsz-t.)
Köcce!
-
Abu85
HÁZIGAZDA
[link] - nVidia schedules an event on the same day as ATI's Evergreen launch?
Attól, hogy linkeltem nem jelenti azt, hogy igaz is.
Az NV nem tudja, honnan szedi Theo a marhaságait, de nem terveznek szeptember 10-ére semmit. Persze lehet, hogy pont ők ferdítenek és Theo mond igazat? Na majd a jövőhéten kiderül.Szerk.: [link] - nVidia to show off its own DX11 hardware on September 10th - már ők is kezdik.
-
janos666
nagyúr
De jót fogok röhögni, ha monduk MM-30 (Magic Mushroom) néven adják ki, és akkor se nem Fermi, se nem GT-300. Mit kell ezen folyton lovagolni?
GT-300 = A nextgen nv chip azon neve, amiről a legtöbbek ismerik, és továbbvitele megkönnyíti a szélesebb körű konzisztens értelmezést (elég közel van már, hogy ne vigyék be a köztudatba, hogy Fermi lesz a neve, de ugyan erről regéltünk már fél éve más néven...) -
hugo chávez
aktív tag
Nvidia to demo GT300 in late September [link] (Gondoltam, ha már az Ati-s fórumban kint van, akkor itt is legyen meg.)
-
janos666
nagyúr
válasz
leviske #1106 üzenetére
OpenGL - Open Grapchic Layer - Nyílt Grafilkus réteg (nyelv/felület)
OpenCL - Open Computing Layer - Nyílt Programozási réteg (nyelv/felület)
OpenAL - Open Audio Layer - Nyílt Audio (programozási) réteg
ComputeShader - MS által birtokolt, zárt DirecX-en belüli programozási réteg, vagy inkább itt a nyelv szót használnám, mert maga a HAL (hardware acceleration layer) az a DX (és WDDM) marad.
(Nem tudom, a layer ki mikor hogy szereti fordítani.)Ezek mind arra jók, hogy egy program hozzáférjen a hardware-hez, és számoltassa. Ezen belül már befogható az x86_64-es CPU, ARM proci, GPGPU, vagy ami tetszik (persze, ha maga a rendszer ismeri, és támogatja, és/vagy a hardware tuja azt, amit elvárnak tőle adott feladathoz).
A CPU-t az OS-en át is el lehet érni, de az ilyen-olyan bővítőkártyán ücsörgő chipeket nem, azokhoz kell egy külön HAL, (példának tettem be az OpenAL-t, ahol egy hangkártyán ülő EMU vagy X-fi chip is dolgozik a CPU helyett, számolja a 3D-as hanzást) és valami olyan programozási nyelvet támogató rendszer, amit ismer a célhardware (köztes fordítók, stb, az már nem tudom mi hogy mennyire oldható meg, de pldául nyilvánvaló, hogy egy X-fi nem fog neked fizikát és AI-t számolni a játékhoz, pedig elméletben akár besegíthetne fél FPS-t, mikor nincsenek hangefektek, csakhát, na...)
Az szinte biztos, hogy DX11-el senki sem fog Compute Shaderre software renderert írni, hisz egyszerűbbnek tűnik ShaderModell 5-el dolgozni, azért is van, de ekkor már bennragadtunk a Windowsban.
Az OpenCL még messze van, a CUDA már ma itt lehetne az otthonunkban, ha pl az ATI-t nem felvásárolják, hanem tönkremegy. Most lehet, hogy még mindíg G92-esekkel ücsörögnénk, és várnánk a GT200-at, nem azt mondom, hogy ilyen vonatkozásokban is jó lenne a monopólium, csak azt akartam szemléltetni, hogy elég sok idő telt el G80 óta, és a CUDA elég jó ahhoz, hogy monopol pozícióban lenyomja a fejlesztők torkán az nv. Ma lennének mondjuk többségben DX9-es és mai DX10(.1) mennyiségben CUDA-s játékok. Később (illetve ebben az alternatív jövőben akár minél korábban) pedig beállhatna az Intel (de akár az AMD is ATI nélkül), és újra lenne verseny a hardwarek terén is...
Az a baj, hogy ha hihetünk a meséknek, akkor az AMD és az Intel minél hamarabb ki akarja nyírni a GPU-kat.
Tehát előbb utóbb mindenképp visszatér a software rendering, csak épp szebb, és izgalmasabb lett volna, ha mondjuk már most, a GPGPU-k idején visszaáll, és továbbra is használunk hardware-es gyorsítókat, nem lenne űr a kettő közt, hogy most még GPU, aztán csak CPU, de mikor áll át, mi legyen addig a gépben...?Mire befutna az OpenCL ilyen szinte, mint ahol a CUDA már ma lehetne, addigra nem is lesz rá szükség.
Persze, szállingózhatnak felhasználói programok OpenCL-el, GPGPU gyorsítással, de közel sem olyan szinten, mint ha már az utóbbi 1-2 évben dobták volna a DirectX-et, mint a szórakoztató és akár professzionális programok megjelenítési felületét, elterjedtebbé vált volna valami olyasmi, mint a CUDA (egy korábban megkezdett OpenCL is lehetett volna), és egységesebbé vált volna a GPGPU gyorsítók alkalmazása.
A DirectX-el meg ugye az az érdekes, hogy nélküle majdnem egyenrangúvá válhatna a Linux is az otthoni szórakoztatóelektronika területén. Továbbá ugye ha nehezebb is lenne mondjuk CUDA alatti software renderert írni, mint ShaderModellest, de ezek jobbak is lehetnének. Sokan úgy is inkább licenselnek egy kész enginet, és legfeljebb a végletekig átszabják, mire játék lesz belőle, nem maguk írnak egyet az alapoktól. És ez nem is gond, lenne 3-4 engine, amit licenselnek a kisebb studiók, és esetleg marcangolnak még a kódon (nem lenne az nagy változás).
Na meg, hát CUDA általi világuralom... Persze.
Te például tudom, hogy unásig ismered már az anekdótáimat arról, hogy Geforce FX óta minden szar a levesben, az MS kavarása a DirectX-ekkel.
A CUDA zárt, de a DirectX is, és igaz, hogy függetlenebb, mert az MS nem gyárt GPU-kat, vagy CPU-kat. DE! Az MS-t senki sem tudja megszorongatni, még mondjuk egy Intel se nagyon, és egyéb piaci érdekek, távlati tervek miatt nagyon is lehet elfogult egyes VGA gyártókkal szemben (kedvenc példám okán, a "ki mennyiért is csinál nekem chipet az Xboxhoz? Na, ki akar beszélni? Megbaszlad a DX hátán!").
Ellenben egy nVidia-t igen is meg tudna szorongatni egy Intel, ha mahinálna a CUDA-val...Kezd kirajzolódni valami kép, ami ugyan zöld árnyak közt lebeg, de nem is olyan fájdalmas, mint a vörös vérontás?
Ezek mind az én laikus meglátásaim, ne tessék teljes mértékben tényként kezelni.
-
leviske
veterán
válasz
janos666 #1099 üzenetére
Az OpenCl jobb esélyekkel indul, mint az OpenGL. Már csak azért is, mert nagyobb körülötte a felhajtás, mint a Compute Shader körül...
Más kérdés viszont, hogy a Khronosnak érdeke lesz-e jobban figyelembe venni a játékfejlesztőket, vagy az OpenCL is arra a pályára fut-e (tud-e egyáltalán arra a pályára futni), mint az OpenGL.
Valaki jobban hozzáértő meg fejtse már nekem ki, hogy mi a franc is ez az OpenCL és Compute Shader? Az eddigi diskurzus alapján arra tippelnék, hogy ezek lesznek játékok terén (esetleg nem csak ott) a DirectX és az OpenGL utódai. Jól gondolom, vagy nagyon összekavarodtam?
A Compute Shader kapcsán rémlik, hogy a shadereket tudják majd a szoftverfejlesztők minden jóság számolására befogni. Ideáig akkor elvileg értem... Akkor végülis az OpenCL (vagy társai közül az egyik, bár feltételezem, hogy itt az API-k közt nem lesz akkora különbség, így mindenki az open-t fogja választani) hozza el a szoftver rendert? Ezzel ekkor végül eljön az OS semleges játékok kora, vagy ennyi azért még nem elég az örömhöz?
-
hugo chávez
aktív tag
Ja, tudom, de azért raktam utána kérdőjelet, hogy vajon lesz e olyan frankó mindkét (három) gyártó hardverén, mint a Cuda az Nv cuccain. Mert hát ugye jelenleg az egyetlen normális gpgpu platform a Cuda. (és elhiszem, hogy az ilyet házon belül, optimalizálással sokkal könnyebb összehozni, de itt, mármint a compute shader-nél és az opencl-nél épp az lenne a lényeg, hogy mindegyik gyártó vasain jól menjen)
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #1100 üzenetére
A Microsoft csinálja a Compute shadert ami a DX11 része lesz. Ugyanarra jó, amire az OpenCL.
-
hugo chávez
aktív tag
válasz
hugo chávez #1100 üzenetére
Vagyis: a Microsoft nem beállna, hanem magáévá tenné.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- sziku69: Fűzzük össze a szavakat :)
- Steam Deck
- PlayStation 5
- Nintendo Switch 2
- Íme a Battlefield 6 első előzetese
- SzőkeKapitán: Világ vége túlélők topicja
- Mérlegeli a csúcstechnológiás chipgyártásból való kilépést is az Intel
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- Vicces képek
- További aktív témák...
- Dell latitude, precision, xps, magyar világítós billentyűzetek eladóak
- Bomba Ár! Dell Latitude 3190 - Intel N4120 I 4GB I 64GB SSD I 11,6" HD I Cam I W11 I Garancia!
- ÁRCSÖKKENTÉS ASUS HD6870 videókártya
- ÚJ Microsoft Surface Laptop 7 13.8" 2K - 120Hz Érintő - Snapdragon X Elite - 16GB - 512GB-2 év gari
- Bomba ár! Dell Latitude 5480 - i5-6GEN I 8GB I 500GB I 14" HD I Cam I W10 I Garancia!