Hirdetés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    válasz FeriPRO #1296 üzenetére

    Hány százalékát teszik ki a profitnak a high-end, és hány százalékát a midrange, valamint low-end kártyák eladásai? Előbbi hasraütésből saccolt számokkal szerintem olyan 10 alatt van, aztán 40-40%?

    Tudtommal a VGA-n csak egy EPROM BIOS chip van, amit szokás szerint teljes törlés, és újraírás útján lehet cserélgetni (BIOS flash). Én sohasem láttam még flasheléssel kapcsolatos fileokat a driverben. A laptopomra is telepítettem már 185.xx drivert, ott se láttam ilyet (persze lehet hogy csak újabb Gef9-esekhez van ilyen drivercserével egybekötött BIOS update, ha létezik ilyen, és el van rejtve az nvflash, meg a képfileok egy xdf.sd_ fileba...).

    Én úgy tudom, a CUDA a windows WDDM/XPDM driver alatt áll, tehát nem olyannyira közvetlen hardwares címzésű, hogy még a windows driver modellt is megkerülné, szerintem a hardware semmit sem tud arról, mi az, hogy CUDA. Ez is olyan, mint a DirectX, az OpenGL, OpenCL, OpenAL, csak egy HAL, amin keresztül a program eléri a hardware-t egy magadott programozói környezetben, de a windows driveren keresztül operál az eszközzel (vagy linux driveren, mielőtt kötözködne valaki...). Úgy tudom, a VGA azt se tudja, hogy ő DX 10-es, csak a GPU megfelel a DX 10 kritériumoknak, a driver pedig DX 10-et ad meg hozzá a windowsnak DDI verzióhoz. Ugyan így vannak OpenGL 3.0 kompatibilis VGA-ink, pedig még csak 2.1-es OpenGL volt kint mikor ezeket vettük, és nem kellett BIOS-t flashelni hozzá, csak drivert frissíteni.

    Előző nyáron járt nálam egy DDR3-as 8500GT, 4x 1.1-es foglalatban (ICH9R vezérlőbe drótozva P35-ös lapon). Szerintem inkább a GPU volt kevés, mintsem a foglalat, de végeredményben nem bizonyult elégnek, a warmonger mondjuk szépen ment és a Vantage is sok pontot adott a CPU tesztre, de az UT3 Physx mappack lagolgatott komolyabb effektek alatt, a nurien benchmark is szaggatott, meg nem rémlik mit próbáltam még amihez kevés volt. A nemrég belinkelt Mirrors Edge teszt alapján a 8600GT is épp csak hogy elég hogy simán fusson, de elfér oda egy 9600GT is, ha tényleg biztosra akarunk menni. (és 60 FPS-re hajtunk minden játékban, nem csak játszható akárhányra ami "csak néha lassul meg, amúgy jó" kategória...)

    Szerintem tedd fel újra, visszapörgettem, de nem találtam mire keresed a választ. (Így talán másnak se tűnik már fel) :))

    Mondjuk a 4x slot elég-e kérdéshez is ellenkezően állok hozzá, mint te. Amikor renderel a kártya megy odafelé az infó a CPU-tól, a GPU számol, kiírja a RAM-ba, a DAC meg kirajzolja a monitorra (vagy kiküldi a DVI-re). Ellenben itt megy a számítanivaló, a GPU számol, beírja az eredményt a RAM-ba, onnan a CPU kiolvassa, összerakja a végeredményt, és elküldi a másik kártyának, hogy mit kell renderelni. Tehát több adat utazik Physx-el kapcsolatban a PCI sínen át, ha külön kártyát használsz erre a célre (az alatt a kártya alatt ami fizikát számol). Persze ez az össz oda-vissza kommunikáció is eltörpülhet a rendereléshez szükséges, jórészt csak-oda kommunikációhoz képest, de ha egy 8600GT teljesítményét ki lehet aknázni vele, akkor igencsak felemészt legalább 4x-nyi sávszélt, és akár minimális javulást is hozhat helyette 8/16x még 8600GT-vel is, de 9600GT-vel főleg.

Új hozzászólás Aktív témák

Hirdetés