Az ugye megvan, hogy nem a teljes VGA fogyasztásáról beszélünk, hanem a GPU fogyasztásáról. Márpedig a GPU pontosan (bizonyos lépésközzel, más alapon mint egy multiméter, de a lényeg ugyanaz) tudja mennyi a fogyasztása és mi az aktuális TDP lépcsője.
Ez alapján állítja be az órajelet is. Folyamatosan monitorozva van a TDP, fogyasztás, hőmérséklet, terhelés GPU szinten, a magon belül. A megfelelő API-n keresztűl a programok ezt lekérhetik. Hogy miként azt a VGA BIOS/DRIVER-a mondja meg.
Ergo, ha a GPUZ ismeri az adott GPU (esetünkben NVidia) API-t, akkor monitorozni is tudja, még akkor is, ha magát az adott GPU magot (esetünkben TU116) nem.
Ha jók az elektronikai ismereteim, akkor a TDP érték egy számított érték, ami valós teljesítmény alapján (bár ugye itt változó kapacitás is van, tehát nem lehet egyszerűen számolni félvezető/kapcsolóüzemű tápellátásnál) megtippelt leadott hőteljesítmény. Azonban mivel erős arányosságban van az úgymond villamos fogyasztás és a TDP egy GPU esetében, ezért elég pontosan lehet tippelni.
A lényeg, pontosabb adatnak gondolom a GPU (nem VGA) fogyasztás kijelzését, mint a TDP értéket, amit amúgy hajlandóak a különböző gyártók eltérően kiszámolni, de ez másik story.
Számunkra azonban a TDP a lényeg, mivel a dinamikus fogyasztás szabályozással ez határozza meg a GPU tempóját programozott módon.
Emlékezzetek csak amikor az Apple elszúrt valamit és túlmelegedtek az új MacBook Pro laptopok.
(#1205) arcitec: Sajnos a Ti-t visszafogja az alacsonyabb memória órajel. Ezt megemelve (persze ez már OC) elő tud jönni egy kis előny. De itt nem is ez a lényeg, hanem az, hogy többe kerül sajnos. Vagyis játékhoz jelenleg jobb választás a Super.
[ Szerkesztve ]