Csak azért érdekes ez a helyzet, mert másokat is érdekelne nagyon, hogy SVM hogyan működik multi-GPU környezetben, hogy miként viselkedik ekkor a memória.
Alapból az ember azt remélné, hogy hasonlóan, mint a PRT, hogy az ember lefoglal egy nagy memóriaszeletet, ami adott esetben nagyobb is lehetne a VRAM méreténél, és úgy írja/olvassa, ahogy jól esik, és amikor IO művelet van, akkor valahogy összeszedi az adatot, és a felhasználó felelőssége, hogy ne írja ugyanazt a területet egyidejűleg két device-on. (Mint ahogy ez sub-buffereknél is specifikálva van)
Ami nem riszta, hogy milyen kontroll van afelett, hogy mely szeletei mikor másolódjanak és hova? clEnqueueMigrateBuffer ugye bufferekre pont ezt a célt szolgálja, hogy az ember ne az implicit másolásoknak legyen kitéve, hanem legyen kontroll a dolgok felett, de SVM-nél erre van/lesz/nincs lehetőség? Multi-GPU feldolgozásnál egy hatékony SVM modell lehet a kulcsa mindennek.
dVGA támogatás miatt pedig legjobb esetben is ha valaki mostanság vesz fejlesztői gépet, amivel majd szeretne OpenCL 2.0-át fejleszteni, akkor egyedül az APU-ban bízhat, és talán a Hawaii-ban. Aszimmetrikus load-balance fejlesztéshez jó lenne egy Kaveri-Neptune páros notiban.
(Nem is merek belegondolni mekkora császárság lenne egy Aorus X7-szerű masina Kaverivel és CrossFire Neptune-nal. Persze CPU limites lenne minden játék és CrossFire miatt OpenCL-t is süthetném, úgyhogy csak a megalománia beszél belőlem... de azért elfogadnám )