Technikailag vagy pénzügyileg?
Technikailag meg lehet egyébként csinálni vele azt, hogy a program felé mondjuk két GPU egynek látszik. A driver tudja kezelni az NVLinket, és lejelentheti az erőforrást egyként. Az nagy kérdés persze, hogy a mostani alkalmazásokkal ez hogyan működne, azért hiába memóriakoherens a link, fizikailag nagyon nagy a távolság, és az az ideális, hogy még ha az erőforrás szempontjából a két GPU egyként is látszik, azért az egyik GPU ne nagyon olvasson a másik memóriájából, mert akkor az ~600 GB/s helyett ~60 GB/s. Szóval vannak itt technikai buktatók az elmélet működőképessége mellett.
Pénzügyileg meg a konnektor ára a probléma. Ez nem egy 50 dolláros fillérekért gyártható összeköttetés, hanem jelenleg bő 500 dollár az ára.
Nem számít a host processzor architektúrája. Eleve PCI Expressen kapcsolódik a hostra, ami már nem memóriakoherens interfész. A PC-s környezetben a rendszermemóriát a Volta semmiképpen sem tudná memóriakoherens elérni. A multiprocesszorokba épített címfordító a Power9 ISA-t támogatja. Ez ki is lesz kapcsolva PC-n, mert minek. Egyrészt eleve a PCI Express kiüti ezt a képességet, másrészt nem nagyon fog Power9-es hosttal találkozni. Ha HBCC-szerű fícsőrre gondolsz, akkor ahhoz pedig nem kell NVLink, de megfelelő címfordító azért nem árt hozzá. És azért számold hozzá, hogy ez a Vega 10-en is úgy működik jelenleg, hogy a HBCC nem éri el a host memóriát, hanem csak a sharedet. Igazából az NVLink és a GMI annyiban lenne több a PCIe-nél, hogy a host is elérhető lenne. Amúgy driver szinten nagyon bonyolult a menedzsment, talán megér egy cikket, hogy ez jobban érthető legyen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.