nem számolva a CPU-k teljesítményével, ha INT4-ben mérnénk az 1.5exa(fl)ops-t, akkor 12500 Vega20 kellene.
De itt két helyen is exaflops-t írnak. Csak nem tévesztik el? az INT4, meg INT8 számítási kapacitást tops-ban, vagy teraops-ban szokták megadni. nem?
FP16-tal számolva 50000 Vega 20-at kellene beépíteni, FP
a 2018-as toplistás supercomputerben 27,648 NVIDIA Volta V100s van, tehát ez az 50000 annyira nem hangzik soknak akkorra.
Kicsit azért olcsó lenne INT4-es vagy INT8-as számmal dobálózni, még akkor is, ha a célterület az AI.
De még ha úgy is van, és ez lesz a leggyorsabb supercomputer, akkor is érdekes és izgalmas lehet majd élőben látni, hogy hogy teljesít a ROCm. Azt gondolnám, hogy ha beválik, akkor az sok hasonló PR megrendelést hozhat.
Találgatunk, aztán majd úgyis kiderül..