Hirdetés

2024. április 26., péntek

Gyorskeresés

Hozzászólások

(#1) E.Kaufmann


E.Kaufmann
addikt

Helyes.

Le az elipszilonos jével, éljen a "j" !!!

(#2) sajti_pajti


sajti_pajti
tag

Azt azért elárulhatná nekem valaki, hogy ezt a gyakorlatban mire és mi módon lehet használni?

(#3) E.Kaufmann válasza sajti_pajti (#2) üzenetére


E.Kaufmann
addikt

Vannak olyan algoritmusok, pl kép és hangfelismerés, de már képtömörítés és képjavító algoritmusok is használják, amiket tanítással hoznak létre (pl sok hangminta és jelentésük páros), mely során keletkezik egy mátrix (egy táblázat) amit egy úgynevezett neurális háló (idegrendszer mintájára) dolgoz fel
A neurális hálóban több kis feldolgozó egység, neuron egymással szorosan van összekötve, amelyek működését a mátrix befolyásolja, és GPU-val jól szimulálható, mert a GPU -ban is több kis számítási egység, egyszerűbb utasításkésletű mag van és egy neuron működése egy GPU-n belül számolóegységen szimulálható. Sok kis magon meg egyszerre sok kis neuron futtatható.
Eddig is volt amúgy lehetőség GPU-t használni, de próbálják szabványosítani ezen neurális hálók szimulációját és a Google féle programozási felülethez készített a Microsoft egy fordítót, hogy ne kelljen külön a Microsoft saját API-jára is átírni egy ilyen mesterséges inteligenciát használó programot.

Le az elipszilonos jével, éljen a "j" !!!

(#4) sajti_pajti válasza E.Kaufmann (#3) üzenetére


sajti_pajti
tag

Köszi, de ezekkel, ha nem ennyire precízen is, de tisztában voltam.
A gyakorlatban a Luminr Video Enhancement AI-t próbáltam is már - de ezt ők tanították be.
A Topaz AI-val is elszórakoztam már, helyenként egész ügyes - de ez (feltételezésem szerint) megint csak a saját neurális hálóját használja....

(#5) E.Kaufmann válasza sajti_pajti (#4) üzenetére


E.Kaufmann
addikt

Itt, az a nagy szám, akik beálltak a Gugli féle API használatába, azok most jól járnak, mert Windows-on lesz rendes HW gyorsítás hozzá a Directx12/DirectML fordítónak köszönhetően.

Le az elipszilonos jével, éljen a "j" !!!

(#6) szabomihaly2 válasza sajti_pajti (#2) üzenetére


szabomihaly2
csendes tag

Gyakorlatban a fejlesztőkön kívül szerintem egyelőre senki, semmire... Legalábbis nem hallottam eddig olyan alkalmazásról, ahol (rendszeres használatra) a felhasználó gépén kellene tréningelni ML algoritmust.
Egyébként eddig ott volt AMD oldalon a ROCm, Nvidianál a CUDA erre a célra és a Tensorflow mindkettőt támogatta. Kíváncsi leszek, hogy ez a DirectML teljesítményben hoz-e bármit is, mert tudtommal a magasabb szintű kód hordozhatósága eddig sem volt olyan nagy probléma.

(#7) consono válasza szabomihaly2 (#6) üzenetére


consono
nagyúr

Igazán szerintem ezzel az MS a linuxtól próbál elcsábítani ML fejlesztőket. Mikor utoljára ilyennel foglalkoztam a CUDA+Python duó elég nyögvenyelős volt Windowson, de én csak hobbyból játszottam vele. Meg persze az is jól jön, hogy nem csak Nvidia támogatás van, főleg most, mikor a combosabb kártyák nehezen elérhetőek (ha jól tudom a DirectML nem csak Nvidia, AMD, hanem akár Intel meg Qualcom chipeket is támogat).

"In God we trust. All others must bring data"

Copyright © 2000-2024 PROHARDVER Informatikai Kft.