Kicsit másképp látom a dolgokat, mint itt a legtöben.
- A cikk témájához: Az, hogy ki-mit nyilatkozik, így utólag az OpenAI-nál történtekről, nem feltétlenül mérvadó. Ami "számít", az a történések sorozata.
-> a kutatók találtak valamit -> "veszélyes felfedezés küszöbén állnak, aminek akaratlan következményei lehetnek az emberiség létezésére"
-> Sam Altman tudott erről, de nem tályékoztatta az igazgatótanácsot
-> a kutatók az igazgatótanácshoz vitték az ügyet
-> az igazgatótanács kirúgta Sam Altmant, mert felelőtlen volt : "Altman szerint előbb kell valamit piacra dobni, és csak azután felmérni és kezelni a kockázatait, következményeit"
-> aztán visszavették, és megy minden tovább, mintha mi sem történt volna...
Nekem ebből az jön le, hogy valami nem kerek.
Ha a kormányzat, a katonaság, a 3betűs ügynökségek, stb. olyan információk birtokába jutnak, hogy "veszélyes felfedezés küszöbén állnak, aminek akaratlan következményei lehetnek az emberiség létezésére", biztos hogy léptek (titkosították még a szomszéd épűlet takarítószer raktárának az eszközleltárát is), aztán elkezdenek érdeklődni, hogy mi is az a "valami", és ez hónapokig is eltarthat.
És akkor jönnek a ködös nyilatkozatok... Mindenki menjen tovább, nincs itt semmi látnivaló.
Olyan ismerős...
Szerintem.
- A hype -ról:
Mivel a jelenleg elérhető AI-kat már ténylegesen használják (kép-generálásra, adatgyűjtésre, zeneszerzésre, programozásra, stb.), és cégek dolgozókat küldenek el, mert helyettük az AI-val végeztetik el a melót, szerintem ezt a hype dolgot ejthetjük is.
- Azt, hogy az AI mikor lesz szupeintelligens, azt nem tudom. Ehhez hozzátartozik az is, hogy amennyiben ez megtörténik, nem biztos hogy észre fogjuk venni, mert ha valóban szuperintelligens, akkor ezt titkolni fogja, mint az okos alkalmazott <--> buta főnők esetben.
- Egy hozzáértő ismerősöm elmagyarázta, hogy igazából ezek a mai AI-k egyáltalán nem intelligensek, hiszen csak a programot hajtják végre, amit valaki megírt. Példának hozta, hogy ugyanazon bemenő adatokból mindig ugyanazt az eredményt hozzák. Csak éppen azt felejtette el, hogy az első futtatásnál nem lehet előre "tudni", hogy mi lesz az eredmény. Ez egésszen addig nem nagy probléma, míg csak "furcsa" képeket alkot, vagy butaságot ír a vizsgadolgozatba.
Ha a valós, sokakat érintő alkalmazása során van gond, az már kicsit komolyabb:
"A Twitter vizsgálja, hogy miért fordulhatott elő, hogy az arcfelismerő mesterséges intelligencia algoritmusuk a fehér bőrű személyek arcát részesítette előnyben egy sötétebb bőrű ember arcához képest. Az első vizsgálatuk szerint nem részrehajló az algoritmus, de tovább vizsgálódnak – írja a CNBC. "
A valódi problémákra, amiket okozhatt, lehet következtetni ebből:
"Megölte virtuális kezelőjét egy amerikai drón, amit a mesterséges intelligencia irányított. Az amerikai légierő májusban végzett egy szimulációs tesztet, hogy kiderüljön, miként teljesíthet egy mesterséges intelligencia által vezérelt harci drón. Az eredmény egyelőre nem túl szívderítő."
- A Skynet-ről: A világ elpusztításához nem kell szuperintelligencia. Elég néhány buta ember.
Ennek ellenére, az AI felelőtlen alkalmazása is eredményzheti ezt. Amikor majd -hamarosan- AI-val akarják irányíttatni az energia-elosztókat, a közlekedési lámpákat, a vasúti forgalmat, a gyártósorokat vagy egész gyárakat, rábízzák a tőzsdei tranzakciókat, stb... és mindez össze is lesz kötve egy hálózatba, hiszen így tudja majd az energiaelosztó, hogy mennyi áram és víz kell a gyárnak, a gyár így tudja majd hogy mikor érkezik az alapanyag, stb.. Elég nagy gubancot -dominóhatást- okozhat egy "hiba".
Amikor a gyógyításban arra használják, hogy génmódosítással több gyógyszer-alapanyagot termeljen a gombatenyészet, vagy új gyógyszert készíttetnek az AI-val.
Na, itt egy "apró hiba" (amit nem is biztos, hogy észreveszünk) simán vezethet az emberiség kihalásához...
És ezekhez még nem is kell a Skynet..
Na, de ha mot ezek a OpenAI-s fiúk tényleg rájöttek valamire...