Istraživanje
Google DeepMind-a upozorava na opasnosti veštačke opšte inteligencije (AGI) i
ističe potrebu za globalnom koordinacijom kako bi se sprečila moguća katastrofa
Nedavno
istraživanje koje je sprovela kompanija Google DeepMind sugeriše da bi veštačka
opšta inteligencija (AGI), oblik AI sa sposobnostima sličnim ljudskim, mogla da
se pojavi već do 2030. godine.
U radu se
razmatraju različite potencijalne opasnosti koje bi AGI mogla doneti,
uključujući mogućnost da takva tehnologija “trajno uništi čovečanstvo.” Iako
studija ne opisuje specifične načine na koje bi AGI mogla izazvati izumiranje
ljudi, ona podiže ozbiljnu zabrinutost zbog rizika koje bi ova tehnologija
mogla predstavljati.
Autori rada
naglašavaju da odluke o tome da li je potencijalna šteta “ozbiljna” ne treba da
se donosi isključivo od strane kompanija kao što je Google DeepMind, već da bi
društvo u celini trebalo da ima ključnu ulogu u tome, vođeno zajedničkim
rizicima i razumevanjem moguće štete.
Četiri
glavne kategorije rizika od AGI:
Rad
kategorizuje rizike povezane sa AGI u četiri glavne oblasti: zloupotreba,
neusaglašenost, greške i strukturalni rizici. Među njima, zloupotreba se ističe
kao naročito velika opasnost – situacija u kojoj pojedinci ili grupe mogu
namerno koristiti AGI za nanošenje štete drugima. Google DeepMind stavlja
poseban akcenat na prevenciju koja direktno adresira ovaj potencijal za
zloupotrebu.
Ovi rizici
nisu predstavljeni kao hipotetički ili daleki, već kao konkretne mogućnosti
koje bi se mogle ostvariti u bliskoj budućnosti i koje zahtevaju hitnu reakciju
od strane razvojnih AI timova, regulatora i globalnih institucija.
Jezik u radu
jasno pokazuje da ozbiljna šteta, uključujući postojanje egzistencijalnih
pretnji, spada u realne ishodne mogućnosti ako se razvoj AGI nastavi bez
adekvatnog nadzora.
Globalna
koordinacija za bezbednost AGI:
Demis
Hassabis, CEO DeepMind-a, ističe da za uspešan dalji razvoj AGI-a, čovečanstvo
treba da stvori globalne mehanizme koordinacije i bezbednosne mere. On predlaže
uspostavljanje “CERN-a za AGI,” centralne međunarodne istraživačke inicijative
koja bi se bavila bezbednim napredovanjem veštačke opšte inteligencije.
Hassabis takođe sugeriše da bi trebalo da postoji organizacija poput
Međunarodne agencije za atomsku energiju (IAEA) koja bi nadgledala opasne
projekte, kao i “tehnički UN” koji bi imao zadatak da upravlja primenom AGI
sistema na globalnom nivou.
Razlika
između AGI i tradicionalne AI:
Za razliku
od tradicionalne AI koja je dizajnirana za specifične zadatke, AGI je
zamišljena da oponaša fleksibilnost ljudske inteligencije. AGI bi imala
sposobnost da razume, uči i rešava probleme u različitim oblastima bez
ograničenja na određenu funkciju. U suštini, AGI bi bila mašina koja bi se
prilagodila novim okruženjima i ciljevima na isti način kao što to rade ljudi.
Ova razlika
je u srcu optimizma, ali i zabrinutosti koja okružuje AGI. Iako obećava
transformativne koristi, njena svestranost i autonomija unose nepredvidive
elemente koje trenutni bezbednosni mehanizmi možda nisu u mogućnosti da
obuhvate.
Kao što rad
naglašava, potencijal od “ozbiljne štete” čini od suštinskog značaja da se AGI
razvoju pristupi sa velikim oprezom i koordiniranim globalnim odgovorom,
prenosi IDR.