Rühm tipptasemel tehisintellektiettevõtete, nagu OpenAI ja Google DeepMind, praeguseid ja endisi töötajaid tegid avalduse, kus väljendavad muret tugevamate ohutusmeetmete vajaduse pärast kiiresti kasvavas tehisintellekti valdkonnas.

Kirjas pealkirjaga “righttowarn.ai”, millele on alla kirjutanud üle tosina tehisintellekti siseringi inimese, juhitakse tähelepanu sellele, et kuigi tehisintellektil on potentsiaal tuua inimkonnale uskumatut kasu, kaasnevad sellega ka mõned tõsised riskid.

Need riskid ulatuvad olemasoleva ebavõrdsuse suurenemisest desinformatsiooni levimiseni ja isegi selliste tagajärgedeni nagu petturlik tehisintellekt, mis põhjustab inimeste väljasuremist. Allakirjutanud rõhutasid, et neid muresid jagavad mitte ainult nemad, vaid ka valitsused, teised tehisintellekti eksperdid ja isegi ettevõtted ise.

Lühidalt öeldes ütlevad nad, et AI-ettevõtted võivad olla liiga keskendunud raha teenimisele ega keskendu piisavalt oma tehnoloogia ohutuse tagamisele. Nad usuvad, et praegune lähenemisviis, mis võimaldab ettevõtetel ise reguleerida ja vabatahtlikult jagada teavet oma tehisintellektisüsteemide kohta, ei ole piisav keeruliste ja potentsiaalselt kaugeleulatuvate riskide lahendamiseks.

Selle lahendamiseks on töötajad pakkunud välja mõned ideed. Nad arvavad, et tehisintellekti ettevõtted peaksid lubama mitte karistada vilepuhujatest töötajaid, looma anonüümseid viise, kuidas inimesed saaksid probleemidest teada anda ja julgustama avatud arutelu AI riskide üle. Samuti arvavad nad, et praegused ja endised töötajad peaksid saama oma muredest avameelselt rääkida, kui nad ei avalda ettevõtte saladusi.

See üleskutse tegutsemiseks tuleb pärast mõningaid hiljutisi vaidlusi tehisintellekti maailmas, nagu OpenAI ohutusmeeskonna laialisaatmine ja mõnede ohutusega seotud võtmetegelaste lahkumine. Huvitaval kombel toetab kirja Geoffrey Hinton, lugupeetud tehisintellekti pioneer, kes hiljuti Google’ist lahkus, et ta saaks vabamalt rääkida tehisintellekti potentsiaalsetest ohtudest.

See avalik kiri on meeldetuletus, et tehisintellekt areneb nii kiiresti, et reeglid ja eeskirjad pole veel päris järgi jõudnud. Kuna tehisintellekt muutub võimsamaks ja ilmub rohkemates kohtades, on ülimalt oluline tagada selle ohutus ja läbipaistvus. Need tehisintellekti insaiderid seisavad vastutuse ja kaitse eest nende eest, kes sõna võtavad, lootes tagada, et tehisintellekti arendamise jätkamisel teeme seda viisil, mis on kõigile kasulik.

OpenAI ametlik kommentaar – Oleme uhked oma kogemuste üle, mis pakuvad kõige võimekamaid ja ohutumaid tehisintellektisüsteeme, ning usume meie teaduslikku lähenemisviisi riskide käsitlemisel. Oleme nõus, et range arutelu on selle tehnoloogia tähtsust arvestades ülioluline, ning jätkame koostööd valitsuste, kodanikuühiskonna ja teiste kogukondadega üle maailma. See on ka põhjus, miks meil on töötajatel võimalusi oma murede väljendamiseks, sealhulgas anonüümne aususe vihjeliin ning ohutus- ja turvakomitee, mida juhivad meie juhatuse liikmed ja ettevõtte ohutusjuhid.

Allikas: Android Authority