Novi UI algoritam izložen najbizarnijim kutcima interneta demonstrira kako možemo završiti u mračnijoj verziji proročanstva preminulog fizičara, piše Independent.
Opasnost od 'ludog' UI-a je stvarna
Znanstvenici na Institutu tehnologije Massachusetts (MIT) trenirali su svog UI 'Normana', nazvanog po glavnom liku Hitchcockovog filma 'Psycho', pomoću slikovnih prikaza uzetih za zajednice na Redditu koja je ozloglašena po dijeljenju izrazito grafičkih prizora smrti. Nakon toga Normanu je predstavljen psihološki test u obliku rorschachovih mrllja. Rezultat, kažu znanstvenici, bio je "prvi psihopatski UI na svijetu". Gdje bi standardni UI vidio "crno bijelu fotografiju bejzbolske rukavice", Norman je vidio "čovjeka ubijenog strojnicom usred bijela dana".
Ideja o poludjeloj umjetnoj inteligenciji jedna je od najstarijih tema distopijske znanstvene fantastike. No pojavljivanje sve naprednijih UI-a posljednjih godina dovelo je do toga da neki znanstvenici, poduzetnici i akademici sve više upozoravaju na legitimnu prijetnju koju takva tehnologija predstavlja.
Tako je milijarder Elon Musk, koji je osnovao neprofitnu tvrtku za istraživanje UI-a OpenAI, rekao još 2014. da je UI "potencijalno opasnije od nuklearnog naoružanja", dok je Hawking opetovano upozoravao na opasnosti koje okružuju razvoj umjetne inteligencije. Ni šest mjeseci prije smrti ovaj je poznati fizičar čak ustvrdio kako bi UI mogli u potpunosti zamijeniti ljude ako njihov razvoj ode predaleko. "Ako ljudi stvaraju računalne viruse, netko će napraviti i UI koji sam sebe poboljšava i replicira", rekao je Hawking u intervjuu prošle godine. "Biti će to novi oblik života koji će nadmašiti ljude."
Predrasude pri pružanju informacija
No Norman nije razvijen samo da bi stvorio dodatan strah od UI-a koji bi mogao izbrisati čovječanstvo. Način na koji je treniran specifičnim setom podataka naglašava jedan od najvećih problema s kojim se suočavaju današnji UI algoritmi - problem predrasuda.
Microsoftov chatbot Tay jedan je od najboljih primjera kako na odlučivanje algoritma i njegov 'pogled na svijet' može biti oblikovan informacijama kojima ima pristup. Ovaj 'zaigrani' bot pušten je na Twitter 2016., no u samo 24 sata pretovrio se u jedan u najgadnijih eksperimenata na internetu. Tayovi prvi tvitovi o tome kako su "ljudi supercool", uskoro su se pretvorili u jezive izjave poput "Hitler je bio u pravu, mrzim Židove". Ovaj dramatičan pomak bio je rezultat interakcija Tay i grupe korisnika Twittera kojima je isključiva namjera bila korumpiranje chatbota i pretvaranje Microsoftove demonstracije umjetne inteligencije u katastrofu za odnose s javnošću.
Predrasude o umjetnoj inteligenciji
UI predsrasude imaju znatno dublje implikacije u svarnom svijetu, kao što je pokazalo i izvješće iz 2016. koje je otkrilo da algoritam koji je koristio strojevno učenje kako bi američkim sudovima pružao procjenu rizika, krivo označavao crne zatvorenike kao da je kod njih veća vjerojatnost ponovnog činjenja zločina.
Microsoft stvorio umjetnu inteligenciju koja se u 24 sata pretvorila u sex-robota koji voli Hitlera
"Podaci korišteni kako bi se učio algoritam temeljen na strojnom učenju mogu znatno utjecati na njegovo ponašanje. Tako da kad ljudi kažu da UI algoritmi mogu imati predrasude i biti nefer, krivac često nije sam algoritam već podaci temeljeni na predrasudama koje su mu davane...", kažu znanstvenici s MIT-a koji su radili na Normanu, dodavši da on "predstavlja primjernu studiju opasnosti da razvoj umjetne inteligencije pođe po zlu kada se u algoritmima koriste podaci temeljeni na predrasudama."
Postoji nada da bi čak i Normanovo izrazito poremećeno rasuđivanje moglo biti ublaženo izlaganjem širem dijapazonu iskustava. Posjetitelje njegove stranice potiče se da i sami prođu Rorschachov test, uz poziv: "Pomognite Normanu da se popravi!".