Umjetna inteligencija (UI, prema engl. AI) već uočljivo preustrojava svijet. Podaci pokreću naš globalni digitalni ekosustav, a UI tehnologije otkrivaju obrasce u podacima. Pametni telefoni, pametne kuće i pametni gradovi utječu na to kako živimo i međusobno djelujemo, a UI sustavi sve se više uključuju pri donošenju odluka o zapošljavanju, medicinskim dijagnozama i sudskim presudama. Je li ovaj scenarij utopijski ili distopijski ovisi o vašoj perspektivi, piše Science Alert.
Potencijalni rizici UI-a više puta su nabrojani. Već je uobičajena zabrinutost u pogledu potencijalnih robota ubojica i masovne nezaposlenosti, a neki se čak plaše i ljudskog izumiranja. Optimističnija su predviđanja da će UI do 2030. godine dodati svjetskoj ekonomiji 15 bilijuna dolara te nas na kraju dovesti do neke vrste društvene nirvane.
Štetan utjecaj za društvo?
Svakako treba uzeti u obzir i utjecaj koji takve tehnologije imaju na naše društvo. Postoji također jedna važna bojazan da UI sustavi jačaju postojeće društvene pristranosti i proizvode štetne učinke. Nekoliko zloglasnih primjera ovog fenomena privuklo je široku pažnju: najsuvremeniji automatizirani sustavi strojnog prevođenja koji proizvode seksističke rezultate te sustavi prepoznavanja slike koji crne ljude klasificiraju kao gorile.
Ti problemi nastaju zato što takvi sustavi koriste matematičke modele (poput neuronskih mreža) kako bi identificirali obrasce u velikim nizovima podataka. Ako su ti podaci iskrivljeni na različite načine, onda će obučeni sustavi neizbježno naučiti i reproducirati inherentne pristranosti.
Moguće marginaliziranje društvenih skupina
Pristrane autonomne tehnologije problematične su jer mogu potencijalno marginalizirati skupine poput žena, etničkih manjina ili starih osoba, te tako pogoršati postojeće društvene neravnoteže.
Primjerice, ako su UI sustavi naučeni policijskim podacima o uhićenju, tada bi se bilo kakva svjesna ili nesvjesna pristranost koja se očituje u postojećim obrascima uhićenja replicirala pomoću UI sustava "predviđanja" koji je obučen na osnovi tih podataka. Uviđajući ozbiljne posljedice toga, razne su nadležne organizacije nedavno savjetovale da svi UI sustavi trebaju biti obučeni na nepristranim podacima.
To se čini dovoljno razumno, no, nažalost, ponekad je jednostavno nemoguće osigurati nepristranost određenih skupova podataka prije obuke.
Pristranost pri prevođenju
Općenito, 70 posto rodnih zamjenica u skupovima podataka s prijevodom je muškog roda, dok je 30 posto ženskog roda. To je zato što se tekstovi koji se koriste u takve svrhe češće referiraju na muškarce nego na žene.
Kako bi se spriječilo da prevoditeljski sustavi repliciraju ove postojeće pristranosti, određeni parovi rečenica morali bi biti uklonjeni iz podataka, tako da se muške i ženske zamjenice pojavljuju 50/50. To bi spriječilo da sustav dodijeli veću vjerojatnost muškim zamjenicama.
Imenice i pridjevi bi, naravno, trebali biti uravnoteženi 50/50, jer oni mogu označavati spol u oba jezika itd. Međutim, takvo drastično ponovno uzorkovanje značajno bi smanjilo dostupne podatke te na taj način smanjilo kvalitetu prijevoda.
Čak i kada bi podskupovi podataka bili u potpunosti uravnotežen prema spolu, još uvijek bi bili pristrani na sve druge načine (poput etničke pripadnosti ili dobi). Istina, bilo bi teško u potpunosti ukloniti sve te pristranosti. Ako bi jedna osoba posvetila samo pet sekundi čitanju svake od milijardu rečenica u podacima, trebalo bi 159 godina da ih sve provjeri, a to pretpostavlja spremnost za rad cijeli dan i noć, bez pauze za ručak.
Nerealna očekivanja
Stoga, zaključuje Science Alert, nerealno je tražiti nepristranost svih skupova podataka za obuku prije izgradnje UI sustava. Takvi zahtjevi na visokoj razini obično pretpostavljaju da "UI" označava homogenu skupinu matematičkih modela i algoritamskih pristupa.
U stvarnosti, različiti UI zadaci zahtijevaju vrlo različite vrste sustava. Umanjivanjem punog opsega ove raznolikosti prikrivaju se stvarni problemi koji nastaju zbog duboko izobličenih podataka. To je tužno jer znači da su zanemarena druga rješenja problema pristranosti podataka.
Na primjer, pristranosti u sustavu strojnog prijevoda mogu se značajno smanjiti ako je sustav prilagođen nakon što je istreniran na većem, neizbježno pristranom skupu podataka. To se može napraviti pomoću znatno manjeg, manje iskrivljenog skupa podataka. Većina podataka možda biti jako pristrana, ali sustav koji je obučen na njima ne mora biti. Nažalost, o tim tehnikama rijetko raspravljaju oni koji imaju zadatak razvijanja smjernica i zakonodavnih okvira za istraživanje UI.
Prepoznavnje vlastitih predrasuda
Ako UI sustavi jednostavno pojačavaju postojeću društvenu neravnotežu, tada opstruiraju, a ne olakšavaju pozitivne društvene promjene. Ako su UI tehnologije koje svakodnevno koristimo manje pristrane nego mi, onda bi nam mogle pomoći da prepoznamo i suočimo se s vlastitim vrebanim predrasudama.
Sigurno je da bismo se prema tome trebali kretati. Tako programeri UI-a trebaju puno pažljivije razmišljati o društvenim posljedicama sustava koje grade, dok oni koji pišu o UI-u moraju detaljnije razumjeti kako su UI sustavi zapravo dizajnirani i izgrađeni. Jer ako se doista približavamo ili tehnološkoj idili ili apokalipsi, prva bi bila poželjnija, zaključuje Science Alert.