neizbježna katastrofa /

'Ne smijemo dopustiti da se umjetna inteligencija koristi kao oružje'

Image
Foto: Thinkstock

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", upozorio je fizičar tephen Hawking

28.7.2015.
16:22
Thinkstock
VOYO logo

Teorijski fizičar Stephen Hawking priključio se u utorak brojnim znanstvenicima koji se protive upotrebi umjetne inteligencije za oružje.

"Ako bilo koja vojna sila krene s razvojem oružja koje koristi umjetnu inteligenciju, globalna utrka u naoružanju je praktički neizbježna i ishod te tehnološke avanture je očit: autonomno oružje postat će Kalašnjikov sutrašnjice", rekao je Hawking u zajedničkom otvorenom pismu.

Tekst se nastavlja ispod oglasa

"Poznati su brojni argumenti za i protiv autonomnog oružja, primjerice da je zamjena ljudi strojevima dobra jer smanjuje ljudske žrtve, a loša jer bi se lakše kretalo u bitke", dodaje se u pismu koje je objavio Institut Future of Life.

"Utrka u naoružanju je loša ideja i treba je spriječiti zabranom napadačkog autonomnog oružja bez ljudske kontrole", ističe Hawking.

Tekst se nastavlja ispod oglasa

Autonomno oružje je ono koje je sposobno samo birati i napadati mete. U njega ne spadaju daljinski upravljane bespilotne letjelice.

Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
fnc 20
Gledaj odmah bez reklama
VOYO logo