Идея о том, что однажды роботы смогут отличать друга от врага, глубоко неполноценна – так считает робототехник Ноэль Шаркли (Noel Sharkey) из университета Шеффилда в Великобритании.
Он комментировал доклад, призывающий к тому, чтобы военные роботы, оснащённые оружием, были запрограммированы на те же этические правила применения оружия, что и люди солдаты.
Документ ((www.tinyurl.com/roboshoot), составленный при поддержке Пентагона, утверждает, что компании, занимающиеся осуществлением требования по переводу 1/3 американской армии в безэкипажную к 2015, рискуют упустить некоторые этические вопросы. Полностью автономные системы существуют уже сейчас, предупреждает Патрик Лин (Patrick Lin), автор исследования из Калифорнийского политехнического института в Сан-Луис-Обиспо. К примеру, американская военно-морская система Phalanx способна определять, ставить задачу для огня по цели и выпускать снаряды без авторизации человека.
Хотя Шаркли одобряет то, как широко освещён данный вопрос в докладе, он утверждает, что документ слишком оптимистичный: "Он выдвигает старый довод о том, что роботы могут поступать более этично, чем люди, т.к. они не обладают злостью или жаждой мести ”. Но у роботов нет человеческого сочувствия, и они не способны самостоятельно оценивать события, говорит он, и т.к. они не могут проводить различие между невинным свидетелем и солдатом, роботы не должны принимать решения о применении силы со смертельным исходом.
|