Разработка и использование автономных боевых роботов должна быть запрещена по этическим соображением, поскольку в случае убийства по ошибке нельзя будет определить виновного — так считает доктор философии Роберт Спарроу.

Не секрет, что именно военные вкладывают больше всего денег в передовые исследования, связанные с разработкой роботов. В современных армиях роботы применяются в основном для обезвреживания мин и бомб, а также для ведения разведки, однако все чаще их используют в качестве полноценных боевых машин, оснащенных современным вооружением. Как правило, управляет боевым роботом живой оператор, несущий ответственность за все действия вверенного ему устройства. Но если машина принимает решение на поражение цели самостоятельно, ситуация принимает совсем иной оборот.

Моральным аспектам этой проблематики была посвящена статья доктора философии Роберта Спарроу (Robert Sparrow) из Австралийского Университета Монаш, опубликованная в «Журнале прикладной философии» (Journal of Applied Philosophy). Спарроу пишет: «В идеале война должна вестись таким образом, чтобы впоследствии можно было выявить ответственных за смерть мирных людей, погибших в ходе конфликта, и определить степень их вины. Поскольку убийства, совершенные автономными роботами, не могут быть оценены с этой точки зрения — понятие «ответственность» к ним в принципе неприменимо, — разработка подобных машин должна быть запрещена по этическим соображениям». Между тем автономные машины, способные убивать, уже существуют. В качестве примера можно привести беспилотные самолеты-разведчики, снабженные ракетным вооружением и запрограммированные на уничтожение целей, обладающих набором тех или иных признаков. Подобные аппараты широко использовались американцами в ходе конфликтов на Ближнем Востоке.

В целом идея посылать на передовую автономных роботов — вместо того, чтобы подвергать смертельной опасности живых людей, — выглядит для общества чрезвычайно привлекательно, а потому активно продвигается политиками и военными всех мировых держав. Проблемы начинаются тогда, когда нужно ответить на вопрос: кто именно ответственен за то, что робот ошибся и убил мирного жителя, и кто должен понести наказание? Можно априори винить в случившемся разработчиков, однако Спарроу отмечает: боевые роботы наверняка будут слишком сложны, чтобы можно было точно определить, что послужило причиной неправильной интерпретации цели. Докопаться до того, кто именно допустил критический просчет при его проектировании, будет невероятно трудно. А значит, убийства по ошибке, совершенные роботами, станут принципиально ненаказуемы.

По информации Australian Broadcasting Corporation