Искусственный интеллект ограничили в правах: роботам запретили убивать людей

Комитет по юридическим вопросам Европейского парламента постановил, что искусственный интеллект не должен самостоятельно принимать решение о применении оружия и потребовал запретить использование автономных боевых систем на международном уровне.
Искусственный интеллект ограничили в правах: роботам запретили убивать людей
Pixabay

Европарламент требует ограничить полномочия боевых роботов на международном уровне

Разработки в области создания систем искусственного интеллекта неизбежно привели к тому, что разработчики начинают внедрять «умные» системы в оружие и военную технику. К примеру, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и распознавать цели, а также выполнять роль ведомых для пилотируемых летательных аппаратов. И это только начало: в будущих военных разработках искусственный интеллект будет иметь всё большее значение.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Внедрение систем искусственного интеллекта в вооружение и военную технику при этом вызывает множество вопросов этического и правового характера: к примеру, применение в вооружённых конфликтах автономных систем вооружения является довольно спорным моментом. По оценке Комитета по юридическим вопросам Европарламента, автономные системы вооружения можно использовать в вооруженных конфликтах лишь в том случае, если решение об открытии огня принимает человек.

«Автономные боевые системы следует использовать в качестве крайней меры, и этот шаг можно признать законным, только если ими управляет человек, поскольку именно человек должен делать выбор между жизнью и смертью», — говорится в докладе. Человек всегда должен иметь возможность внести корректировки в действия автономных боевых систем, остановить их работу или вовсе деактивировать такие системы в случае непредвиденных обстоятельств, уверяют специалисты.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

При этом должны соблюдаться условия, при которых можно будет точно идентифицировать человека, управлявшего автономными боевыми системами. Это необходимо, например, на случай поиска виновных в незаконном применении оружия. За действия искусственного интеллекта на поле боя должен отвечать человек, а при разработке «умного» оружия необходимо предпринять все возможные шаги для минимизации сбоев и неполадок.