Для искусственного интеллекта разработали этические нормы

Министерство обороны США официально утвердило ряд этических принципов использования искусственного интеллекта.
Для искусственного интеллекта разработали этические нормы
U.S. Department of Defense

Работа над документом велась на протяжении 15 месяцев и военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учёными и общественностью. Свод правил разработан с учётом использования ИИ как в вооружённых силах, так и в мирных целях.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В число ключевых этических норм для искусственного интеллекта вошли:

  • Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
  • Справедливость (человек будет делать всё, чтобы свести к минимуму предвзятость ИИ);
  • Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
  • Надёжность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надёжность и безопасность в течение всего срока использования ИИ);
  • Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Авторы проекта подчеркнули, что в основу этических норм легли в первую очередь существующие этические нормы вооружённых сил США на основе Конституции США, главы 10 Кодекса США, Закона о войне, а также существующих международных договоров и давних норм и ценностей в области ведения боевых действий.

Пентагон заявил, что разработка этических норм для искусственного интеллекта призвана вывести США и страны-союзники в мировые лидеры по использованию ИИ в военных целях, а также в области дальнейшего развития законодательства в отношении искусственного интеллекта.