Министерство обороны США официально утвердило ряд этических принципов использования искусственного интеллекта.
Для искусственного интеллекта разработали этические нормы
U.S. Department of Defense

Работа над документом велась на протяжении 15 месяцев и военные тесно сотрудничали со специалистами в области искусственного интеллекта (ИИ), учёными и общественностью. Свод правил разработан с учётом использования ИИ как в вооружённых силах, так и в мирных целях.

В число ключевых этических норм для искусственного интеллекта вошли:

  • Ответственность (человек обязуется разумно подходить к разработке и использованию ИИ);
  • Справедливость (человек будет делать всё, чтобы свести к минимуму предвзятость ИИ);
  • Понятность (человеку будет в полной мере понимать, как работать с ИИ, а вся документация будет максимально прозрачной для понимания и унифицированной);
  • Надёжность (человек наделит ИИ конкретными функциями и возможностями, которые будут тестироваться на надёжность и безопасность в течение всего срока использования ИИ);
  • Управляемость (человек сохранит возможность в любой момент отключать ИИ, если он продемонстрирует признаки незапланированного поведения).

Авторы проекта подчеркнули, что в основу этических норм легли в первую очередь существующие этические нормы вооружённых сил США на основе Конституции США, главы 10 Кодекса США, Закона о войне, а также существующих международных договоров и давних норм и ценностей в области ведения боевых действий.

Пентагон заявил, что разработка этических норм для искусственного интеллекта призвана вывести США и страны-союзники в мировые лидеры по использованию ИИ в военных целях, а также в области дальнейшего развития законодательства в отношении искусственного интеллекта.

Интересно как устроен ядерный реактор и могут ли роботы построить дом?
Все о новых технологиях и изобретениях!
Спасибо.
Мы отправили на ваш email письмо с подтверждением.