Можно ли научить робота делать этичный выбор?

Инженер Алан Уинфилд из Бристольской компании Robotics Laboratory (Великобритания) придумал «этическую ловушку» для робота – и был ошеломлен результатом.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В своем эксперименте Уинфилд запрограммировал робота, чтобы тот предотвратил падение «человека» в яму. Это упрощенная версия знаменитого «Первого закона робототехники» Айзека Азимова — робот не должен позволить, чтобы человеку был причинен вред. Сначала робот успешно справился с задачей. Как только «человек» двинулся в сторону ямы, робот бросился к нему, чтобы вытолкнуть его с опасного пути. Но когда ученый добавил второго «человека», который двигался к яме одновременно с первым, робот был вынужден выбирать. Иногда ему удавалось спасти одного «человека», позволяя другому погибнуть, а иногда ему даже удавалось успеть спасти обоих. Но в 14 случаях из 33 робот «впадал в ступор» и терял столько времени в размышлениях, что оба «человека» успевали упасть в яму.

Нажми и смотри

Уинфилд говорит, что хотя робот может спасать других в соответствии с запрограммированным алгоритмом поведения, он не понимает причин своих действий. По словам инженера, у нас до сих пор нет ответа, можно ли обучить робота этике. Но в рамках дальнейшей интеграции роботов в нашу повседневную жизнь, на этот вопрос обязательно нужно будет ответить. Например, автомобили с автономным управлением должны уметь оценивать безопасность своих пассажиров применительно к риску причинения вреда другим водителям или пешеходам. И это может быть очень трудным выбором.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако военные роботы, кажется, могут подсказать решение. Рональд Аркин из Технологического института Джорджии (США) разработал набор алгоритмов для военных роботов, который должен помочь им принимать более взвешенные решения на поле боя. Он уже опробовал свою разработку в постановочном бою, продемонстрировав, что беспилотники с такой программой пытаются обойтись без стрельбы или свести к минимуму потери во время боя в таких гражданских объектах, как школы или больницы. Аркин говорит, что роботы, обученные этике, станут невероятно эффективными, к тому же, «в отличие от солдат, которые могут находиться под влиянием эмоций и нарушать приказы, роботы этого делать не будут».