Роботы уже принимают решения, от которых зависят человеческие жизни… Но как быть уверенными в том, что они принимают их правильно?

Можем ли мы быть уверены в роботах, доверяя им вопросы жизни и смерти?
Самый разумный способ — сделать их такими же эмоциональными, как мы сами

Между прочим, катастрофы уже происходят! В заметке «Косильщик» мы рассказывали о взбесившемся боевом роботе, которого так и не удалось утихомирить, пока он не расстрелял весь боезапас и не убил нескольких солдат на полигоне.

Так что дискуссии на тему о том, как сделать роботов безопасными для человека, как привить им то, что мы называем «моралью», сегодня — не пустые разговоры. И недавно вышедшая книга Вендела Уоллаха (Wendell Wallach) и Колина Аллена (Colin Allen) «Моральные машины: учим роботов различать правильное и неправильное» (Moral Machines: Teaching Robots Right from Wrong) привлекла вполне понятное внимание. Здесь авторы пытаются доказать, что нам необходимо всерьез задуматься над тем, как сделать роботы ответственными и внимательными. «Наступление того момента, когда роботу придется принимать решения, от которого будут зависеть человеческие жизни, — лишь вопрос времени», — пишут они.

Что же нам следует учесть, чтобы минимизировать возможные риски? Уоллах и Аллен предлагают шесть вариантов.

Первое: не допускать автоматы к таким задачам. Этот путь — самый очевидный: везде, где требуется принимать решения, последствия которых трудно спрогнозировать, или они могут оказаться опасными, оставить эти решения за живыми людьми. Вероятность использования этого сценария крайне низка. Ведь автоматика, принимающая жизненно важные решения, производится и используется уже сегодня.

Сценарий второй: не давать им «в руки» оружие. Этот путь сейчас также слишком поздно выбирать. Всевозможные полуавтоматические боевые системы, беспилотные дроны широко используются современными армиями. Пока они не вытеснили с поля боя живых солдат, но это, видимо, вопрос времени. Возможно, стоит воплотить такой сценарий лишь частично и договориться об ограничении видов вооружения, которые могут устанавливаться на роботизированных вояк.

Сценарий третий, имени Айзека Азимова. Напомним, что этому замечательному фантасту принадлежат знаменитые «Три закона робототехники», которые предлагалось делать незыблемыми для каждого «разумного робота». Вот эти правила.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Вероятность успешного использования такого подхода Уоллах и Аллен считают умеренной. Действительно, Азимов все-таки писал научную фантастику, а не работал робототехником. И уже в своих рассказах он придумывал и описывал ситуации, в которых такие иерархически организованные правила могут не сработать, или сработать «не так». К примеру, как быть, если робот получает взаимоисключающие приказы от двух враждующих людей? Или каким образом сможет робот понять, что хирург вовсе не со злым умыслом намерен разрезать ваш живот? Сам Айзек Азимов показал, что мораль, основанная на слепом исполнении небольшого набора законов, эффективна лишь в ограниченном наборе случаев.

Четвертый сценарий, рассмотренный Уоллахом и Алленом, можно считать расширенным вариантом предыдущего: создать разветвленные моральные принципы и «вшить» их в программное обеспечение робота. Среди таких принципов могут быть — «делай то, что принесет максимум пользы для максимального числа людей» или «относись к другим так, как хочешь, чтобы они относились к тебе».

Это уже более разумно, нежели три формальных закона Азимова. Однако и такой набор принципов на практике оказывается весьма ограниченным. Если китайцев больше, чем россиян, — значит, война с целью захватить Сибирь будет благом? А уж насколько благи медицинские эксперименты на людях, для которых потребуется какая-то сотня подопытных — а спасены будут тысячи?! И так далее, и так далее. Вывод напрашивается простой: этические вопросы нельзя решать математическими методами. Так что Уоллах и Аллен предлагают другой подход.

Пятый вариант: заниматься образованием роботов — так же, как это делается с детьми. Роботы, обучающиеся по мере «взросления», могли бы постепенно накопить достаточно знаний о том, что люди считают правильным, а что — нет. Заметим, что такой многообещающий подход потребует серьезных технологических прорывов, и прежде всего, создания роботов, способных к обучению. Пока что на этом поле делаются лишь первые осторожные шаги — пример такого проекта можно найти в нашей заметке «Роботы стремительно умнеют».

Последним — и самым перспективным — путем Уоллах и Аллен называют эмоции. Если роботы будущего будут обладать, как (большинство) людей, способностями к сопереживанию, к расшифровке невербальных социальных кодов, они не только станут значительно лучше общаться с людьми, но и будут для них намного дружелюбней. Если, конечно, не увлекаться развитием у роботов негативных эмоций — гнева, раздражения, ярости и так далее.

По публикации New Scientist Tech