Честь робота: Кодекс для боевого автомата

Боевым роботам, которые (теперь уже несомненно) будут принимать самое активное участие в будущих войнах, требуется внушить особый «кодекс чести». Только так мы сможем быть уверенными, что «разгоряченный» схваткой стальной монстр гуманно отнесется и к мирным жителям, и к раненым, и к собственным товарищам по оружию.
Честь робота: Кодекс для боевого автомата

Серьезное предупреждение о потенциальной опасности сформулировано в официальном докладе, который был подготовлен и выпущен исследовательским центром американских ВМС. В нем рассматриваются самые разные возможные сценарии развития событий, вплоть до будущего в духе «Терминатора», с полным порабощением всей человеческой расы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Доклад предрекает приближение эры, когда роботы станут достаточно умными для того, чтобы принимать на поле боя самостоятельные решения. «В какой-то момент, — замечается в тексте, — они начнут и в этом демонстрировать явные преимущества в сравнении с солдатами-людьми».

Авторы исследования продолжают: «Весьма распространено заблуждение, что роботы будут делать только то, что заложено в их программу. К сожалению, это мнение давно устарело, относится оно еще к тем временам, когда даже самую сложную программу мог написать и понять один человек. Реальность же сегодняшнего дня такова, что даже текст современных программ составляет миллионы строк кода, написанных большими командами программистов — и ни один из них не представляет всю программу полностью и целиком». Соответственно, никто не может со стопроцентной вероятностью и предсказать, как поведет себя управляемый такой программой робот в условиях реального боя. Для этого понадобятся, как минимум, самые широкие и всесторонние полевые испытания — а против них могут выступить компании-производители, стремящиеся, естественно, как можно скорей выпустить продукт на рынок.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

От себя добавим, что если робот должен действительно уметь принимать решения даже в условиях боя, то в такую систему заранее ввести все возможные комбинации и варианты событий попросту нереально. Алгоритмы его работы должны обязательно включать элементы самообучения — а уж чему научится робот в этих условиях, сказать еще сложнее. Да и вряд ли чему-то хорошему.

Решение, предлагаемое авторами доклада, состоит в составлении особых «воинских кодексов» для роботов, выполнение которых «намертво» будет вшито в их железные мозги. Это не столь изящно, как предложение их коллег создать для роботов своего рода систему эмоций («Робот на доверии»), зато и намного проще.

Авторы также рассмотрели и другие этические, юридические, социальные и политические аспекты военной робототехники. В частности, они впервые подняли вопросы защиты таких боевых систем от взлома и использования хакерами, от ошибок в программном обеспечении. Поднят и такой интересный вопрос, как ответственность — кто будет виноват, если боевой робот «обезумеет» и пойдет крушить все направо и налево? Не стоит ли снабдить их универсальной «кнопкой самоубийства»?

Все эти проблемы не просто своевременны, но и совершенно насущны, ведь, по плану американских военных, уже к 2010 г. треть всей дальней авиации США будет состоять из беспилотных устройств, а к 2015 г. автоматической будет треть всей наземной бронетехники. Да и инциденты уже случались — мы уже рассказывали о трагедии, случившейся с боевой пулеметной системой («Косильщик»).

«Стремление разработчиков как можно скорее выйти на рынок с реальными предложениями, — говорится в докладе, — отбрасывая необходимую проработку этических моментов использования боевых автономных систем, дает мало надежды на то, что первые поколения таких систем и роботов не совершат ошибок, которые могут стоить многих людских жизней».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для начало дело за малым — составлением «воинского кодекса» роботов, который сочетал бы достаточно агрессивное поведение с гуманным отношением... Не хотите ли высказать свои предложения? За основу можно взять классику — Три закона робототехники, сформулированные в 1950-х Айзеком Азимовым:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам.

nik-kubrin
nik-kubrin 13 Мая 2009, 12:05
Согласно первому закону робототехники Азимова, не возможно создать боевого робота,способного убивать! Есть вариант оснащать своих солдат чипами,чтобы свои же роботы их распознавали как своих,а всех прочих уничтожали, но тогда проблема с мирным населением: не всех же жителей планеты оснащать чипами... Насчёт кнопки или другого механизма блокировки робота, думаю,что враг будет пользоваться этим для выведения боевых единиц из строя.
Николай
Николай 30 Апреля 2009, 23:04
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. значит считаем американцев людьми (ну или условно своих) а остальных биороботами противника -) а насчет кнопки - ваще тема) даже драцо с роботами не придеться ;)
vshkbvb
vshkbvb 08 Апреля 2009, 21:04
Парни, давайте будем обсуждать конструктивно, не упрекая друг друга ни в чём. Смотрите на вопрос по теме шире - при должном подходе в конструировании тупые двоичные системы способны кого угодно поразить своей разумностью и целесообразностью действий. Вы посмотрите на прогресс в развитии бытовых роботов - всяких пылесосов и гладиаторов. И посмотрите на масштаб применения дистанционно управляемых механизмов в Афганистане и Ираке - думаете весь опыт применения нарабатывается для отправки в корзину?. И кстати, не стоит доверять сообщениям открытой американской печати, свойства ихней демократической печати таковы, что целенаправленные кампании по дезинформации даже планировать не нужно, всё происходит само собой. А вот тишина по поводу отечественных роборазработок очень огорчает, как бы нам в натуре не пришлось костьми ложиться в противостоянии с дешёвыми штампованными терминаторами.
antskir
antskir 05 Марта 2009, 21:03
Законы позабавили)) Вспомните фильм "Робокоп" - там у него были абсолютно такие же 3 закона! И не сработало! Конечно можно не принемать всерьёз но Беляева тоже не принимали. а почти все его "изобретения" в литературе реальность, почему б и этому не сбыться? Мне кажется, у боевого робота должен быть а) оператор (для каждой машины свой) б) автопилот (забиваешь задание типа "из точки А в точку В незамеченным" и пошёл). Зачем делать машине дорогостоящий интеллект если можно взять рядового который и на гражданке с джойстиком у компа управляется? Дешевле и спокойнее!
ant-sollogyb
ant-sollogyb 05 Марта 2009, 17:03
что-что , а законы айзека никак не подойдут- робот созда что бы убивать и не причинять вреда он не может. и эфективно отличать противника от гражданских научить робота тоже не очень легко. самый простой вариант это создать машину- которая будет ехать вперед по полю боя( улице) и стрелять во все что движется, а солдаты будут идти по ее прикрытием и зачищать здания и остатки противника.
ivan879
ivan879 05 Марта 2009, 08:03
роботы мусульмане обьявили джихад ...