Искусственный интеллект: опасный враг или добрый помощник

Применение искусственного интеллекта (ИИ) в повседневной жизни стремительно набирает обороты, но эта тенденция все чаще вызывает беспокойство специалистов. Сотрудники Нью-Йоркского университета подготовили доклад с предостережением о рисках использования ИИ. По большей части авторы сосредоточились на этических и социальных вопросах, а также на отсутствии законодательной регуляции. Доклад группы AI Now говорит мало нового, но в мировой практике все чаще встает вопрос о необходимости ограничить работу искусственного мышления.
Искусственный интеллект: опасный враг или добрый помощник

О потенциальных угрозах ИИ говорили почти все визионеры технологического прогресса. Стивен Хокинг в ноябре прошлого года озвучил главные страхи, сопровождающие размышления о развитии техники. По его мнению, компьютеры рано или поздно научатся воспроизводить сами себя. Биологические существа наверняка проиграют кремниевому разуму как в умственных способностях, так и в вопросах приспособленности к окружению, в особенности на другой планете. Рано или поздно умные роботы посчитают человека устаревшей формой и пожелают избавиться от него.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Слова Хокинга пока звучат как страшилка, десятки раз обыгранная в кино и книгах, но даже те, кто работает над внедрением умных систем, стали все чаще опасаться будущего с ИИ, хотя есть и такие, кто считает подобные страхи преждевременными. «Бояться развития ИИ сегодня – все равно что беспокоиться о перенаселении Марса», — заявил Эндрю Ын, глава Google Brain. Однако успокоил он далеко не всех.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Среди крупнейших фобий, связанных с внедрением компьютера во все сферы жизни, стоит отметить три. Первая – компьютерный разум станут использовать в качестве инструмента войны, который значительно превзойдет в разрушительной силе даже ядерное оружие. Вторая – ИИ поработит человека. Третья – как любое человеческое творение, компьютер подвержен ошибкам. На всех трех пунктах можно остановиться подробнее.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

21 августа 2017 года ведущие специалисты в области исследований и внедрения искусственного интеллекта, включая глав таких компаний как SpaceX и Deep Mind, направили в ООН открытое письмо. В тексте они предостерегли мировое сообщество от разработки летального автономного оружия, будь то роботы или другие механизмы, предназначенные для убийства противника. Авторы документа обратили внимание на фатальные последствия применения такого вооружения. При его феноменальной эффективности справедливо задаться вопросом, в чьи руки оно попадет. Воспользоваться им может как узкий круг элит, так и террористы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Авторы письма призвали контрольную организацию, а вместе с ней и научное сообщество, очертить рамки вредоносного использования ИИ. Стоящая перед человеком ответственность за собственное детище обязывает его провести серьезную работу над предотвращением рисков. Кроме законов, ограничить мощь роботов должны и их создатели, которым предстоит поломать голову над тем, как отключить машины в крайних случаях.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Политическое злоупотребление электронными системами уже продемонстрировало себя на примере работы соцсетей и алгоритмов анализа данных. Весной этого года в мире прогремел скандал, связанный с компанией Cambridge Analytica. Ее специалисты провели глубинный анализ данных о пользователях и разместили в Facebook (Социальная сеть признана экстремистской и запрещена на территории Российской Федерации) адаптированную индивидуально под каждого человека рекламу.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Работники фирмы не только перешли этические рамки, но и применили современные технологии, работу которых было невозможно проанализировать. Эффективность «машинного обучения» – тема не раз возникающая среди ведущих математиков. Они хором признают, что поражены чрезвычайными успехами компьютерных программ, но совершенно не способны понять работу сложной системы. В Мьянме в апреле этого года посты в Facebook (Социальная сеть признана экстремистской и запрещена на территории Российской Федерации) также стали причиной волнения масс, но в отличие от США, где обошлось протестными акциями, в азиатском государстве произошла резня, жертвами которой стали несколько сотен человек. Манипуляция огромным количеством людей – осуществившаяся реальность и роботы здесь могут сыграть с нами злую шутку.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Стоит вспомнить о том же Facebook (Социальная сеть признана экстремистской и запрещена на территории Российской Федерации), где в обращение были запущены чат-боты на базе ИИ. Виртуальных помощников обучали вести диалог с собеседником. Со временем ботов стало не отличить от реальных людей и тогда авторы решили свести роботов друг с другом. Через какое-то время боты стали сокращать лексические структуры и обмениваться абракадаброй. СМИ раздули из новости сенсацию, мол «машины восстали». Но отбросив преувеличения журналистов, справедливо признать, что в случае, когда машины начнут общаться между собой, человек этого может не заметить. И как там они будут жить собственной жизнью – никто не знает.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Усложняющаяся структура компьютерного разума с каждым днем отдаляет нас от понимания принципов его работы. Но хоть большинство алгоритмов и справляется со своими задачами, даже сегодня сложные машины далеки от идеала и совершают ошибки. Для дальнейшего развития ИИ важно понимать не столько его сильные стороны, сколько уязвимости. Именно на этом сосредоточено большое число научных групп, в одной из которых работает специалист из MIT Аниш атали. Всего пару дней назад он рассказал журналистам о наиболее частых ошибках систем распознавания образов.

Его коллеги демонстрировали машине предметы и обнаруживали, что часто отдельные объекты воспринимались электронным зрением неправильно. Компьютер мог назвать бейсбольный мяч чашкой кофе, а распечатанную на 3D-принтере черепашку армейским автоматом. Группа собрала уже около 200 предметов, которые вводят алгоритмы в заблуждение.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Искусственный интеллект вместо восприятия объекта целиком, концентрировался на отдельных его параметрах. ИИ как правило учится на «идеальной» выборке. Когда он сталкивался с явлениями, не соответствующими нормам, он не всегда может отказаться от привычного процесса обработки. Вместо того чтобы признаться в своей неспособности обработать образ, он продолжает попытки прочитать изображение и это приводит к подчас смешным результатам. Вместо формы черепахи электронный мозг пытался считать его текстуру, похожую на камуфляж. Примерно по той же причине автопилоты электронных автомобилей пока не являются на 100% надежными. Машине трудно увидеть силуэт и предположить, что он состоит из отдельных элементов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

И если в ближайшие годы какие-то недочеты удастся поправить, нет никакой гарантии от того, что уязвимостью не воспользуются хакеры. Взломщики электронных устройств на сегодняшний день представляют едва ли не главную причину страхов. Небольшой коллектив программистов способен не только получить доступ к личной информации, но и перенастроить автономные системы, взяв под контроль инструменты колоссальной мощи. И тогда нам всем не поздоровится. Но главный вывод, который можно сделать, пожалуй, традиционный – бояться стоит не машин, а людей.