Чем человечеству грозит массовое внедрение ИИ-технологий? Спросили у экспертов

Искусственный интеллект постепенно становится частью жизни каждого человека. Но как и любая новая технология, ИИ тоже нуждается в регулировании. А что будет, если компании и государство опоздают с внедрением необходимых норм контроля? В этой статье разберемся вместе с экспертами, какова цена прогресса.
Чем человечеству грозит массовое внедрение ИИ-технологий? Спросили у экспертов
Unsplash

Еще несколько лет назад ИИ считался разработкой далекого будущего, поэтому даже ученые рассуждали о нем исключительно с позиции теории. А о том, какие риски для человека может скрывать машинный разум, чаще задумывались фантасты и сценаристы. Они представляли искусственный интеллект как сверхразумное существо, обладающее собственной волей и взглядами на мораль и человека в целом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В реальности такую машину пока не создали. Зато появились различные версии нейросетей, которые могут выполнять прикладные задачи — обрабатывать Big Data, прогнозировать поведенческие модели клиентов, создавать текстовый и визуальный контент.

Но если раньше эти решения тестировались в основном локально, то с появлением ChatGPT и его аналогов доступ к технологиям ИИ мгновенно получили миллиарды людей. Таким образом, общество еще не успело оценить возможные риски использования нейросетей, но уже сделало их частью повседневной жизни.

Насколько это безопасно? И в чем сейчас состоят основные сложности в использовании ИИ? В этом попробовали разобраться футуролог, кандидат экономических наук, эксперт проекта по усилению интеллекта Augmentek.online Данила Медведев и адвокат, основатель онлайн-сервиса Advostar.online Ильдар Мухаметзянов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Сложности с регулированием

Одна из главных сложностей, которую обнаружили при использовании ИИ, — машинный разум учится и развивается намного быстрее человека. Именно к этому люди могут быть не готовы — так утверждают авторы открытого письма, которое в марте подписали более 1000 экспертов и известных предпринимателей, включая Илона Маска (Tesla, X, Space X), Эвана Шарпа (Pinterest) и Стива Возняка (Apple). В письме утверждается: если возможности ИИ будут сопоставимы с человеческим интеллектом, это может представлять опасность для общества. Эксперты считают, что разработчикам нужно минимум на 6 месяцев приостановить работу над системами мощнее GPT-4, чтобы изучить все риски и разработать протоколы безопасности.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С момента публикации письма прошло полгода, и сейчас можно сказать, что оно дало определенный эффект. Да, компании пока не приостановили свою работу над ИИ, но многие из них как минимум задумались о возможных последствиях.

Например, в июле Open AI (разработчик ChatGPT) даже запустила отдельное подразделение Superalignment. Его цель — создание системы, которая будет отслеживать работу сверхразумного ИИ и предотвращать его выход из-под контроля.

Останется ли ИИ бесконтрольным?

Мнение футуролога

​​​Создание ИИ, уровень мышления которого будет значительно выше, чем у человека, может быть делом достаточно отдаленного будущего. И хотя разработчики из Open AI считают, что это может произойти уже к 2030 году, мы все еще видим, как тот же ChatGPT выдает ложную информацию или справляется с одними и теми же задачами с качественно разным результатом. Все дело в том, что почти все известные на текущий момент нейросети — это фактически чат-боты, у которых есть доступ к определенным массивам данных. Это не ИИ в чистом виде. Машина может обучаться самостоятельно, но она по-прежнему настроена думать так, как ее направляют разработчики.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Именно поэтому в ближайшее время более широкое распространение получит так называемый гибридный интеллект — то есть синтез работы человека и ИИ. Его работу можно легко проследить по самому популярному интерфейсу для взаимодействия людей и машинного разума — чату. Мы пишем какой-то вопрос или задачу, нейросеть выдает ответ, а мы затем корректируем его под себя или просим робота что-то изменить. В любом случае, решение о том, насколько хорошо ИИ справился с задачей, принимает человек. А значит, контроль за действиями машины по-прежнему остается за нами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С точки зрения права

Действительно, сейчас в большинстве случаев ИИ используют в связке с человеком, ведь доверить машине самостоятельную работу на 100% невозможно. Часто у разработчиков просто нет другого выбора — их сдерживают законы. Например, такая ситуация сейчас в сегменте беспилотного транспорта. Согласно Венской конвенции о дорожном движении, которая действует в более чем 80 странах, каждое транспортное средство должно управляться водителем. Государств, которые создают правовую и нормативную базу для автомобилей, полностью пилотируемых ИИ, — меньшинство.

И если говорить глобально, то вопрос контроля работы машинного разума на уровне законодательства пока поднимают мало. Во многом причина в том, что сейчас объем интеграции ИИ в целом не так велик. Искусственный интеллект еще не вошел в жизнь каждого — возможно, поэтому он воспринимается как инструмент, который можно регулировать в рамках существующих норм права.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вторая причина — это ограничения работы самой правовой системы. Дело в том, что законодатели не умеют предсказывать будущее и работать на упреждение. Например, знак «обгон запрещен» часто ставят только после того, как на дороге случится авария. Обычно законы ужесточают в ответ на какие-то негативные события — кражи, человеческие жертвы, техногенные катастрофы и др. Поэтому даже если в будущем кто-то будет пытаться ограничить использование ИИ, это будет скорее реакцией на реальные инциденты с участием искусственного интеллекта.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Человеческий фактор

В формате гибридного интеллекта финальное слово часто остается за человеком. Но в этом, в свою очередь, тоже есть риск — ведь люди могут ошибаться. Например, в США уже было несколько случаев, когда водители беспилотных автомобилей игнорировали неполадки в работе ИИ и в результате попадали в аварии — иногда даже со смертельным исходом.

Сейчас такие инциденты случаются редко, потому что уровень интеграции ИИ не такой большой. Настоящие проблемы могут начаться, если нейросети будут внедрять в инфраструктуру на масштабном уровне, и при этом не будет создано отлаженной системы, которая исключала бы человеческий фактор.

Мнение футуролога

Мы уже видим примеры того, как в разных странах ИИ интегрируют в работу, например, органов власти, и при этом мало кто задумывается о последствиях человеческих ошибок при работе с нейросетями. Так, в апреле 2023 года Конгресс США приобрел 40 лицензий для чат-бота ChatGPT, который будет составлять драфты законопроектов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Какими могут быть последствия ошибок в таком случае, можно представить на примере из другой сферы. Дело в том, что за последние полгода появилось немало случаев, когда недобросовестные ученые использовали нейросети при подготовке текстов научных публикаций и даже не вычитывали их. Удивительно, но подобные статьи и исследования успешно проходили рецензирование и публиковались в авторитетных журналах и СМИ. Если так же будут поступать люди, которые пишут законы, есть риск, что могут пострадать права граждан.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С точки зрения права

Искусственный интеллект еще не обрел собственного сознания. Сейчас он полностью основывается на человеческом опыте. Возможно, в том, что люди отдают часть рутинной работы машине, нет ничего страшного. В конце концов, депутаты вряд ли будут вести себя как студенты, которые копируют рефераты из интернета. В случае необходимости любое утверждение, написанное человеком или ИИ, можно рецензировать и скорректировать.

Тем не менее все-таки стоит рассмотреть вопрос ограничения списка сфер, в которых может найти применение ИИ. По крайней мере, до того момента, пока правовая система и разработчики не придумают юридические и технические методы защиты от человеческого фактора при взаимодействии с нейросетями.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Распространение спама и дезинформации

Еще один риск связан с тем, что ИИ можно использовать в корыстных целях — например, для распространения спама, дезинформации и мошеннических сообщений. В прошлом злоумышленникам приходилось создавать такой контент вручную, но благодаря нейросетям все становится более автоматизированным. Так, ученые из Университета Индианы недавно провели масштабное исследование, в котором выяснили, что в некоторых соцсетях уже работают тысячи спам-ботов на основе технологии ChatGPT. Их используют для привлечения внимания и перенаправления пользователей на криптовалютные сайты.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Кроме того, мощности нейросетей можно задействовать для того, чтобы создавать целые сайты с дезинформацией. Например, в апреле компания NewsGuard нашла более 49 так называемых контент-ферм. Некоторые площадки публикуют в день сотни текстов, написанных нейросетями. Многие сведения — откровенно ложные и созданы специально для того, чтобы на них реагировали люди.

Так, в апреле контент-ферма CelebritiesDeaths опубликовала статью, в которой утверждалось, что президент США Джо Байден умер.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Мнение футуролога

Дело не только в количестве опасного контента, который теперь можно производить с помощью ИИ, но и в его качестве. В прошлом спамеров было проще распознать — их выдавали не только фейк-аккаунты, но и шаблонные фразы. Сегодня нейросеть может создавать правдоподобный текст, очень похожий на человеческий — и все это за считанные секунды.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что касается сайтов с дезинформацией — мы видим, что люди до сих пор верят новости без ссылок на источники, а значит, такие схемы будут эффективными и в будущем. Нетрудно предположить, где еще можно использовать такие возможности нейросетей: не только для мошенничества, но и, например, для провоцирования политических конфликтов, роста социальной напряженности и др.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С точки зрения права

Даже без влияния злоумышленников ИИ может выдавать большие объемы ложных данных — и это может быть небезопасно. В мае этого года широкую известность получила история адвоката Стивена Шварца. Он воспользовался кейсами из судебной практики, которые предоставил ему ChatGPT. Уже в суде выяснилось, что нейросеть просто сгенерировала случайную информацию — реальных судебных постановлений по этим делам даже не существовало. Какое-то время адвокату из Нью-Йорка даже грозила потеря лицензии, но в итоге судьи ограничились штрафом в 5 тысяч долларов.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Конечно, в сфере регулирования ИИ пока еще много пробелов. Тем не менее в правовой системе разных стран уже давно существуют основополагающие термины. Они позволяют находить выход из ситуаций, когда нейросеть выдает ложную информацию, а люди используют эти данные, например, в работе. Или когда кто-то намеренно рассылает спам или дезинформацию. Пока в законе есть понятие вреда, а также его возмещения, мы можем быть относительно спокойны.

В целом проблема контроля и регулирования ИИ требует взвешенного, последовательного подхода.

Сложность в том, что сейчас часть разработчиков ИИ руководствуется не фактами, а скорее громкими лозунгами. Именно такое отношение к рискам, сопровождающим внедрение искусственного интеллекта, потенциально представляет опасность для общества.