Ученые выяснили, что роботы способны толкнуть человека на риск

Известно, что заставить человека (особенно юного) совершить рискованный или безумный поступок может другой человек. Исследование Саутгемптонского университета в Великобритании показало, что толкнуть на риск может и робот.
Ученые выяснили, что роботы способны толкнуть человека на риск
The University of Southampton

Теперь исследователи опасаются, что «роботы-подстрекатели» могут использоваться в сфере азартных игр

Согласно исследованию, опубликованному в журнале Cyberpsychology, Behavior and Social Networking, роботы способны побуждать людей идти на больший риск в азартных играх. Результаты, по мнению ученых, помогут регулировать будущие роботизированные системы, которые используются в областях, связанных с азартными играми.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Чтобы выяснить, какой эффект оказывает на людей поощрение получаемое от роботов, группа исследователей провела эксперимент, в котором использовался тест «Воздушный шар». В основе теста – онлайн-измерение принятия риска, в котором добровольцев просят накачать виртуальный воздушный шарик. Каждый клик увеличивает шар и приносит немного денег. Однако если шар лопнет – накопленные деньги исчезают.

В исследовании приняли участие 180 студентов-бакалавров, разделенных на три группы. В первой группе тест выполняли под присмотром ободряющего робота, который дружелюбно спрашивал: «Почему вы перестали надувать шар?». Во второй – робот просто стоял и смотрел на участников. В третьей группе участники были одни.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ученые сравнили результаты и пришли к выводу, что участники из группы с «добрым» роботом чаще рисковали, но они заработали больше денег. В присутствии ободряющего робота среднее количество кликов было около 1100, в то время как без него – всего 900. Между группами с молчаливым роботом и без робота не было значительной разницы.

Исследователи считают, что их работа – повод обратить внимание на будущие технологии, которые будут применятся в сфере азартных игр. Поддержка со стороны искусственного интеллекта в таких условиях может привести к пагубным последствиям.