РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Алгоритмы Facebook против жестокого контента сбоят: они не видят разницу между видео петушиных боёв и автокатастроф

Технология, которая помогает социальной сети Facebook обнаруживать насилие, грубые высказывания (hate speech) и жестокий контент, не настолько хороша, как обещали представители Facebook. Инженеры компании заявляют, что искусственный интеллект показал себя недостаточно эффективным.
Тэги:
Алгоритмы Facebook против жестокого контента сбоят: они не видят разницу между видео петушиных боёв и автокатастроф

«Проблема в том, что мы не можем и, вероятно, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах», — сообщил сотрудник Facebook.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Издание Wall Street Journal сообщает, что алгоритмы Facebook не всегда могут обнаружить расистские высказывания и видео от лица зачинщиков стрельбы. В качестве примера приводится ситуация, в которой искусственный интеллект не смог отличить видео петушиных боёв от записи автокатастроф. 

«Проблема в том, что мы не можем и, вероятно, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах», — сообщил сотрудник Facebook в середине 2019 года.

В июле 2021 года тренер волгоградского футбольного клуба «Ротор» Дмитрий Хохлов подал в суд на корпорацию Facebook. Из-за неразборчивости искусственного интеллекта социальной сети любые посты, в которых упоминалась фамилия тренера, удалялись, а их авторы блокировались на неделю. Дело в том, что соцсеть распознаёт фамилию Хохлова как оскорбление украинцев. С 2015 года Facebook блокирует аккаунты русскоязычных пользователей, употребляющих слово «хохол» и его производные в своих записях. По мнению администрации соцсети, такое наименование сопоставимо по градусу неполиткорректности со словом «ниггер» в адрес чернокожих людей.

Загрузка статьи...