ИИ учится «забывать» нежелательные знания, а это не проще, чем запоминать

Исследователи из Техасского университета в Остине разработали метод машинного «забывания», применимый к генеративному искусственному интеллекту, создающему изображения. Новый метод дает возможность находить, блокировать и удалять любые изображения, связанные с насилием или работы, защищенные авторским правом, без потери остальной информации, на которой обучалась модель.
ИИ учится «забывать» нежелательные знания, а это не проще, чем запоминать
Трудная работа забывания. DALLE-3
Для человека умение забывать — не менее важно, чем способность запомнить. Пока ИИ-модели учатся «забывать» информацию, которую считают лишней их разработчики, но, возможно, скоро ИИ сам научится забывать то, что сочтет ненужным. Это могло бы сделать его чуть человечнее.

Исследователи из Техасского университета в Остине разработали метод машинного «забывания», применимый к генеративному искусственному интеллекту, создающему изображения. Новый метод дает возможность понять, активно блокировать и удалять любые изображения, связанные с насилием или работы, защищенные авторским правом, без потери остальной информации, на которой обучалась модель.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Когда люди узнают то, что им не знать следует, заставить их забыть об этой информации может оказаться непросто. Это также верно для быстро развивающихся программ искусственного интеллекта. Это стало проблемой, поскольку модели ИИ начали массово использовать материалы, защищенные авторским правом и персональную конфиденциальную информацию.

Чтобы ответить на эту проблему, исследователи из Техасского университета в Остине разработали, по их мнению, первый метод машинного «раз-обучения», применимый к генеративному искусственному интеллекту, создающему изображения. Новый метод дает возможность понять, активно блокировать и удалять любые изображения, связанные с насилием или работы, защищенные авторским правом, без потери остальной информации в модели.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Когда вы тренируете эти модели на таких огромных наборах данных, вы обязательно зачерпнете и что-то лишнее», — говорит Раду Маркулеску, профессор кафедры электротехники и компьютерной инженерии Университета Техаса, Остин.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Раньше единственным способом удалить проблемный контент было отказаться от всего, вручную извлечь все эти данные и переобучить модель заново. Наш подход дает возможность сделать переобучение, исключающее нежелательные данные, без необходимости начинать все с нуля».

Он слишком много знал

Поиск и удаление защищенных данных из памяти ИИ
Поиск и удаление защищенных данных из памяти ИИ
https://arxiv.org/abs/2402.00351
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Генеративные модели ИИ обучаются в основном на данных из Интернета, поскольку там содержится огромный объем информации. Но помимо личной информации и неприемлемого контента в интернете находятся огромные объемы данных, защищенных авторским правом.

Подчеркивая эту проблему, The New York Times недавно подала в суд на компанию OpenAI, создателя ChatGPT, утверждая, что компания, незаконно использовала статьи The New York Times в качестве обучающих данных.

«Если мы хотим сделать генеративные модели искусственного интеллекта полезными для коммерческих целей, нам необходимо сделать этот шаг — мы должны гарантировать, что мы не нарушаем законы об авторском праве, не злоупотребляем личной информацией и не используем вредоносный контент», — говорит Гуйхун Ли, соавтор работы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Модели «изображение-изображение» являются основным направлением данного исследования. Такая модель берет входное изображение и преобразуют его — например, изменяют конкретную сцену, на основе заданного контекста или инструкции.

Новый алгоритм машинного обучения дает возможность модели ИИ «забывать» или удалять контент, если он специально помечен без необходимости переобучения с нуля. Команда исследователей дополнительно занимается модерацией и удалением контента, обеспечивая дополнительную проверку модели и возможность реагировать на отзывы пользователей.

Машинное «раз-обучение» (или забывание)— это развивающаяся область ИИ, которая в основном применяется к моделям классификации. Эти модели обучены сортировать данные по разным категориям, например, показывает ли изображение собаку или кошку.

Применение машинного «раз-обучение» к генеративным моделям «относительно не исследовано», пишут ученые в статье, особенно когда речь идет об изображениях.