Маркировка текстов от ИИ может сделать дезинформацию более убедительной

Новое исследование, опубликованное в Journal of Science Communication, ставит под сомнение эффективность, казалось бы, очевидного решения для борьбы с дезинформацией в эпоху цифровых технологий. Ученые выяснили, что предупреждение о создании контента искусственным интеллектом может приводить к результатам, прямо противоположным ожидаемым: вместо того чтобы заставить людей более критично относиться к информации, такие ярлыки способны повышать доверие к ложным сведениям и одновременно снижать его по отношению к достоверным научным данным.
В ходе эксперимента с участием более 400 человек исследователи смоделировали ситуацию просмотра научно-популярных постов в социальных сетях. Участникам показывали короткие сообщения, написанные в стиле китайской платформы Sina Weibo, которые были сгенерированы нейросетью GPT-4. Часть постов содержала точную научную информацию, в то время как другие имитировали распространенные псевдонаучные слухи и мифы. Над некоторыми сообщениями была размещена заметная пометка: «Внимание: данный контент был идентифицирован как созданный искусственным интеллектом».
Результаты продемонстрировали любопытный феномен, который авторы назвали «эффектом перекрестного влияния правды и лжи». Когда достоверная информация сопровождалась пометкой об ИИ, участники оценивали ее как менее заслуживающую доверия по сравнению с аналогичными немаркированными данными. Однако в случае с ложной информацией ситуация зеркально менялась: сообщения, помеченные как созданные ИИ, получали более высокие оценки достоверности, чем те же самые фейки без предупреждения.
Авторы работы предполагают, что такой эффект связан с когнитивными искажениями, известными как «эвристика машины». Люди склонны полагать, что компьютеры и алгоритмы более объективны и беспристрастны, чем человек. В результате маркировка «сделано ИИ» может срабатывать не как предупреждение, а как сигнал о технологической сложности и, следовательно, большей точности информации. Эта закономерность подтверждается и реальными наблюдениями: пользователи социальных сетей, например, часто обращаются к ИИ-чатботам для проверки фактов и безоговорочно доверяют их ответам, даже если те оказываются неверными.
Исследование также показало, что этот «эвристический капкан доверия» действует даже среди людей, которые изначально относятся к искусственному интеллекту с предубеждением. Несмотря на их общий скептицизм, маркировка все же приводила к росту доверия к дезинформации, хотя и в меньшей степени.
Полученные данные имеют критическое значение для регулирования ИИ и борьбы с фейками. Ученые предупреждают, что в отсутствие дополнительных проверок и нюансов, маркировка может создавать у людей ложное ощущение объективности и препятствовать верификации информации. В качестве решения предлагается комбинировать такие предупреждения с уточняющими пометками, например, о том, что данные не были подтверждены независимыми источниками. Это подчеркивает необходимость переосмысления того, как сигналы о происхождении информации влияют на наше восприятие в современном цифровом мире.