Специалисты Google опубликовали исследование о разрушении интернета искусственным интеллектом
Группа исследователей Google опубликовала исследование, в котором рассказывается о том, как искусственный интеллект разрушает интернет, распространяя ложную информацию, что выглядит почти иронично, учитывая участие компании в развитии этой технологии. Доступность и литературный или визуальный уровень контента, генерируемого ИИ, открыли путь к новым формам злоупотреблений или способствовали распространению уже имеющихся практик, еще больше размывая грань между правдой и ложью.
С момента своего появления в 2022 году генеративный ИИ открыл множество возможностей для ускорения развития во многих областях. Сегодня инструменты ИИ обладают широкими возможностями: от сложного аудиовизуального анализа (через понимание естественного языка) до математических рассуждений и создания реалистичных изображений. Такая универсальность позволила внедрить технологию в такие важные отрасли, как здравоохранение, государственные службы и научные исследования.
Однако по мере развития технологии все большее беспокойство вызывают риски неправомерного использования. Одним из таких случаев является распространение дезинформации, которая сегодня заполонила интернет. Недавний анализ, проведенный компанией Google, показал, что ИИ в настоящее время является основным источником дезинформации на основе изображений. Это явление усугубляется возросшей доступностью инструмента, позволяющего любому человеку генерировать любой контент с минимальными техническими знаниями.
Однако, несмотря на то, что предыдущие исследования содержат ценную информацию об угрозах, связанных с неправомерным использованием ИИ, они не дают точного указания на различные стратегии, которые могут быть использованы в этих целях. Другими словами, мы не знаем, какую тактику используют злоумышленники для распространения ложной информации. Поскольку технологии становятся все более мощными, очень важно понимать, как проявляется злоупотребление.
В новом исследовании, проведенном командой Google, освещаются различные стратегии, используемые для распространения ложной информации, созданной искусственным интеллектом, в Интернете. "Благодаря этому анализу мы выделяем ключевые и возникающие модели неправомерного использования, включая потенциальные мотивы, стратегии и то, как злоумышленники используют и злоупотребляют возможностями системы в различных формах (например, изображения, текст, аудио, видео)", — объясняют исследователи в своей работе, предварительно опубликованной на платформе
Злоупотребления, не требующие глубоких технических знаний
Исследователи проанализировали 200 сообщений СМИ о случаях неправомерного использования ИИ в период с января 2023 по март 2024 года. На основе этого анализа были выявлены ключевые тенденции, лежащие в основе такого использования, включая способ и мотивацию, с которой пользователи применяют инструмент в неконтролируемой среде (то есть в реальной жизни). В анализ были включены изображения, текст, аудио- и видеоконтент.
Исследователи обнаружили, что наиболее частыми случаями злоупотреблений являются ложные изображения людей и фальсификация доказательств. Большая часть этого ложного контента распространяется с явным намерением повлиять на общественное мнение, облегчить мошеннические действия (или аферы) и получить прибыль. С другой стороны, большинство случаев (9 из 10) не требуют глубоких технических знаний, а больше полагаются на (легко эксплуатируемые) возможности инструментов.
Интересно отметить, что злоупотребления не являются явно вредоносными, но, тем не менее, потенциально опасными. "Возросшая сложность, доступность и распространенность инструментов генеративного ИИ, по-видимому, приводит к появлению новых форм злоупотреблений низшего уровня, которые не являются ни явным вредоносным действием, ни явным нарушением условий использования этих инструментов, но все же имеют тревожные этические последствия", — говорят эксперты.
Этот вывод говорит о том, что, хотя большинство инструментов ИИ имеют этические условия безопасности, пользователи находят способы обойти их с помощью разумно сформулированных подсказок. По мнению команды, это новая и развивающаяся форма коммуникации, направленная на размывание границ между достоверной и ложной информацией. Последняя в основном направлена на политическую осведомленность и саморекламу. Это чревато ростом недоверия общества к цифровой информации и перегрузкой пользователей задачами проверки.
С другой стороны, пользователи могут обойти эти меры безопасности и другими способами. Например, если нет возможности ввести подсказку, явно содержащую имя знаменитости, пользователи могут загрузить фотографию из поисковой системы, а затем изменить ее по своему усмотрению, вставив в качестве ссылки в инструмент искусственного интеллекта.
Однако использование данных только из СМИ ограничивает масштаб исследования, говорят исследователи. Ведь эти организации, как правило, фокусируются только на конкретной информации, которая может заинтересовать их целевую аудиторию, что может внести предвзятость в анализ. Кроме того, в документе, как ни странно, не упоминается ни одного случая злоупотребления инструментами искусственного интеллекта, разработанными Google...
Тем не менее, полученные результаты позволяют понять степень влияния технологий на качество цифровой информации. По мнению исследователей, это подчеркивает необходимость многостороннего подхода к снижению рисков злонамеренного использования технологий.