Википедия вводит строгие ограничения на применение генеративного искусственного интеллекта в статьях
Википедия сделала решительный шаг в отношении генеративного искусственного интеллекта, установив четкие границы для того, как редакторы могут его использовать. Англоязычная версия платформы теперь запрещает авторам применять большие языковые модели для создания или переписывания содержимого статей. Это решение отражает растущую обеспокоенность по поводу точности, надежности и целостности знаний, формируемых силами сообщества. Данный шаг был сделан в тот момент, когда инструменты искусственного интеллекта стремительно распространяются в повседневных рабочих процессах: от электронных писем до объемных текстов, машинный текст становится все сложнее отличить от написанного человеком, что создает серьезную проблему для платформы, основанной на проверяемой информации.
Согласно новому правилу, редакторы не могут полагаться на искусственный интеллект для создания или значительного переписывания статей Википедии. Платформа утверждает, что такое использование часто вступает в конфликт с ее основными стандартами к содержанию, особенно в отношении проверяемости и источников. Тем не менее, Википедия предусмотрела два узких исключения. Редакторы могут использовать инструменты ИИ для улучшения собственного текста, по аналогии с грамматическими или стилистическими помощниками, но при этом они должны тщательно проверять все изменения перед публикацией. В политике объясняется необходимость осторожности: большие языковые модели могут вносить тонкие искажения, даже когда им даются четкие инструкции, меняя смысл текста так, что он перестает подтверждаться цитируемыми источниками. Кроме того, редакторам разрешено использовать ИИ для перевода. В таких случаях инструмент может создать черновик, но редактор должен свободно владеть обоими языками, проверить точность и исправить любые ошибки до публикации.
Эта политика отражает более широкое сопротивление внутри онлайн-сообществ стремительному расширению сферы применения искусственного интеллекта. Администратор английской Википедии, выступающий под псевдонимом Chaotic Enby, отметил этот шаг частью более масштабного культурного сдвига, выразив надежду, что это может вдохновить на более широкие изменения, расширить возможности сообществ на других платформах и превратиться в массовое движение пользователей, самостоятельно решающих, допустимо ли присутствие ИИ в их сообществах и в какой степени. Они также охарактеризовали эту политику как сопротивление деградации цифровых сервисов и насильственному внедрению ИИ множеством компаний за последние несколько лет.
Путь к этому решению был непростым. Более ранние предложения о введении всеобъемлющих правил в отношении ИИ не смогли получить консенсус. По словам Chaotic Enby, предыдущие предложения о немедленном всеобъемлющем руководстве сообщества по большим языковым моделям провалились из-за типичных сложностей, связанных с решением комплексных масштабных проблем, и хотя консенсус существовал в отношении самой идеи изменений, не было единого мнения о том, как эти изменения реализовать.
Несмотря на новые ограничения, их соблюдение остается сложной задачей. Выявление текста, сгенерированного искусственным интеллектом, далеко от надежности, и Википедия признает, что инструменты обнаружения отстают от стремительно совершенствующихся моделей. Платформа выпустила руководство, помогающее модераторам выявлять машинный контент, но при этом признает, что некоторые авторы-люди могут писать в манере, напоминающей выводы ИИ. Эта неопределенность повышает риск как ложных срабатываний, так и пропуска нарушений. Менее активные страницы сталкиваются с еще большей вероятностью остаться незамеченными в зонах контроля модераторов.
Важно отметить, что Википедия функционирует как сеть независимых сообществ, и политика английской версии не применяется глобально. Другие языковые версии могут принимать иные подходы. Например, испанская Википедия уже ввела более строгое правило, полностью запрещающее использование больших языковых моделей, включая их применение для улучшения текста и перевода. Поскольку искусственный интеллект продолжает развиваться, решение Википедии сигнализирует о осторожном подходе, направленном на защиту доверия к платформе, даже в то время, когда грань между человеческим и машинным текстом становится все более размытой.