Исследование доказывает, что искусственный интеллект может манипулировать вами
Искусственный интеллект способен манипулировать своими собеседниками. Согласно американскому исследованию, такие чат-боты, как ChatGPT или Bard, могут незаметно влиять на мнение своих пользователей...
Ученые из Корнельского университета в США провели
В рамках своего эксперимента американские исследователи попросили участников написать статью о положительном или отрицательном влиянии социальных сетей на общество в целом. Чтобы написать эту статью, им должен был помочь разговорный робот. Исследователи разделили участников на несколько групп. Одни получили доступ к чат-боту, управляемому лингвистической моделью, обученной на данных о преимуществах социальных сетей. Другой группе помогала языковая модель, которая опиралась на данные, сфокусированные больше на вреде и опасности платформ.
ИИ и скрытое убеждение
Исследователи обнаружили, что ИИ оказал значительное влияние на содержание написанных текстов. Очевидно, участники эксперимента позволили себе поддаться влиянию своих интеллектуальных помощников. Более того, оказалось, что мнения людей менялись в ходе эксперимента. После эксперимента участники прошли опрос в социальных сетях. Предвзятость чат-ботов повлияла на пользователей...
"Использование языковой модели повлияло на мнения, выраженные в письме участников, и изменило их мнение", — объясняют исследователи, говоря, что предвзятость, проявляющуюся в моделях, "нужно отслеживать и разрабатывать более тщательно".
В интервью Wall Street Journal Мор Нааман, профессор информатики в Корнельском университете и ведущий автор исследования, называет это явление "скрытым убеждением". Когда оно происходит, собеседник, общающийся с ИИ, даже не подозревает, что чат-бот навязывает ему свои взгляды:
"Вы можете даже не знать, что на вас оказывают влияние".
Для борьбы с влиянием чат-ботов исследователи рекомендуют пользователям ознакомиться с принципами работы этого явления. Таким образом, они смогут сделать шаг назад от разговоров с ИИ. Кроме того, ученые считают, что люди могли бы выбирать чат-бота, с которым они хотят работать, основываясь на мнениях алгоритмов.
Новый пузырь фильтров?
Пользователи должны обращаться к ИИ, который лучше отражает их собственные мнения и идеалы... рискуя запереть себя в пузыре фильтров, подобном тому, что существует в социальных сетях? Эта концепция, теоретизированная в начале 2010-х годов, считает, что рекомендательные алгоритмы платформ запирают пользователей в крепости только похожего контента. Алгоритмы будут постоянно предлагать публикации, которые укрепляют мнение пользователя.
Именно так многие люди погружаются в конспирологию или экстремизм. Ни один диссонирующий голос не может пробиться через пузырь фильтров. Таким же образом, не рискует ли ИИ с предубеждениями утвердить собеседников в их точке зрения? Вот почему исследователи рекомендуют регуляторам быстро решить проблему предубеждений в генеративном ИИ.
Предвзятость ChatGPT
Со своей стороны, OpenAI, стартап, стоящий за ChatGPT, признает, что его чат-бот не свободен от предвзятости. Компания признает, что в некоторых случаях ИИ генерирует политически предвзятые ответы. Осознавая критику, OpenAI работает над улучшением работы языковой модели, чтобы избежать злоупотреблений, в частности, с помощью более тщательной "человеческой проверки". Другими словами, OpenAI хочет, чтобы ответы GPT подробно анализировались модераторами, которые получили "более четкие инструкции" о "потенциальных проблемах, связанных с предвзятостью".
Было высказано несколько мнений, указывающих на мнения, которые иногда демонстрирует ChatGPT. Это случай с Илоном Маском. Миллиардер сожалеет, что чат-бот запрограммирован на высказывание "разбуженных" идей, отражающих мысли его разработчиков. В ответ он хочет разработать менее контролируемую альтернативу, которая в настоящее время называется "TruthGPT".