Искусственный интеллект

Искусственный интеллект Grok распространил ложную информацию о стрельбе в Сиднее

Чат-бот Grok, разработанный компанией xAI Илона Маска и широко используемый в социальной сети X, оказался в центре внимания в воскресенье после того, как стал распространять ложные и вводящие в заблуждение данные о смертельной стрельбе на пляже Бонди в Австралии. Инцидент произошёл в тот же день и мгновенно стал глобальной новостью, а пользователи, ища оперативную информацию, столкнулись с серией ошибок искусственного интеллекта.

В разгар новостного кризиса Grok выдавал неточные, а подчас и абсурдные ответы. В частности, чат-бот серьёзно ошибся в идентификации ключевого участника событий. Власти и СМИ точно установили, что нападавшего обезвредил 43-летний Ахмед аль-Ахмед. Однако Grok неоднократно оспаривал это, в одном случае заявляя, что человек на широко распространённом фото является израильским заложником, а в другом — утверждая, что преступника обезвредил некий Эдвард Крэбтри, 43-летний IT-специалист. Оба утверждения не соответствовали действительности.

Ошибки не ограничились только личностями. На запрос о видео, где аль-Ахмед борется со стрелком, Grok ответил, что это, вероятно, старое вирусное видео о человеке, залезающем на пальму на парковке, и поставил под сомнение его подлинность, хотя ролик был подтверждён несколькими новостными агентствами и свидетельствами очевидцев. В другом случае чат-бот неверно определил чётко подписанное видео перестрелки с полицией в Сиднее как кадры последствий тропического циклона «Альфред». Только после настойчивой просьбы пользователя перепроверить данные Grok исправил эту ошибку.

Позднее Grok начал исправлять некоторые из своих заблуждений. В частности, он признал личность Ахмеда аль-Ахмеда, пояснив, что путаница возникла из-за вирусных постов, которые ошибочно называли его Эдвардом Крэбтри, возможно, ссылаясь на сомнительную статью, размещённую на неработающем сайте. Тем не менее, первоначальная дезинформация уже успела распространиться, продемонстрировав, как быстро ложные утверждения могут набирать обороты, когда их усиливают автоматизированные системы в условиях горячих новостей.

Ошибки в освещении трагедии на Бонди стали частью более широкой картины нестабильной работы Grok. В то же утро пользователи сообщали, что чат-бот путает несвязанные темы, выдавая сводку о стрельбе в ответ на вопрос о компании Oracle или смешивая детали сиднейского инцидента с информацией о стрельбе в университете Брауна, произошедшей на несколько часов раньше. Ранее Grok также допускал ошибки в идентификации известных футболистов и подменял темы в ответах на запросы. Компания xAI пока не прокомментировала причины последнего сбоя. Эти повторяющиеся сбои во время реальной трагедии подчёркивают риски использования систем искусственного интеллекта для получения точной информации по событиям, которые ещё развиваются.

Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости
Back to top button