Искусственный интеллект

Можно ли доверять ChatGPT или ChatGPT лжет?

Сегодня на ChatGPT полагаются миллионы людей как на полезный ресурс, будь то работа, развлечения или образование. Но можете ли вы положиться на этот чат-бот с искусственным интеллектом, который всегда предоставляет факты? Может ли ChatGPT когда-нибудь солгать, или он предоставит вам только фактическую информацию?

Откуда ChatGPT берет информацию?

В период обучения ChatGPT получал данные из таких источников в Интернете, как правительственные и ведомственные сайты, научные журналы, исследования, новостные статьи, подкасты, онлайн-форумы, книги, базы данных, фильмы, документальные фильмы и социальные сети.

В частности, ChatGPT-3 обучался с использованием обширной базы информации, объем которой составил 570 ГБ данных. Как говорится в статье из Science Focus, во время разработки системы GPT-3 в нее было загружено 300 миллиардов слов информации.

Стоит отметить, что ChatGPT были переданы только те данные, которые существовали до 2021 года. Это означает, что чат-бот не может отвечать на вопросы, связанные с недавними событиями. ChatGPT также не имеет доступа к Интернету. Данные, которые ему были предоставлены в процессе обучения, — это единственное, что он использует для выполнения подсказок пользователя.

Но предоставляет ли ChatGPT только факты, или в его ответы подмешивается какая-то более двусмысленная информация? Кроме того, может ли ChatGPT лгать вам?

Лжет ли ChatGPT?

Хотя ChatGPT часто предоставляет пользователям правдивую информацию, у него есть возможность "лгать". Конечно, ChatGPT не решает злонамеренно обманывать пользователей, поскольку он просто не может этого сделать. В конце концов, ChatGPT - это инструмент обработки языка, а не имитация реального, разумного человека.

Однако технически ChatGPT все же может лгать посредством явления, известного как галлюцинация ИИ.

ИИ-галлюцинация подразумевает предоставление системой ИИ информации, которая кажется разумной или правдоподобной, но на самом деле совсем не соответствует действительности. Фактически, галлюцинация ИИ может предоставлять информацию, которую ему никогда не давали в период обучения. Или же это может произойти, когда система ИИ предоставляет информацию, не связанную с запросом или подсказкой. В случае галлюцинации система ИИ может даже выдавать себя за человека.

Системы ИИ, такие как чат-боты, попадают в ловушку галлюцинаций по нескольким причинам: отсутствие понимания реального мира, ошибки в программном обеспечении и ограничения на предоставляемые данные.

Как уже говорилось ранее, ChatGPT может предоставлять информацию, используя только данные, опубликованные до 2021 года, что, безусловно, ограничивает количество подсказок, которые он может выполнить.

Одной из главных проблем ChatGPT является то, что он также может стать жертвой предвзятости при предоставлении информации пользователям. Даже создатели ChatGPT заявили, что в прошлом система искусственного интеллекта была "политически предвзятой, оскорбительной" и "нежелательной в других отношениях". Как сообщает The Independent, разработчики ChatGPT намерены решить эту проблему, но это не значит, что она больше не представляет опасности.

В ответ на вопрос ChatGPT заявил, что причины, по которым он может предоставлять неточную информацию, следующие:

  • Неоднозначность вопроса (расплывчатые, неясные подсказки);
  • Неполнота предоставленной информации;
  • Предвзятая или неверная информация; или,
  • Технические ограничения (в основном из-за отсутствия доступа к текущим данным).

Таким образом, сам ChatGPT заявил, что существуют сценарии, в которых он не сможет предоставить пользователям точную информацию.

В другом ответе в том же разговоре ChatGPT заявил, что "всегда полезно проверять любую информацию [которую он предоставляет] с помощью других источников".

Можно ли доверять ChatGPT?

Поскольку он может предоставлять ложную информацию, вы не можете доверять ChatGPT на 100%.

Вы можете снизить риск галлюцинаций чат-бота ИИ, задав определенные параметры того, как он может вам отвечать. Однако все равно нет гарантии, что какая-то ложная информация не проскользнет сквозь щели.

Поэтому лучше всего проверять любую информацию, которую выдает ChatGPT, особенно если вы запрашиваете информацию о недавних событиях. Двойная проверка этих данных путем обращения к другим источникам поможет вам определить, прав ли ChatGPT в том, что он говорит, и может уберечь вас от принятия непродуманных решений.

ChatGPT полезен, но не всегда правдив

К сожалению, нельзя полагаться на то, что ChatGPT будет предоставлять правдивую, беспристрастную информацию в 100% случаев. Этот чат-бот с искусственным интеллектом, несомненно, полезен и может помочь вам различными способами, но всегда стоит проверять, является ли предоставляемая им информация фактической.

Читайте все последние новости искусственного интеллекта на New-Science.ru
Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости
Back to top button