Искусственный интеллект

Google предупреждает о риске утечки данных: Не доверяйте искусственному интеллекту Bard


Google только что выпустил предупреждение для своих сотрудников. Поисковый гигант советует своим сотрудникам, особенно разработчикам, не доверять искусственному интеллекту Bard никаких секретов... Компания опасается утечки конфиденциальных данных.

Все больше компаний запрещают своим сотрудникам использовать искусственный интеллект в процессе работы. Это относится и к Apple, которая просит своих сотрудников не обращаться за помощью к чат-боту, и к Samsung, которая даже угрожает увольнением сотрудникам, нарушившим это правило. Оба производителя опасаются, что конфиденциальная информация, предоставленная чат-боту, такому как ChatGPT, Google Bard или Bing Chat, будет автоматически поглощена лингвистической моделью. Эти ценные данные могут оказаться в руках конкурентов или злоумышленников.

У Google, одной из компаний, участвующих в гонке ИИ, схожие опасения. Согласно источникам, опрошенным Reuters, поисковый гигант недавно предупредил своих сотрудников о чат-ботах. Компания прямо просит своих сотрудников не предоставлять конфиденциальную информацию ИИ… даже если это Bard, ее собственный чат-бот. В меморандуме, опубликованном 1 июня, Google прямо советует своим сотрудникам не доверять секреты ИИ:

"Не включайте конфиденциальную или секретную информацию в разговоры с Bard".

В частности, компания попросила своих разработчиков не использовать компьютерный код, сгенерированный Bard, как есть. Отвечая на вопрос Reuters, Google считает, что чат-бот может "предлагать нежелательный код". Тем не менее после последнего обновления компания без колебаний представила свой ИИ в качестве помощника по кодированию. Google отмечает, что, несмотря на свои недостатки, когда дело доходит до написания кода, Bard остается хорошим помощником для разработчиков. Кроме того, Bard по-прежнему можно использовать для анализа существующего кода и поиска ошибок.

Как и ChatGPT или Bing Chat, Bard, скорее всего, будет поглощать данные, предоставляемые собеседниками. Эта информация, которая может быть конфиденциальной, затем хранится в горе данных, которая питает лингвистическую модель, лежащую в основе Bard, PaLM 2. После поглощения эти данные теоретически могут быть раскрыты во время разговора с другим пользователем. Как объяснил в апреле прошлого года генеральный директор Google Сундар Пичаи, модели ИИ остаются "черным ящиком", принципы работы которого до сих пор неясны.

Подпишитесь на нас: Дзен.Новости / Вконтакте / Telegram
Back to top button