Искусственный интеллект

По мнению генерального директора DeepMind, риски, связанные с искусственным интеллектом, столь же велики, как и риски, связанные с изменением климата


В настоящее время мы находимся на том этапе, когда искусственный интеллект, с одной стороны, прославляется своими достижениями, а с другой — тщательно изучается с точки зрения рисков, которые он представляет. Несмотря на обещание совершить революцию в различных отраслях, эта технология скрывает в себе и темную сторону. В одном из интервью генеральный директор компании DeepMind выразил свою обеспокоенность, призвав к усилению регулирования, "чтобы избежать худшего".

В недавнем интервью газете The Guardian Демис Хассабис, глава DeepMind - специализированного подразделения Google, занимающегося разработкой искусственного интеллекта, — предупредил о необходимости глобального осознания проблем, связанных с ИИ. По мнению британского руководителя, потенциальные опасности, которые может нести в себе эта технология, вызывают не меньшую тревогу, чем те, что связаны с нынешним климатическим кризисом. "Мы должны относиться к рискам, связанным с ИИ, так же серьезно, как и к другим крупным глобальным проблемам, таким как изменение климата", — заявил он, продемонстрировав, какое значение он придает этой теме.

Несмотря на то что ИИ обладает огромным потенциалом для позитивного преобразования различных областей, Хассабис высказал ряд опасений. В частности, он высказал две основные озабоченности, первая из которых связана с потенциальной способностью ИИ способствовать созданию биологического оружия.

Хотя эта технология может ускорить разработку лекарств, она также может быть использована для производства патогенных микроорганизмов или токсинов в военных целях. Позже в интервью Хассабис предупредил о возможности того, что человечество однажды может создать систему, интеллект которой будет намного превосходить наши собственные когнитивные способности.

МГЭИК, ЦЕРН и МАГАТЭ для ИИ

В своем выступлении Хассабис предлагает подход к регулированию и мониторингу индустрии ИИ. Прежде всего, он рекомендует создать международный орган по образцу МГЭИК (Межправительственной группы экспертов по изменению климата). Задачей этого органа будет обеспечение глобального знания об ИИ, централизация текущих исследований в области ИИ и подготовка периодических отчетов о достижениях, рисках и рекомендациях, касающихся этой технологии.

Хассабис также представляет свое долгосрочное видение. Он представляет себе создание структуры, подобной ЦЕРН (Европейскому совету по ядерным исследованиям). Эта структура будет объединять ученых, основной задачей которых станет глубокое изучение последствий применения ИИ, в частности, с точки зрения безопасности.

Наконец, генеральный директор DeepMind выдвинул идею создания международной организации, аналогичной МАГАТЭ (Международному агентству по атомной энергии), в задачи которого входит содействие безопасному использованию ядерной энергии. Хассабис предполагает создание международного органа, уполномоченного следить за тем, чтобы разработки и приложения ИИ соответствовали определенным стандартам и нормам в целях обеспечения глобальной безопасности.

Ощутимое беспокойство по поводу ОИИ

Хассабис признает огромный потенциал будущих систем искусственного интеллекта. По его мнению, они могут произвести революцию в различных областях и предложить инновационные решения сложных проблем. Но в относительно отдаленном будущем (хотя, по его мнению, и не очень отдаленном) он также ожидает появления общего искусственного интеллекта (ОИИ).

В отличие от тех ИИ, которые мы в основном видим сегодня, включая GPT от OpenAI, ОИИ будет способен выполнять любые интеллектуальные задачи, посильные для человека. Другими словами, система, обладающая способностями к рассуждениям, обучению, адаптации и автономности, аналогичными или даже превосходящими наши собственные. И главная проблема ОИИ, по мнению Хассабиса, заключается в том, что она может выйти из-под контроля человека, что чревато опасными последствиями.

По его мнению, даже если до появления настоящего ОИИ еще очень далеко, лучше думать наперед. По его словам, нынешние ИИ "не опасны, но следующие поколения могут стать таковыми, когда у них появятся дополнительные возможности, такие как планирование, долговременная память и прочие".

Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости
Back to top button