Искусственный интеллект

Исследователь Google DeepMind доказал, что искусственный интеллект никогда не обретет сознание

Ведущий исследователь компании Google DeepMind Александр Лерхнер в своем недавнем научном труде пришел к однозначному выводу: искусственный интеллект, как и любая другая компьютерная система, никогда не сможет стать сознательным. Это заявление выглядит особенно показательным на фоне активного продвижения руководителями технологической индустрии идеи о скором появлении искусственного общего интеллекта (ИИ общего назначения), который якобы сможет сравниться с человеческим сознанием.

В последнее время большие языковые модели продемонстрировали столь впечатляющие результаты, что вопрос о возможности развития у них некой формы сознания стал активно возникать как в научной среде, так и в общественных дискуссиях. Стремительный рост вычислительных мощностей наводил на мысль, что со временем ИИ может стать достаточно сложным для развития комплексного поведения, традиционно считающегося уникальной чертой человека. Сам Илья Суцкевер, сооснователь и бывший научный руководитель OpenAI, еще в 2022 году допустил, что «крупные современные нейронные сети могут быть слегка сознательными». Руководители компаний, занятых разработками в сфере ИИ, активно используют эту гипотетическую возможность для привлечения инвестиций под концепцию ИИ общего назначения, сулящую глобальную социально-экономическую революцию. Кроме того, сама идея сознательного ИИ породила серьезные дискуссии о вопросах благополучия и моральной ответственности по отношению к таким технологиям.

Тем не менее, гипотеза о сознательном ИИ остается крайне спорной. Ряд исследований уже указывал на то, что математические алгоритмы, реализованные на графических процессорах, не способны развить сознание из-за отсутствия у них сложного биологического субстрата. Однако их продвинутые лингвистические способности, предназначенные для точного подражания человеческой речи, могут легко вводить в заблуждение относительно их реальной природы. Именно эту позицию и усиливает своей работой Александр Лерхнер из Google DeepMind. В своей статье, опубликованной на внутреннем сервере компании, он пишет, что функционализм, доминирующий в современных дебатах о сознании ИИ, получает от него физически обоснованное опровержение, позволяющее снять текущую неопределенность вокруг этого вопроса.

Функционализм — это гипотеза, согласно которой субъективный опыт, лежащий в основе сознания, может возникать из абстрактной причинно-следственной топологии вне зависимости от конкретного физического носителя. Лерхнер решительно отвергает этот подход, утверждая, что любая система ИИ по своей природе зависит от активного когнитивного агента — человека-разработчика, который получает и организует последовательности идей и данных. Сама по себе такая система не способна развить сложное поведение, подобное сознанию. Простыми словами, исследователь настаивает на том, что существование сознания невозможно без сложного физического тела, живого организма.

Профессор когнитивной информатики Лондонского университета Марк Бишоп, комментируя выводы Лерхнера, заявил, что разделяет 99 процентов его идей, отметив при этом, что все подобные аргументы уже были представлены много лет назад. В свою очередь, биолог и философ Йоханнес Йегер высказался более критично, предположив, что исследователь пришел к этим выводам самостоятельно, «переизобрел колесо» и демонстрирует недостаточную осведомленность в философских вопросах и биологии. Йегер связал это с относительной закрытостью исследовательского сообщества в сфере ИИ, которое сосредоточено на узких областях и работает в условиях высокого давления без достаточного времени для изучения смежных дисциплин.

Оба эксперта, однако, сошлись во мнении, что сам факт публикации такого исследования сотрудником Google DeepMind является положительным, хотя и выглядит удивительным на фоне одобрения его работодателем. Марк Бишоп предположил, что у Google могут быть веские финансовые и законодательные причины для поддержки вывода о неспособности вычислений породить сознание. По его словам, если бы обратное было правдой, то в Европе уже предпринимались попытки принять закон, предоставляющий права компьютерным системам, что выглядит абсурдно. Соответственно, Google будет весьма рад, если его системы не будут считаться сознательными, поскольку это снижает риск дополнительного законодательного регулирования в США и других странах мира. При этом в самом исследовании Лерхнера содержится примечание о том, что сделанные выводы могут не отражать официальную позицию, мнение или стратегическую политику его работодателя.

Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости / MAX
Back to top button