Искусственный интеллект

ИИ и вымирание человечества: OpenAI и Google Deepmind бьют тревогу


Искусственный интеллект рискует привести к вымиранию человечества. Так говорится в письме, подписанном более чем 350 экспертами в области ИИ, включая руководителей OpenAI, Google Deepmind и Anthropic. Вместо моратория они призывают принять меры по смягчению последствий, такие как регулирование...

Искусственный интеллект продолжает вызывать опасения у экспертов. Во вторник, 30 мая 2023 года, Центр безопасности ИИ, некоммерческая организация из США, опубликовала письмо, призывающее принять меры по снижению рисков, связанных с ИИ.

ИИ - приоритет

По мнению организации, эта технология представляет "риск вымирания" для человечества. Фактически, Центр безопасности ИИ считает необходимым сделать ИИ "глобальным приоритетом наряду с другими общественными рисками, такими как пандемии и ядерная война". По аналогии с болезнями или атомным конфликтом, ИИ может положить конец человеческому роду, говорится в заявлении.

"Бывает трудно выразить озабоченность некоторыми из наиболее серьезных рисков продвинутого ИИ", — говорит Центр безопасности ИИ, подчеркивая, что заявление направлено на то, чтобы "преодолеть этот барьер и открыть дискуссию".

Письмо подписали ряд ведущих деятелей отрасли, включая Сэма Альтмана, генерального директора и соучредителя OpenAI, стартапа, стоящего за популярной программой ChatGPT, и Демиса Хассабиса, главу Deepmind, дочерней компании Google по ИИ. Среди участников также Дарио Амодеи, руководитель компании Anthropic, разработавшей чат-бота Claude, и Джеффри Хинтон и Йошуа Бенгио, два исследователя, считающиеся крестными отцами современного ИИ благодаря своей работе над глубоким обучением и нейронными сетями.

В общей сложности пресс-релиз подписали более 350 руководителей, исследователей и инженеров, специализирующихся на ИИ. В интервью газете New York Times Дэн Хендрикс, исполнительный директор Центра безопасности ИИ, считает, что письмо позволяет некоторым экспертам и руководителям публично выразить свои опасения. Заявление очень краткое, и его главная цель - объединить как можно больше людей.

"Существует распространенное заблуждение, даже в сообществе ИИ, что существует лишь горстка "думеров" (примечание редактора: человек, чрезмерно обеспокоенный о конце человечества)", которые испытывают опасения, объясняет Дэн Хендрикс.

Мораторий против регулирования

Это не первая инициатива, объединяющая экспертов, обеспокоенных проблемой искусственного интеллекта. В марте тысячи людей, в том числе ведущие технологические деятели, такие как Илон Маск и Стив Возняк, призвали к мораторию в открытом письме. Письмо призывало все мировые исследовательские центры приостановить исследования "систем искусственного интеллекта, более мощных, чем GPT-4", новейшей языковой модели, лежащей в основе ChatGPT.

В более умеренном письме, опубликованном Центром безопасности ИИ, приводится больше аргументов в пользу мер по смягчению последствий. По мнению Сэма Альтмана, путь вперед для ИИ лежит через регулирование. Выступая в Сенате США, он говорил о создании федерального агентства, полностью посвященного надзору за ИИ. Это агентство будет отвечать за выдачу лицензий компаниям, разрабатывающим лингвистические модели. Альтман также выступил перед Джо Байденом, президентом США.

После этого глава OpenAI вылетел в Европу для переговоров с правительствами. Находясь во Франции, глава OpenAI на прошлой неделе встретился с Эммануэлем Макроном. В своих переговорах с французским президентом Сэм Альтман отстаивал нюансированный подход, который снижает риски, не подавляя инновации.

Как напоминает американский предприниматель, ИИ может оказать положительное влияние на человечество. Как и Сэм Альтман, Билл Гейтс, прославленный соучредитель Microsoft, считает, что искусственный интеллект "может быть использован в полезных целях", в частности, для борьбы с глобальным потеплением, сокращения неравенства и улучшения образования для наиболее обездоленных слоев населения.

Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости
Back to top button