Искусственный интеллект

Что если ИИ может вызвать "смертельную эпидемию"?


В недавнем интервью один из основателей компании DeepMind заявил, что необходимо жесткое регулирование искусственного интеллекта. Он подробно описал наихудший сценарий развития искусственного интеллекта, а именно эксперименты с синтетическими патогенами.

Опасное отсутствие ограничений в отношении искусственного интеллекта

Вокруг искусственного интеллекта существует множество страхов, о чем свидетельствует неоднозначное развитие ChatGPT и других разговорных агентов. Однако один из наиболее пугающих сценариев связан с возможностью того, что однажды более мощные ИИ станут способны манипулировать синтетическими патогенами. О таком сценарии рассказал Мустафа Сулейман, один из основателей DeepMind, в интервью в подкасте для канала The Diary of a CEO.

По словам Мустафы Сулеймана, микробы, созданные ИИ или управляемые им (или с его помощью), могут распространяться быстрее. Они также могут быть более опасными. Поэтому теоретически возможно появление новой смертельной эпидемии в более или менее ближайшем будущем, в зависимости от инноваций, связанных с ИИ, и различных проектов, которые реализуются в настоящее время. "Необходимо ограничить доступ к инструментам и ноу-хау, необходимым для проведения такого рода экспериментов", — сказал он.

Поиск путей ограничения рисков

Тот факт, что ИИ становится все более доступным без каких-либо реальных ограничений, повышает риск его использования злоумышленниками. По мнению Мустафы Сулеймана, было бы разумно ограничить круг лиц, которые могут использовать программное обеспечение ИИ, а также облачные системы и некоторые биологические материалы. Это позволит ограничить риск проведения злоумышленниками экспериментов, которые могут привести к необратимым отклонениям.

13 сентября 2023 года на Капитолийском холме, где располагается Сенат США, пройдет форум по искусственному интеллекту. Помимо Мустафы Сулеймана (DeepMind), в нем примут участие другие ведущие деятели, в том числе Марк Цукерберг (Meta Platforms*), Илон Маск (xAI), Сэм Альтман (OpenAI), Сатья Наделла (Microsoft) и Сундар Пичаи (Alphabet). Помимо прочего, на мероприятии можно будет обсудить бактериологические риски, связанные с ИИ.

В то время как некоторые игроки сектора уже высказали свои опасения по поводу ИИ, другие пока не очень готовы призывать к усилению надзора за ИИ, не в последнюю очередь из-за возможных ограничений на их собственную деятельность.

* Компания Meta – признана экстремистской организацией и запрещена в РФ.

Подпишитесь на нас: Вконтакте / Telegram
Back to top button