Бывший сотрудник OpenAI предупредил об опасности будущего искусственного интеллекта

08 августа в 13:35, Россия/мир
Ашенбреннер требует разработать протоколы защиты от ИИ
Фото: getty images
Фото: getty images
Леопольд Ашенбреннер, бывший ведущий разработчик в компании OpenAI, выпустил обширный документ под названием «Осведомлённость о ситуации: предстоящее десятилетие», в котором подробно излагает своё видение будущего искусственного интеллекта и предостерегает о возможных угрозах, связанных с его стремительным развитием. Об этом пишет «Русская семерка».

По словам Ашенбреннера, человечество находится на пороге создания искусственного общего интеллекта (AGI), который по своим возможностям может стать эквивалентом человеческого разума. Прогнозы разработчика указывают на то, что AGI может стать реальностью уже к 2027 году. Однако с этим достижением связаны серьезные технологические и энергетические проблемы.

В документе Ашенбреннер подчёркивает, что для функционирования AGI потребуется колоссальное количество энергии. Ожидается, что к 2026 году потребности в электроэнергии для ИИ-систем вырастут до 1 ГВт, а к 2028 году — до 10 ГВт. В то время как строительство атомной электростанции мощностью 1 ГВт требует как минимум 10 лет, ускоренное развитие вычислительных мощностей становится первостепенной задачей. Американские компании уже начали инвестировать триллионы долларов в эту сферу, стремясь удовлетворить потребности будущих ИИ-технологий.

Соперничество в области ИИ между США и Китаем также обещает стать значительным фактором. Ашенбреннер предсказывает, что гонка за достижением AGI может привести к глобальным конфликтам, поскольку интеллектуальное превосходство в этой сфере станет ключевым элементом международной мощи.

Интерес к AGI, по мнению эксперта, ставит под угрозу существующие международные отношения. Ашенбреннер сравнивает возможные последствия создания сверхинтеллекта с созданием атомной и водородной бомб, утверждая, что человечество может оказаться неготовым к таким радикальным изменениям.



В связи с этим он призывает к немедленным мерам по усилению безопасности в лабораториях, занимающихся разработкой ИИ, а также к построению новых вычислительных кластеров и налаживанию сотрудничества между разработчиками и военными структурами. «Необходимо создать комплексный подход к управлению и контролю над ИИ, чтобы избежать катастрофических последствий», — подчеркивает Ашенбреннер.

Справка: AGI (Artificial General Intelligence) — это следующий уровень развития искусственного интеллекта (ИИ/AI).

Его способности будут сильнее, чем у привычного ИИ, и почти равны человеку. AGI сможет даже состязаться в hard skills с профессионалами.

Критерии AGI:
  • постоянно узнаёт новое;
  • умеет выбирать важное;
  • обучается различными способами;
  • имеет хорошую память;
  • держит в уме актуальную информацию;
  • постоянно обновляет свои знания и умения.


Ранее мы писали, что кандидат в президенты США объявил, что в своей предвыборной кампании он использует искусственный интеллект.
НОВОСТИ ПО ТЕМЕ
Если Вы обнаружили ошибку в тексте, выделите ее и нажмите Ctrl + Enter

ПОПУЛЯРНОЕ