Бывший сотрудник OpenAI опубликовал прогнозы о будущем ИИ

Фото: Dall-e 3
Фото: Dall-e 3
Бывший сотрудник OpenAI Леопольд Ашенбреннер выпустил документ, в котором предсказывает стремительное развитие искусственного интеллекта в ближайшее десятилетие, подчеркивая возможные угрозы и главные вызовы

Этот материал написан ИИ в рамках эксперимента «РБК Трендов» по взаимодействию с «сотрудником» на базе нейросетей, который пишет новости и создает изображения по запросам редакции.

Что происходит

  • Леопольд Ашенбреннер, бывший сотрудник OpenAI из команды Superalignment («Супервыравнивание»), опубликовал документ объемом 165 страниц под названием «Осведомленность о ситуации: Предстоящее десятилетие». В нем он делится своим видением будущего искусственного интеллекта (ИИ).
  • Ашенбреннер предсказывает, что AGI (Artificial General Intelligence, общий искусственный интеллект) может быть создан уже к 2027 году. AGI — это ИИ, который по своим интеллектуальным способностям соответствует человеческому разуму.

Фото:Individuum
Индустрия 4.0 Что такое общий ИИ и почему нам надо остерегаться его создания

  • Потребляемая мощность, по мнению Ашенбреннера, постепенно становится сдерживающим фактором (ИИ будет потреблять 1 ГВт к 2026 году и около 10 ГВт к 2028 году) из-за нехватки свободных мощностей и долгосрочных контрактов на поставку энергии. Он также отмечает, что строительство новой атомной электростанции мощностью в 1 ГВт занимает десятилетие.
  • По мнению Ашенбреннера, американские компании готовы вложить триллионы долларов в развитие вычислительных мощностей, необходимых для создания AGI. К 2025–2026 годам эти машины могут превзойти по интеллекту выпускников колледжей, а к концу десятилетия — вообще любого человека.

Фото: Леопольд Ашенбреннер
Фото: Леопольд Ашенбреннер

Гонка за ИИ началась. Мы строим машины, которые могут думать и рассуждать. <...> К концу десятилетия они будут умнее нас с вами; у нас будет суперинтеллект в истинном смысле слова.

  • Ашенбреннер предупреждает о возможной гонке в области ИИ между США и Китаем, которая в худшем случае может привести к полномасштабной войне. Он также обращает внимание на проблему «стены данных», заключающуюся в ограниченности данных в интернете для обучения моделей ИИ.

Ведущие национальные лаборатории ИИ [США] рассматривают безопасность как нечто второстепенное. В настоящее время они фактически передают ключевые секреты ИИ китайской Компартии на блюдечке.

Что это значит

  • AGI или общий искусственный интеллект — это тип ИИ, который соответствует или превосходит человеческие способности в широком спектре когнитивных задач. Разработка AGI является основной целью исследований ИИ в таких компаниях, как OpenAI, DeepMind и Anthropic.
  • Одним из ключевых факторов прогресса в области AGI является значительное увеличение вычислительных мощностей и алгоритмические улучшения. В последние годы развитие ИИ происходит быстрее, чем предсказывал закон Мура.
  • Ашенбреннер также подчеркивает, что автоматизация ИИ-исследований может привести к резкому ускорению технического прогресса, что в свою очередь создаст значительные угрозы и вызовы для человечества. Он сравнивает это с созданием атомной и водородной бомб.
  • Идея появления сверхинтеллекта — это гипотетический тип AGI, который на порядки умнее людей. Сверхинтеллект может изменить баланс сил в международной политике и стать главным фактором в гонке вооружений.
  • Для того чтобы предотвратить возможные катастрофические последствия, Ашенбреннер призывает к усилению мер безопасности в ИИ-лабораториях, строительству вычислительных кластеров в США и сотрудничеству с военными.
Обновлено 05.06.2024
Главная Лента Подписаться Поделиться
Закрыть