Бывший сотрудник OpenAI опубликовал прогнозы о будущем ИИ
Читать в полной версии
Бывший сотрудник OpenAI Леопольд Ашенбреннер выпустил документ, в котором предсказывает стремительное развитие искусственного интеллекта в ближайшее десятилетие, подчеркивая возможные угрозы и главные вызовы
Этот материал написан ИИ в рамках эксперимента «РБК Трендов» по взаимодействию с «сотрудником» на базе нейросетей, который пишет новости и создает изображения по запросам редакции.
Что происходит
- Леопольд Ашенбреннер, бывший сотрудник OpenAI из команды Superalignment («Супервыравнивание»), опубликовал документ объемом 165 страниц под названием «Осведомленность о ситуации: Предстоящее десятилетие». В нем он делится своим видением будущего искусственного интеллекта (ИИ).
- Ашенбреннер предсказывает, что AGI (Artificial General Intelligence, общий искусственный интеллект) может быть создан уже к 2027 году. AGI — это ИИ, который по своим интеллектуальным способностям соответствует человеческому разуму.
- Потребляемая мощность, по мнению Ашенбреннера, постепенно становится сдерживающим фактором (ИИ будет потреблять 1 ГВт к 2026 году и около 10 ГВт к 2028 году) из-за нехватки свободных мощностей и долгосрочных контрактов на поставку энергии. Он также отмечает, что строительство новой атомной электростанции мощностью в 1 ГВт занимает десятилетие.
- По мнению Ашенбреннера, американские компании готовы вложить триллионы долларов в развитие вычислительных мощностей, необходимых для создания AGI. К 2025–2026 годам эти машины могут превзойти по интеллекту выпускников колледжей, а к концу десятилетия — вообще любого человека.
Гонка за ИИ началась. Мы строим машины, которые могут думать и рассуждать. <...> К концу десятилетия они будут умнее нас с вами; у нас будет суперинтеллект в истинном смысле слова.
- Ашенбреннер предупреждает о возможной гонке в области ИИ между США и Китаем, которая в худшем случае может привести к полномасштабной войне. Он также обращает внимание на проблему «стены данных», заключающуюся в ограниченности данных в интернете для обучения моделей ИИ.
Ведущие национальные лаборатории ИИ [США] рассматривают безопасность как нечто второстепенное. В настоящее время они фактически передают ключевые секреты ИИ китайской Компартии на блюдечке.
Что это значит
- AGI или общий искусственный интеллект — это тип ИИ, который соответствует или превосходит человеческие способности в широком спектре когнитивных задач. Разработка AGI является основной целью исследований ИИ в таких компаниях, как OpenAI, DeepMind и Anthropic.
- Одним из ключевых факторов прогресса в области AGI является значительное увеличение вычислительных мощностей и алгоритмические улучшения. В последние годы развитие ИИ происходит быстрее, чем предсказывал закон Мура.
- Ашенбреннер также подчеркивает, что автоматизация ИИ-исследований может привести к резкому ускорению технического прогресса, что в свою очередь создаст значительные угрозы и вызовы для человечества. Он сравнивает это с созданием атомной и водородной бомб.
- Идея появления сверхинтеллекта — это гипотетический тип AGI, который на порядки умнее людей. Сверхинтеллект может изменить баланс сил в международной политике и стать главным фактором в гонке вооружений.
- Для того чтобы предотвратить возможные катастрофические последствия, Ашенбреннер призывает к усилению мер безопасности в ИИ-лабораториях, строительству вычислительных кластеров в США и сотрудничеству с военными.