ИИ может помешать контактам с внеземными цивилизациями, если они есть

Фото: Unsplash
Фото: Unsplash
Чрезмерно быстрое развитие искусственного интеллекта увеличивает риски для выживания человечества. В долгосрочной перспективе ИИ может влиять и на развитие межпланетной цивилизации

А в чем тренд?

Люди все чаще используют искусственный интеллект в профессиональной и повседневной жизни. Эта технология может заменить или дополнить работу человека почти во всех случаях, когда решение нужно принять на основе предыдущего опыта. Разработчики нейросетей предсказывают грандиозный скачок в их развитии в ближайшие пять лет.

Фото:Dall-e 3
Экономика инноваций Бывший сотрудник OpenAI опубликовал прогнозы о будущем ИИ

Искусственный суперинтеллект

Последние несколько лет ИИ развивается невероятными темпами. Некоторые ученые рассматривают возможность создания искусственного суперинтеллекта (ИСИ). Эта форма ИИ, которая превзойдет человеческий разум по своим интеллектуальным способностям.

Астрофизик Майкл Гарретт считает, что создание ИСИ может представлять собой препятствие в развитии цивилизации. По мнению ученого, его настолько трудно преодолеть, что у большинства живых существ Вселенной не получается освоить межпланетное и межзвездное пространство.

Фото:Издательство «Бомбора»
Социальная экономика «Алгоритм судного дня»: книга о нашем будущем под управлением ИИ

Великий фильтр

Парадокс Ферми — это отсутствие видимых следов деятельности инопланетных цивилизаций. У него есть несколько потенциальных объяснений. Одна из гипотез называется «великий фильтр». По ней, в эволюционной линии цивилизаций существуют непреодолимые преграды, которые не позволяют выйти за пределы своей планеты или звездной системы.

Майкл Гарретт уверен, что в ближайшее время ИИ будет развиваться гораздо быстрее, чем человеческая способность контролировать его. Это повлияет на устойчивое исследование и заселение Солнечной системы.

Фото:Pexels
Футурология Одиноки ли мы во Вселенной: парадокс Ферми и его решения

Уничтожение цивилизаций

По мнению Гарретта, ИИ формирует множество потенциальных рисков для человечества. Например, если страны будут все больше полагаться на автономные системы ИИ, они могут начать бороться за власть друг с другом. В результате военный потенциал государств может использоваться для уничтожения людей.

По оценкам Гарретта, типичная продолжительность жизни технологической цивилизации в нынешних обстоятельствах может составить менее 100 лет. Это чуть меньше, чем между первыми межзвездными сигналами с Земли (1960-е годы) и предполагаемым появлением ИСИ (2040-е годы) на Земле. Такое значение пугающе мало по сравнению с миллиардами лет в космосе. Ученый считает, что внеземные цивилизации могли столкнуться с похожей проблемой.

Фото:Unsplash
Футурология Как человечество будет действовать, если получит сигнал от инопланетян

Конструктивная работа

Майкл Гарретт отмечает, что его исследование — не просто предостережение о потенциальной гибели, а призыв к созданию надежной нормативно-правовой базы для управления развитием ИИ, особенно в контексте его использования в военных системах.

Стоит не только предотвращать злоупотребления ИИ на Земле, но и работать над тем, чтобы его эволюция соответствовала долгосрочному выживанию человечества. Для этого стоит направить больше ресурсов на заселение и терраформирование других планет.

Обновлено 07.06.2024
Главная Лента Подписаться Поделиться
Закрыть