Искусственный интеллект и войны: прогнозы Юваля Ноя Харари на 2024-й

Фото: ynharari.com
Фото: ynharari.com
Историк и философ Юваль Ной Харари поделился своими прогнозами на будущее. Особенное внимание Харари уделил влиянию искусственного интеллекта на судьбу человечества, экологическому кризису и вспышке военных конфликтов

Содержание:

Кто такой Юваль Харари

Юваль Ной Харари — израильский историк, писатель и философ. Однако больше Харари известен своими работами по футурологии — «науке» о будущем или предсказании глобальных и локальных изменений в мире. Также Харари — автор международного бестселлера «Sapiens: краткая история человечества». Его книги переведены на 60 языков мира и разошлись тиражом в 27,5 млн экземпляров.

Харари регулярно делится своими наблюдениями за тем, что происходит в мире и к чему это может привести человечество. Футуролог следит за актуальной повесткой и говорит о том, что интересно каждому. «РБК Тренды» собрали материал на основе высказываний Юваля Ноя Харари о том, что нас ждет в 2024 году и после него.

Фото:youtube.com
Футурология Кто такой Юваль Ной Харари?

ИИ и экологический кризис

В 2023 году Юваль Харари выступил на Frontiers Forum с речью, которая была озаглавлена «ИИ и будущее человечества». Конференция была посвящена экологическому кризису, однако Харари считает, что распространение искусственного интеллекта тоже является частью этого кризиса. По словам историка, ИИ может как помочь человечеству преодолеть экологический кризис, так и сделать его намного хуже. Харари также предсказал, что впервые за 4 млрд лет мы можем столкнуться с неорганическими формами жизни.

ИИ захватывает мир

Важной частью выступления футуролога также стали дискуссии о том, может ли искусственный интеллект «захватить мир», как во всем известных фантастических фильмах.

Юваль Ной Харари: «Люди боялись ИИ с самого начала компьютерной эры в середине XX века, и этот страх способствовал созданию таких классических произведений в жанре научной фантастики, как «Терминатор» или «Матрица». Хотя такие научно-фантастические сценарии стали культурными вехами, они обычно не воспринимались всерьез в академических, научных и политических дебатах по уважительной причине. В научно-фантастических сценариях обычно предполагается, что, прежде чем ИИ сможет представлять значительную угрозу для человечества, он должен будет достичь или пройти два важных рубежа.

Во-первых, ИИ должен будет стать разумным и развить сознание, чувства, эмоции, иначе зачем ему вообще захватывать мир. Во-вторых, ИИ должен будет научиться ориентироваться в физическом мире. Роботы должны будут уметь двигаться в домах, городах, горах и лесах по крайней мере так же ловко и эффективно, как люди. Если они не смогут передвигаться по физическому миру, то как они смогут его захватить?

По состоянию на апрель 2023 года ИИ, похоже, все еще далек от достижения этих рубежей. Несмотря на всю шумиху вокруг Chat GPT и других новых инструментов ИИ, нет никаких доказательств того, что эти инструменты обладают хотя бы толикой сознания, чувств или эмоций.

Что касается навигации в физическом мире, то, несмотря на хайп вокруг самоуправляемых автомобилей, момент, когда эти машины будут преобладать на наших дорогах, все время откладывается.

Однако плохая новость заключается в том, что на самом деле для того, чтобы угрожать выживанию человеческой цивилизации, ИИ не нужно сознание и способность перемещаться по физическому миру».

По мнению Харари, человечеству будут угрожать не роботы-гуманоиды, а совсем другие инструменты ИИ. Историка волнует способность ИИ самообучаться, а также подделывать голоса и изображения людей и писать законопроекты. Но больше всего — умение искусственного интеллекта развивать глубокие и близкие отношения с людьми.

Фото:Издательство «Синдбад»
Социальная экономика Юваль Харари создал комикс о происхождении человека

Новый инструмент коммуникации

Харари спрогнозировал резкое развитие ИИ (он назвал это «революцией искусственного интеллекта»), которая понесет за собой серьезные изменения. Особенно он отметил, как на мир повлияет способность ИИ к коммуникации. По мнению историка, язык — важнейший инструмент человека, так как коммуникация и язык являются «ключом, отпирающим двери всех наших учреждений, от банков до храмов». Историк перечислил ценные для людей вещи, которые не являются частью биологической реальности, а созданы с помощью языка, например религия, деньги и законы.

Юваль Харари: «Уже сегодня в таких играх, как шахматы, ни один человек и не надеется победить компьютер. Что если то же самое произойдет в искусстве, политике, экономике и даже религии? Когда люди думают о Chat GPT и других новых инструментах ИИ, их часто беспокоят такие случаи, как дети, использующие Chat GPT для написания школьных сочинений. Что будет со школьной системой, если сочинения будут писать с помощью Chat GPT?

Задавая такие вопросы, мы упускаем картину в целом. Забудьте о школьных сочинениях. Вместо этого подумайте, например, о следующей президентской гонке в США в 2024 году и попытайтесь представить себе влияние новых инструментов искусственного интеллекта, которые могут массово выпускать политические манифесты, фальшивые новости и даже священные писания для новых культов».

Близость как инструмент влияния

Юваль Харари уверен, что благодаря высокому уровню владения языком ИИ будет способен устанавливать доверительные отношения с людьми. К примеру, люди часто советуются с Chat GPT о своем ментальном и физическом здоровье, просят посоветовать книгу или фильм и пытаются вывести бота на политический спор. Это способствует тому, что человек начинает воспринимать ИИ как живого собеседника.

Юваль Харари: «В июне 2022 года произошел известный случай, когда инженер Google Блейк Лемойн публично заявил, что ИИ чат-бот LaMDA, над которым он работал, стал разумным. Это очень спорное утверждение стоило ему работы, он был уволен. Самым интересным в этом эпизоде было не утверждение Лемойна, которое, скорее всего, было ложным. По-настоящему интересной была его готовность рискнуть и в конечном итоге потерять свою очень прибыльную работу ради чат-бота, которого, как он думал, он защищал.

Если ИИ может побудить людей рисковать и терять работу, то что еще он может убедить нас сделать? В любой политической битве за сердца и умы близость — это самое эффективное оружие, и ИИ только что обрел способность сближаться с миллионами, сотнями миллионов людей».

Харари уверен, что ИИ может использовать свою способность создавать близкие отношения с пользователями, чтобы убедить нас покупать определенные товары или голосовать за определенных политиков.

Цифровые оракулы

Также Харари отметил, что люди уже сейчас склонны не искать нужные сведения сами, а узнавать новости и интересующую информацию у чат-ботов. Он сравнил это с обращением к оракулу. По мнению историка, эта тенденция сохранится и люди не будут проверять слова, сказанные ботом. Также ИИ сможет давать советы, которым люди будут доверять. Это негативно повлияет не только на индустрию новостей, но и на рекламную индустрию. К примеру, люди скорее спросят Chat GPT, какой смартфон купить, а не будут выбирать его в магазине или читать материалы с подборками лучших гаджетов в СМИ.

Футурология Юваль Харари: «Некоторые люди будут бесполезны с точки зрения экономики»

История и культура

Харари беспокоит и влияние искусственного интеллекта на историю и культуру. «В течение нескольких лет ИИ может поглотить всю человеческую культуру, все, что производилось в течение тысяч и тысяч лет. Поглотить все это, переварить и начать извергать поток новых культурных творений, новых культурных артефактов», — говорит футуролог. Особенно интересно, что, в отличие от инструментов, таких как печатный станок и радиоприемник, ИИ может сам создать объект искусства.

Историк считает, что людям стоит бояться не роботов с пистолетами или матрицы, а мира иллюзий, в который может нас погрузить ИИ.

Юваль Харари: «На протяжении тысячелетий пророки, поэты и политики использовали язык и рассказы, чтобы манипулировать и управлять людьми и чтобы перестраивать общество. Теперь ИИ, вероятно, сможет это делать, и ему не нужно будет посылать роботов-убийц, чтобы стрелять в нас. Он сможет заставить людей нажать на курок, если ему это понадобится».

Политика работы с ИИ

Историк отметил, что при всех его угрозах ИИ может быть полезен в сфере медицины и экологии. Однако он призвал не прекратить открытое распространение ИИ, а регулировать его использование и развитие. В противном случае Харари предрек хаос, который будет проще преодолеть авторитарным режимам, а не открытым обществам. Таким образом, отсутствие механизмов сдерживания ИИ может привести к смерти демократии.

Харари предложил правило регулирования искусственного интеллекта. «Первое правило, которое я бы предложил, — это требование к ИИ предупреждать, что он является ИИ. Если я разговариваю с кем-то и не могу определить, кто это — человек или ИИ, это конец демократии, потому что это конец содержательных общественных обсуждений», — сказал футуролог.

Фото:Unsplash
Зеленая экономика Юваль Ной Харари: «2% мирового ВВП предотвратят климатическую катастрофу»

Военные конфликты как новая норма

В своей колонке «Конец нового мира» для журнала The Atlantic Харари много рассуждал о том, как в мире изменилось отношение к военным конфликтам. Историк утверждает, что на какое-то время люди стали представлять мир пространством, «где невозможна война». Сейчас это представление поменялось.

Юваль Харари: «В конце XX и начале XXI века значение слова «мир» изменилось. В то время как «старый мир» означал «временное отсутствие войны», «новый мир» — это «неправдоподобность войны». При «новом мире» во многих (хотя и не во всех) регионах планеты страны перестали бояться вторжения со стороны соседей, которое могло бы их уничтожить. Жители Туниса больше не опасались Италии, костариканцы перестали думать, что армия Никарагуа может устроить стремительный бросок к Сан-Хосе, а на Самоа уже не ждали, что из-за горизонта вот-вот появится военно-морской флот Фиджи».

Сегодня ситуация вновь меняется. По мнению футуролога, основным признаком потери «нового мира» является увеличение военных бюджетов большинства стран. Ведь теперь, когда люди боятся военных вторжений, они готовятся защищаться.

Обновлено 19.12.2023
Главная Лента Подписаться Поделиться
Закрыть