Об экспертах:
- Сергей Давыдов, социолог, доцент департамента социологии, старший научный сотрудник Международной лаборатории исследований социальной интеграции НИУ ВШЭ;
- Альберт Кайгородов, СТО и СРО сервиса для знакомств Flero;
- Константин Шакуров, руководитель направления аналитики IT-компании SimbirSoft;
- Роман Романов, руководитель центра программных разработок компании САТЕЛ;
- Ольга Пескова, профессор Школы коммуникаций НИУ ВШЭ.
В мае 2023 года более 100 экспертов, в том числе глава OpenAI Сэм Альтман, подписали заявление об опасностях искусственного интеллекта. Оно состояло из одного предложения: «Уменьшение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Многие исследователи и руководители IT-компаний объяснили причину своего беспокойства: крайне велик риск того, что в ближайшие 10–20 лет человечество создаст мощные системы ИИ, которые не сможет контролировать.
Основные риски развития ИИ
Существует несколько основных причин, которые влияют на беспокойство по поводу ИИ. Одна из них заключается в том, что человечество не знает, как разработать системы, которые не нанесут вреда. Например, не отберут рабочие места, не будут создавать правдоподобные фейки, не станут наследовать предвзятость обучающих их людей и не нарушат безопасность хранения персональных данных. Согласно отчету Всемирного экономического форума, в 2024 году введение в заблуждение с помощью ИИ возглавит список рисков, которые могут привести к глобальному кризису в будущем.
Еще один фактор — конкурентное давление и ограниченная подотчетность. По причине экономии и конкурентной борьбы компании развертывают системы ИИ без достаточной проверки на безопасность. Например, в феврале 2023 года компания Microsoft поспешила с выпуском чат-бота Bing. В результате он стал угрожать пользователям и оскорблять их.
О необходимости формирования глобального консенсуса в отношении ИИ на форуме в Давосе в январе 2024 года высказался Сатья Наделла, генеральный директор Microsoft. Наделла считает, что необходимо сформировать стандарты, гарантии, а также некоторые меры защиты. По его словам, правила должны быть международными, так как проблемы, связанные с ИИ, носят глобальный характер.
Сдерживание развития ИИ
Рынок искусственного интеллекта бурно развивается: к 2027 году его объем, по данным исследовательской компании Markets and Markets, достигнет $407 млрд со среднегодовым темпом роста 36,2%. Прогнозируется, что уже в 2024-м его инструменты будут использовать 314 млн человек.
При этом наблюдаются риски, из-за которых может возникнуть необходимость сдерживания развития технологии. ИИ может вытеснить 300 млн работников по всему миру. От 75 млн до 375 млн человек придется сменить профессию уже к 2030 году. В ноябре 2023 года 28 государств подписали Декларацию Блетчли — первое международное соглашение, направленное на устранение угроз, исходящих от ИИ.
Есть несколько факторов, которые сдерживают развитие ИИ как в России, так и по всему миру, рассказывает социолог Сергей Давыдов.
- Кадры. Специалистов в этой сфере не хватает, поэтому конкуренция за таланты носит глобальный характер. Ведущие вузы предлагают новые программы, наращивают объем подготовки профильных специалистов. Однако обучение профессионала в сфере ИИ занимает как минимум 5–6 лет. Кроме того, спрос на такое образование превышает предложение, что приводит к росту стоимости обучения.
- Оборудование и технологии. Россия находится под санкциями, что означает ограниченную доступность не только устройств, но и инфраструктуры, например хранилищ данных. Это ставит специфические задачи по импортозамещению и локализации, с которыми не сталкиваются другие крупные цифровые экономики.
- Данные. Они необходимы для обучения алгоритмов. Эта проблема является одной из самых недооцененных. В России производятся огромные объемы информации, однако для эффективного использования они должны быть оцифрованы и специальным образом подготовлены. Для этого необходимы существенные инвестиции и привлечение дефицитных специалистов. Наборов данных хорошего качества сейчас меньше, чем нужно.
ИИ и рынок труда
Развитие ИИ — технологический и социальный тренд, который вписывается в череду индустриальных инноваций прошлого, таких как развитие железнодорожного транспорта или электрификация, констатирует Давыдов. Особенность нынешней ситуации заключается в том, что прежние технологии были направлены на улучшение и ускорение физического труда. ИИ впервые в истории позволяет оптимизировать интеллектуальный труд. Поэтому наибольшие изменения в результате внедрения ИИ произойдут в информационно емких индустриях.
Альберт Кайгородов из Flero соглашается, что ИИ может частично или полностью заменить некоторые профессии. Многие боятся потерять свою должность, наблюдая за событиями в мире. По данным CNN, во втором полугодии 2023 года несколько тысяч человек были уволены из IT-компаний из-за развития ИИ. В марте 2023-го руководитель одного из крупнейших медиахолдингов Европы Axel Springer Матиас Дёпфнер предупредил журналистов о «значительных» сокращениях из-за искусственного интеллекта.
Тем не менее прежние технологические революции доказывают, что рынок труда просто трансформируется, а количество рабочих мест не меняется. С автоматизацией экономика становится более эффективной: люди будут получать большее количество благ, прикладывая меньше усилий. Поэтому нужно не бояться новых технологий и адаптироваться к изменениям. Этот вывод подтверждают аналитики Bloomberg: по их прогнозам, мировой ВВП вырастет к 2030 году на $15,7 трлн благодаря ИИ. Основатель Microsoft Билл Гейтс отмечал, что развитие ИИ может привести к тому, что люди будут работать всего три дня в неделю.
Нехватка компьютерных чипов и электроэнергии
Глобальный рынок полупроводников в 2022 году столкнулся с перебоями в поставках и кризисом. Из-за этого цены на чипы продолжают расти. Ситуацию осложняет тот факт, что большинство фабрик по производству микросхем сосредоточено в Юго-Восточной Азии.
В США в 2022 году была принята программа по развитию местной полупроводниковой промышленности. На это будет выделено $52 млрд. А Европейский союз представил закон, который предусматривает инвестиции в размере €11 млрд на исследования и разработки на рынке полупроводников. Российские власти планировали вложить в похожий проект ₽3,19 трлн.
Чипов для развития ИИ в мире достаточно. Более того, они продолжают совершенствоваться, заявляет Кайгородов. Например, акции их производителя Nvidia сильно выросли за 2023 год, и тренд сохранится в ближайшее время. Чипы становятся производительнее, меньше и дешевле. Сами алгоритмы обучения ИИ также совершенствуются, в том числе в сторону снижения необходимых вычислительных ресурсов. В связи с этим проблема нехватки чипов не будет стоять так остро в долгосрочной перспективе. Константин Шакуров, руководитель направления аналитики SimbirSoft, наоборот, считает, что к проблемам в развитии ИИ добавится потенциальный дефицит кремниевых пластин, необходимых для производства чипов.
Системы искусственного интеллекта развиваются благодаря центрам обработки данных. Во всем мире они потребляют около 200 ТВт·ч электроэнергии в год. Для сравнения: столько электричества уходит на обеспечение всех энергетических потребностей некоторых стран. Например, Испания потребляет 234 ТВт·ч в год, а ЮАР — 191 ТВт·ч. Соответственно, для развития ИИ может потребоваться дополнительная электроэнергия.
Препятствием на пути развития ИИ может стать геополитика, отмечает Шакуров. Дело в том, что мировыми лидерами в производстве электроэнергии являются США, Китай, Индия и Россия. В условиях растущей потребности в электричестве, в том числе для дальнейшего обучения ИИ, именно международные отношения будут влиять на эту отрасль.
Регулирование ИИ
Прогресс в сфере искусственного интеллекта зависит не только от технологических факторов, но и от социальных, отмечает руководитель центра программных разработок компании САТЕЛ Роман Романов. Общественное непонимание и страхи могут стать серьезным препятствием для развития ИИ. Люди опасаются потери рабочих мест, угрозы человеческому разуму и даже риска восстания машин. Эти опасения порождают призывы к жесткому регулированию и ограничениям в использовании ИИ.
Такое беспокойство не беспочвенно: ИИ обладает колоссальным деструктивным потенциалом. Системы уже сейчас проявляют признаки предвзятости и дискриминации. Например, проект компании Amazon, где ИИ оценивал потенциальных сотрудников, отдавал предпочтение мужчинам. В будущем системы ИИ могут стать объектами кибератак или средством ведения гибридных войн. Игнорировать такие риски нельзя. Поэтому развитие ИИ невозможно без четкой этической и правовой базы. Нужны международные стандарты, строгий аудит систем и алгоритмов. Создание сверхразумного ИИ должно идти с величайшей осторожностью под присмотром ученых и регуляторов, констатирует Романов.
Ограничения для развития ИИ могут быть только искусственные: например, вмешательство регуляторов, дополнительные налоги и т.д. Так, в конце октября 2023 года президент США Джо Байден подписал указ о мерах безопасности, связанных с развитием ИИ. Объемный документ создает базу для формирования новых правительственных учреждений, которые будут специально заниматься вопросами ИИ, и новых федеральных стандартов в области искусственного интеллекта. Эксперты, опрошенные Scientific American, называют указ Байдена «первыми шагами в этом направлении». По мнению аналитиков, это не полноценное регулирование, а скорее попытка властей понять, что происходит в сфере ИИ.
Летом 2023 года Европарламент проголосовал за принятие закона об искусственном интеллекте. Его главные цели — регулирование развития систем ИИ и защита людей от них. Ожидается, что он вступит в силу не ранее 2025 года.
В России пока нет единого закона по регулированию ИИ. Иван Бегтин из АНО «Инфокультура» в комментарии «РБК Трендам» заявлял: «Европейский союз, США и развитые страны — члены G7 и ОЭСР — сильнее всего продвинулись в деле регулирования ИИ. Регулирование несколько различается, но во всех случаях в его основе лежит безопасность использования — в значении safety, а не security. В России регулирование не только недостаточно, но и в целом далеко от ожиданий граждан, обеспокоенных применением ИИ в первую очередь крупными корпорациями».
Однако это не сдержит естественный процесс развития технологии. Нужно просто смириться с тем фактом, что машины будут делать часть работы гораздо лучше и эффективнее людей, подчеркивает Кайгородов.
Ограничением для ИИ могут стать запреты правообладателей и создателей контента на использование их материалов в обучении, дополняет профессор Ольга Пескова. В декабре 2023 года газета The New York Times подала в суд на OpenAI и Microsoft за применение в их моделях ИИ авторских работ издания, на использование которых разработчики разрешения не запрашивали. Если представить, что эта практика распространится, защищать свои данные и контент решат научные центры, издательства и другие генераторы научного и общественного знания. Это неизбежно создаст ограничения, так как смысл технологии ИИ — работа на открытых данных, ранжирование их по степени значимости и авторитетности.
Замедление ИИ
В 2023 году некоторые руководители IT-компаний призвали человечество замедлить развитие ИИ. В качестве причин они называли потенциальные угрозы новой технологии — это потеря рабочих мест, нарушение приватности и потенциальное усиление кибератак. Однако большинство экспертов сходятся во мнении о том, что искусственно затормозить эволюцию ИИ невозможно.
Замедление развития ИИ возможно только в случае упадка цивилизации, констатирует Альберт Кайгородов. Искусственный интеллект — это естественный этап развития технологий и общества в целом. Как и все новое, ИИ немного пугает. Однако перспективы, которые открывает эта технология, привлекают куда больше. Концепция «технологической сингулярности» гласит, что в будущем ИИ может начать совершенствовать сам себя.
ИИ с возможностями мощнее мозга Ньютона или Эйнштейна должен начать совершать научные открытия. Если же этого не удастся сделать, он остановится в развитии на уровне хорошего «помощника по хозяйству», который будет поднимать производительность креативного класса и улучшать таргетированные предложения для пользователей, подводит итог Ольга Пескова.