Расчеты на будущее: что придет на смену классическим компьютерам

Фото: Freepik
Фото: Freepik
Компьютерам все чаще поручают новые сложные задачи — от обучения нейросетей до симуляции биологических процессов. Рассказываем, почему старые архитектуры уже не справляются и какие технологии придут им на смену

Память из прошлого: где потолок для традиционного «железа»

Долгое время развитие компьютеров следовало правилу, которое вошло в историю как закон Мура. В 1965 году Гордон Мур, один из основателей компании Intel, заметил: каждые два года количество транзисторов на микросхеме примерно удваивается. А значит, чипы становятся быстрее, мощнее и дешевле.

Транзистор — это крошечный электронный переключатель, управляющий током. Чем больше таких переключателей на чипе, тем выше его вычислительная мощность.

Это простое наблюдение стало двигателем всей индустрии: с 1971 года, когда появился процессор Intel 4004 (2300 транзисторов, размер — 10 микрометров), и до наших дней количество транзисторов в микросхемах росло в геометрической прогрессии. Но важно понимать: закон Мура — это не физический закон, а скорее инженерная цель, которую индустрия долгое время успешно достигала.

Сегодня эта гонка начинает замедляться. Транзисторы уже настолько малы, что их сложно производить: электроны начинают «просачиваться» сквозь границы, чипы перегреваются, а энергозатраты растут. Производство становится все более дорогим и сложным. Скорость и эффективность растут все медленнее — эпоха бесконечного масштабирования подходит к концу.

Закон Мура в реальной жизни
Закон Мура в реальной жизни (Фото: ourworldindata.org)

И дело не только в «железе». Современные задачи — от обучения нейросетей и обработки больших данных до симуляций климата или биологических процессов — требуют не только скорости, но и иного подхода к вычислениям. Большинство компьютеров до сих пор устроены по модели фон Неймана, предложенной еще в середине XX века. Она основана на разделении памяти и процессора: данные хранятся в одном месте, обрабатываются в другом и постоянно перемещаются между ними.

Этот принцип хорошо работал десятилетиями, но при оперировании огромными объемами информации он превращается в узкое горлышко. Даже самый быстрый процессор не сможет эффективно работать, если все время простаивает, ожидая данные из памяти.

Поэтому сегодня речь идет не только о том, чтобы делать чипы еще быстрее. Ученые все чаще задумываются о другом: как изменить саму архитектуру вычислений под задачи XXI века. И здесь на сцену выходят новые, неклассические подходы.

Нейроморфные вычисления: думать, как мозг

Сегодня, когда классические компьютеры начинают буксовать, исследователи все чаще обращаются к природе, а точнее — к самому совершенному вычислительному устройству, которое мы знаем, — человеческому мозгу. Так появился подход под названием нейроморфные вычисления.

Нейроморфные вычисления не просто запускают нейросети на обычных чипах, а создают «железо», которое само работает по принципам мозга.

Фото:Dalle-3
Индустрия 4.0 Как изучение мозга помогает создавать нейроморфный суперкомпьютер

В отличие от привычных процессоров (CPU) и видеокарт (GPU), где данные обрабатываются поочередно и строго по инструкции, нейроморфные чипы работают параллельно и асинхронно, как нейроны в мозге. Вместо непрерывного сигнала — короткие импульсы, которые напоминают всплески активности между нейронами. Это делает такие системы не только более естественными для работы с искусственным интеллектом, но и гораздо более энергоэффективными.

Это может пригодиться прежде всего там, где нужно обрабатывать данные быстро и с минимальными затратами, — например, в «умных» камерах, сенсорных системах, роботах, мобильных устройствах, в которых важно экономить заряд. Нейроморфные чипы могут распознавать образы или речь почти мгновенно и без облака — прямо «на месте».

Крупные компании уже экспериментируют с такими чипами. IBM TrueNorth стал одной из первых масштабных попыток воспроизвести нейронную архитектуру в «железе».

Внешний вид процессора IBM TrueNorth
Внешний вид процессора IBM TrueNorth (Фото: habr.com)

Intel Loihi — еще один заметный проект, где реализованы адаптивность и обучение на уровне чипа.

Внешний вид процессора Intel Loihi 2
Внешний вид процессора Intel Loihi 2 (Фото: habr.com)

А в Великобритании развивается система SpiNNaker, в которой миллионы искусственных нейронов взаимодействуют в реальном времени, как в мозге.

Но у технологии пока есть серьезные ограничения. Главная проблема — программное обеспечение. Писать код для нейроморфных систем гораздо сложнее, чем для обычных компьютеров. Под них нет привычных языков программирования и отлаженных библиотек. Кроме того, пока такие чипы не могут заменить универсальные процессоры — они хороши в узких задачах, но не подходят для всего подряд.

Тем не менее интерес к нейроморфным системам растет. По мере того как классические архитектуры выдыхаются, все больше ученых и инженеров задаются вопросом: а что, если будущее компьютеров действительно похоже на мозг?

Мемристоры: как объединить память и вычисления

В традиционном компьютере все строго по ролям: процессор считает, память хранит. Для каждой операции данные нужно считывать, обрабатывать, снова записывать — и так миллионы раз в секунду. Это «туда-сюда» занимает время, требует энергии и становится узким местом при работе с большими объемами данных. А теперь представьте себе элемент, который умеет одновременно и считать, и помнить. Такой элемент существует — это мемристор (от memory resistor, то есть резистор с памятью).

Фото:Новая наука
Экономика инноваций Что такое мемристор: принцип действия, модели, применение

Мемристор, в отличие от обычного транзистора, может запоминать, сколько тока через него прошло, и менять свое сопротивление в зависимости от этого. Чем чаще он используется, тем легче проходит сигнал — почти как синапсы в мозге, которые укрепляются с опытом. Это делает мемристоры принципиально новым строительным блоком для компьютеров будущего.

Главное преимущество мемристоров — они позволяют объединить память и вычисления в одном элементе. Это означает, что данные не нужно все время передавать между чипами, а значит, снижается энергопотребление, повышается скорость и появляется возможность более «живых» форм обработки информации.

Это особенно важно для ИИ, где часто приходится работать с миллионами параметров. Мемристоры могут выполнять матричные операции, имитируя работу нейросетей не в софте, а прямо в «железе», что в разы быстрее и экономичнее.

Пока мемристоры находятся в стадии активных исследований. Одной из первых на этом направлении была компания HP, которая в 2010-х годах пообещала создать принципиально новый тип компьютера. Позже появились лабораторные прототипы в университетах и стартапах — от США до Китая и России. Некоторые из них уже могут выполнять базовые операции и демонстрировать обучение на уровне «железа».

Схема мемристора HP Labs
Схема мемристора HP Labs (Фото: nature.com)

Промышленных устройств на мемристорах пока нет, но потенциал огромен. Если технологии удастся довести до ума, это может изменить саму логику работы компьютеров.

Квантовые вычисления: что за пределами классической логики

Квантовые компьютеры кардинально отличаются от привычных нам машин. Вместо работы по классическим правилам логики, где бит может быть либо нулем, либо единицей, они используют кубиты, способные находиться одновременно в обоих состояниях. Это явление называется суперпозицией. А еще кубиты умеют быть запутанными: если изменить один, второй мгновенно отреагирует, даже если находится на другом конце устройства, словно между ними существует 
невидимая связь. Благодаря этим свойствам квантовый компьютер не просто перебирает варианты по очереди, как классическая машина, а обрабатывает множество комбинаций одновременно.

Квантовые компьютеры, однако, пока далеки от массового использования, несмотря на то что их прототипы уже существуют и применяются в некоторых исследовательских задачах.

Кубиты крайне нестабильны: они быстро теряют свое квантовое состояние, это называется декогеренцией. Для работы требуются почти абсолютный ноль по температуре и сложнейшая система защиты от внешнего шума. Кроме того, пока нет надежных и масштабируемых систем коррекции ошибок — они существуют, но требуют огромных ресурсов.

Тем не менее прогресс идет. У Google есть квантовый чип Sycamore, который в 2019 году выполнил вычислительную задачу за 200 секунд — по оценкам, обычному суперкомпьютеру на это понадобилось бы 10 тыс. лет.

Внешний вид квантового чипа Sycamore
Внешний вид квантового чипа Sycamore (Фото: nature.com)

IBM предоставляет облачный доступ к своим квантовым устройствам. D-Wave создает квантовые системы для прикладной оптимизации, а стартапы вроде IonQ и Rigetti развивают альтернативные подходы к построению квантовых чипов.

Фото:Unsplash
Экономика образования К — квантовая технология: зачем человечеству суперкомпьютер

Другие подходы: от фотонов до молекул

Перечисленные выше подходы — это не единственный путь за пределы классической архитектуры. Наряду с ними развиваются и другие, не менее смелые направления: от вычислений на свету до машин на основе молекул ДНК. Пока все они находятся на ранних этапах, но уже демонстрируют рабочие прототипы и первые прикладные результаты.

Один из таких подходов — оптические компьютеры. Вместо электронов они используют фотоны — частицы света. Это позволяет проводить вычисления быстрее, не перегревая чипы, а также обрабатывать данные параллельно. Особенно перспективны фотонные технологии в задачах машинного обучения и ИИ. Например, американская компания Lightmatter уже представила фотонный суперчип Passage M1000, который способен обрабатывать данные с пропускной способностью до 114 Тбит/с. Для сравнения: типичный GPU, используемый в ИИ-задачах (например, NVIDIA A100), обеспечивает пропускную способность памяти около 2 ТБ/с. Даже в самых продвинутых системах этот показатель редко превышает 10 ТБ/с. То есть Passage M1000 потенциально в 10–50 раз быстрее по скорости передачи данных, чем традиционные решения. Его планируют использовать для ускорения нейросетей в дата-центрах нового поколения.

Passage M1000, фотонный суперчип
Passage M1000, фотонный суперчип (Фото: tomshardware.com)

Еще один экзотический, но активно развивающийся вариант — ДНК-вычисления. В таких системах логические операции и хранение информации происходят не на кремниевых чипах, а внутри молекул ДНК. Принцип работы прост: ДНК состоит из четырех «букв», азотистых оснований — A, T, G и C. Их можно использовать для кодирования нулей и единиц. Специальные ферменты заставляют молекулы взаимодействовать по заданным правилам — так выполняются логические операции.

Американская компания CATALOG в 2023 году представила ДНК-компьютер под названием Shannon, который может не только записывать данные в молекулярном виде, но и выполнять поиск и сортировку прямо внутри биологической среды.

А ученые из Университета Вашингтона и Microsoft создали первый полностью автоматизированный прототип ДНК-хранилища. Их устройство переводит цифровую информацию (нули и единицы) в последовательности ДНК (те самые буквы A, T, G, C), синтезирует настоящие молекулы, сохраняет их, а потом считывает обратно и расшифровывает. В эксперименте устройство записало слово Hello (5 байт), но на чтение и восстановление ушло около 21 часа, а из тысяч попыток только одна была расшифрована успешно.

Такие технологии особенно перспективны для задач архивного хранения (одна пробирка способна вмещать терабайты информации) и перебора огромного количества комбинаций — например, в криптографии.

Помимо квантовых и нейроморфных подходов ученые исследуют возможности использования волн — звуковых, световых и других — для выполнения вычислений. Эти методы работают на физических свойствах волн, таких как интерференция и дифракция, для обработки информации.

В области акустических вычислений исследователи из Стэнфордского университета разработали чип, который использует звуковые волны для выполнения математических операций с минимальным энергопотреблением. Этот подход позволяет создавать энергоэффективные устройства для обработки данных на периферии сети (edge computing).

Фото:Shutterstock
Экономика инноваций Инженеры разработали более эффективную оперативную память для компьютеров

Все эти технологии не конкуренты традиционным компьютерам, а скорее их союзники в решении специфических задач. Вероятно, вычисления будущего будут строиться как экосистема разных архитектур, каждая из которых будет хороша в своей нише. И чем раньше мы научимся их комбинировать, тем ближе окажемся к очередному вычислительному прорыву.

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.

Обновлено 28.05.2025
Авторы
Теги
Главная Лента Подписаться Поделиться
Закрыть