Alibaba представила модель ИИ для управления роботами

Фото: alibaba-damo-academy.github.io
Фото: alibaba-damo-academy.github.io
Alibaba запустила модель RynnBrain для робототехники. Она позволяет роботам видеть предметы и взаимодействовать с ними. Компания открывает модель для разработчиков по всему миру

Что случилось

10 февраля 2026 года Alibaba представила новую модель искусственного интеллекта (ИИ) для робототехники под названием RynnBrain. Разработкой занималась исследовательская лаборатория компании — DAMO Academy.

Новая модель ИИ создана для систем, которые управляют машинами в реальном мире: роботами, промышленными установками, автономными устройствами. В отличие от чат-ботов, такие модели должны не только понимать текст, но и работать с изображением, пространством и движением.

RynnBrain помогает роботам распознавать предметы и принимать решения о действиях. В демонстрационном видео робот определяет фрукты и складывает их в корзину. Задача выглядит простой, но за ней стоит сложная система. Модель анализирует изображение с камер, выделяет объект, определяет его форму и положение, рассчитывает траекторию движения руки и контролирует захват.

RynnBrain обучена на базе Alibaba Qwen3-VL — мультимодальной системы, которая умеет обрабатывать изображение и текст одновременно. Компания делает модель открытой для разработчиков. Это означает, что ее можно использовать и дорабатывать бесплатно.

Фото:UBTech Robotics
Экономика инноваций Airbus выведет китайских гуманоидных роботов на линию сборки самолетов

Контекст и предпосылки

Запуск RynnBrain происходит на фоне усиления конкуренции в сфере «физического ИИ» — моделей, которые управляют машинами в реальном мире.

В январе 2025 года Nvidia представила платформу Cosmos — набор моделей и инструментов для обучения роботов и автономных систем на искусственно созданных данных. Компания позиционирует ее как основу для развития промышленной и сервисной робототехники.

Google DeepMind в 2024 году анонсировала Gemini Robotics-ER — модель, способную помогать машине видеть объекты через камеры, понимать текстовые команды и планировать действия в физическом пространстве. Она связывает изображение, язык и движение, поэтому робот может выполнять многошаговые задачи, например взять предмет и переставить его.

Вероятные последствия

  • Когда крупные компании публикуют модели и инструменты с открытым доступом, вокруг них быстрее возникает экосистема: примеры кода, наборы данных, модули для конкретных роботов, интеграции с распространенными фреймворками. Это может ускорить развитие рынка и повысить давление на конкурентов, которые не делятся своими разработками.
  • RynnBrain выложили на GitHub и Hugging Face в нескольких версиях. Это снижает порог входа: университеты, стартапы и небольшие интеграторы смогут быстрее попробовать модель без покупки дорогих корпоративных решений.

Фото:Shutterstock
Экономика образования Учитель для робота: самая востребованная профессия к 2030 году

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.

Обновлено 13.02.2026
Авторы
Теги
Софья Микоян
Главная Лента Подписаться Поделиться
Закрыть