
Компания Nvidia объявила о запуске новых инфраструктурных решений и AI-моделей, направленных на создание технологий физического искусственного интеллекта, включая роботов и автономные транспортные средства, способные воспринимать и взаимодействовать с реальным миром.
На конференции NeurIPS в Сан-Диего был представлен Alpamayo-R1 — открытая модель визуального языкового восприятия для исследований в области автономного вождения. Это первая в своем роде модель, которая объединяет обработку текста и изображений, позволяя автомобилям «видеть» окружение и принимать решения на основе полученной информации.
Alpamayo-R1 основана на модели Cosmos Reason, разработанной Nvidia, которая анализирует и обдумывает решения перед тем, как реагировать. Данная технология крайне важна для достижения уровня 4 автономности, что подразумевает полное самоуправление в определенных условиях и зонах.
Цель Nvidia — дать автономным транспортным средствам «здравый смысл», чтобы они могли принимать сложные и тонкие решения за рулем так же, как это делают люди.
Модель уже доступна на GitHub и Hugging Face. Вместе с ней компания выпустила подробные руководства и инструменты по обучению и использованию моделей Cosmos, включая работу с данными, создание синтетических данных и оценку моделей.
Эти инициативы являются частью стратегии Nvidia по развитию физического AI, который, как утверждают представители компании, станет следующим этапом развития искусственного интеллекта. Основатель и CEO Nvidia Дженсен Хуанг, а также главный научный сотрудник Билл Далли подчеркивают, что роботы станут важной частью будущего, и Nvidia стремится стать «мозгами» для этих решений, развивая ключевые технологии в этой области.


