Google представила крупнейшую нейросеть PaLM-E для автономного управления роботами

Мультимодальная визуальная языковая модель с 562 млрд. параметров может генерировать последовательность действий без участия человека.​


zqarrg5uazqlq7eek3w5zko3lyzuv9v2.jpg


6 марта группа исследователей искусственного интеллекта из Google и Берлинского технического университета представила PaLM-E , мультимодальную визуальную языковую модель (VLM) с 562 млрд. параметров, которая объединяет компьютерное зрение и язык для управления роботами.

Учёные утверждают, что это самая большая VLM-модель из когда-либо созданных и что она может выполнять множество задач без необходимости переобучения.