快科技3月21日消息,今天下午,理想汽車詳細(xì)介紹了MindVLA大模型與現(xiàn)有端到端 VLM大模型的區(qū)別,并公布了相關(guān)實測視頻。
按能力表現(xiàn)來看,MindVLA 模型加持下的汽車就像一個助手,能與用戶溝通、理解用戶意圖,幫用戶做更多事情。
比如,它可以在陌生車庫漫游找車位直至自主完成泊車;
可以按照駕駛員的開快點、開慢點、左拐、右拐”等語音指令進(jìn)行行動;
可以在你發(fā)給它地標(biāo)照片后,按圖索驥找到你等等。
理想汽車還表示,MindVLA是理想汽車下一代自動駕駛核心架構(gòu),使用了MindGPT作為語言基座,demo中的語音通過座艙的ASR后變成文字,輸入給 MindVLA。
這一設(shè)計繼承自 MindGPT 在語言理解與交互領(lǐng)域的優(yōu)勢能力(如語義解析、邏輯推理等),并針對自動駕駛場景進(jìn)行了專項優(yōu)化。
這體現(xiàn)了智艙與智駕在功能層的協(xié)同創(chuàng)新,而非系統(tǒng)層的完全融合。
未來,我們將持續(xù)探索多模態(tài)交互與駕駛決策的深度耦合,為用戶提供更自然的人車共駕”體驗。
(舉報)