文:懂車帝原創(chuàng) 常思玥 [懂車帝原創(chuàng) 行業(yè)] 3月18日,理想汽車自動駕駛技術(shù)研發(fā)負(fù)責(zé)人賈鵬在NVIDIA GTC 2025發(fā)表主題演講,同時(shí)發(fā)布了理想的下一代自動駕駛架構(gòu)MindVLA,該架構(gòu)由理想全棧自研。 根據(jù)理想汽車的表述,從應(yīng)用層面來看,該架構(gòu)能夠?qū)⑵囐x能為聽得懂、看得見、找得到的專職司機(jī),理想汽車認(rèn)為,對于汽車行業(yè)而言,像iPhone 4重新定義了手機(jī),MindVLA也將重新定義自動駕駛。 據(jù)介紹,MindVLA不是簡單地將端到端模型和VLM模型結(jié)合在一起,所有模塊都是全新設(shè)計(jì)。3D空間編碼器通過語言模型,和邏輯推理結(jié)合在一起后,給出合理的駕駛決策,并輸出一組Action Token(動作詞元),Action Token指的是對周圍環(huán)境和自車駕駛行為的編碼,并通過Diffusion(擴(kuò)散模型)進(jìn)一步優(yōu)化出最佳的駕駛軌跡,整個(gè)推理過程都要發(fā)生在車端,并且要做到實(shí)時(shí)運(yùn)行。 MindVLA基于自研的重建+生成云端統(tǒng)一世界模型,深度融合重建模型的三維場景還原能力與生成模型的新視角補(bǔ)全,以及未見視角預(yù)測能力,構(gòu)建接近真實(shí)世界的仿真環(huán)境。 據(jù)介紹,過去一年,理想自動駕駛團(tuán)隊(duì)完成了世界模型大量的工程優(yōu)化,顯著提升了場景重建與生成的質(zhì)量和效率,其中一項(xiàng)工作是將3D GS的訓(xùn)練速度提升至7倍以上。 據(jù)介紹,“聽得懂”是用戶可以通過語音指令改變車輛的路線和行為,例如用戶在陌生園區(qū)尋找超市,只需要通過理想同學(xué)對車輛說:“帶我去找超市”,車輛將在沒有導(dǎo)航信息的情況下,自主漫游找到目的地。 “看得見”是指MindVLA具備強(qiáng)大的通識能力,不僅能夠認(rèn)識星巴克、肯德基等不同的商店招牌,當(dāng)用戶在陌生地點(diǎn)找不到車輛時(shí),可以拍一張附近環(huán)境的照片發(fā)送給車輛,擁有MindVLA賦能的車輛能夠搜尋照片中的位置,并自動找到用戶。 “找得到”意味著車輛可以自主地在地庫、園區(qū)和公共道路上漫游,其中典型應(yīng)用場景是用戶在商場地庫找不到車位時(shí),可以跟車輛說:“去找個(gè)車位停好”,車輛就會自主尋找車位,即便遇到死胡同,車輛也會自如地倒車,重新尋找合適的車位停下,整個(gè)過程不依賴地圖或?qū)Ш叫畔?,完全依賴MindVLA的空間理解和邏輯推理能力。 |
19款電子扎帶
電路板識別電子標(biāo)簽