EN

元戎启行正基于Thor芯片研发视觉-语言-动作模型(VLA)

2024-09-30 22:03:00
首页>企业动态>元戎启行正基于Thor芯片研发视觉-语言-动作模型(VLA)

9月29日,2024全球智能汽车产业大会(GIV)在合肥举办,元戎启行CEO周光在大会的高层论坛上演讲表示,元戎启行正在基于端到端模型和Thor芯片研发VLA模型(Vision-Language-Action Model,视觉-语言-动作模型),该系统将于明年推出。

01.png

元戎启行CEO周光发表演讲


通过VLA,元戎启行的智能驾驶系统可以连接视觉、语言、动作,能识别和描述道路环境、交通标志、道路参与者等,理解交通场景中复杂的交互事件、隐藏的语义信息和逻辑推理。即便碰到罕见路标跟边缘场景,系统也能有高效的场景泛化能力和稳定的驾驶表现。

02.png

元戎启行的端到端、视觉-语言-动作模型


端到端、视觉-语言-动作模型等前沿的人工智能技术,将助推汽车向具身智能进化。未来,元戎启行将凭借量产车在路上获得大量的优质脱敏数据,持续迭代人工智能模型,让汽车成为智能体,驶向物理世界的通用人工智能。