【太平洋科技快讯】2024年杭州云栖大会上,NVIDIA DRIVE Orin系统级芯片与阿里云通义千问多模态大模型Qwen2-VL成功实现深度适配。并且阿里云、斑马智行联合NVIDIA英伟达共同推出了舱驾融合大模型解决方案,该方案基于通义大模型,致力于打造“能听会看”的智能座舱助理。用户仅需通过语音交流,即可操控座舱内各类应用,享受极致交互体验。
通义大模型由阿里通义实验室研发,Qwen2-VL在图片识别和视觉智能方面表现卓越,其2B和7B参数模型以“极致性价比”著称,非常适合汽车端侧场景。
通义实验室最新发布的Mobile Agent V3在汽车座舱场景中首次落地,提供了屏幕感知、复杂任务规划以及座舱应用UI操作决策能力,进一步扩展了智能助理的功能边界。
此外,通义大模型为座舱配备的智能助理具备感知、思考、决策能力。不仅能理解用户的语音和手势,还能根据环境信息和常识进行自主决策,极大提升了驾驶便捷性和安全性。
基于端云一体架构,NVIDIA DRIVE Orin芯片加速了端侧通义大模型的运行。NVIDIA英伟达通过优化GPU架构和驱动软件,确保了大模型性能潜力得到充分发挥,同时降低了计算成本和时间延迟。
通义大模型将采用NVIDIA DRIVE Thor新一代集中式车载计算平台,预示着智能座舱技术将迈向更高水平,将为用户带来更加智能、便捷的驾驶体验。
沪敖3D 2024-12-15
知行剑侠 2024-12-15
彤彤学姐- 2024-12-15