DH3G游戏资讯网

AR HUD 加速上车,融合恐成最大难点

发表于:2024-04-29 作者:创始人
编辑最后更新 2024年04月29日,随着汽车智能化趋势的持续推进,新老造车势力抢滩布局智能汽车发展。传统的 CHUD 和 WHUD 已经无法满足智能座舱与 ADAS 功能的展示和交互需求,兼具实用性和科技感、且能为用户打造沉浸式体验的

随着汽车智能化趋势的持续推进,新老造车势力抢滩布局智能汽车发展。传统的 CHUD 和 WHUD 已经无法满足智能座舱与 ADAS 功能的展示和交互需求,兼具实用性和科技感、且能为用户打造沉浸式体验的 AR HUD 成为各大主机厂关注焦点。  

除全新一代奔驰 S 级外,红旗 E-HS9、大众 ID.4、奥迪 Q4 e-tron,长城 WEY 摩卡、现代艾尼氪 5、北京汽车"魔方"等配备 AR HUD 的量产车型也先后亮相。近期,华为正式发布 AITO 品牌首款车型问界 M5,同样搭配了 AR HUD 功能。可以预见,AR HUD 作为未来智能座舱的重要组成部分,将迎来一轮量产爆发潮。

现行人车交互模式的不合理性

近些年来,中控大屏取代物理按键成为车载交互的核心窗口。但是,现行车机系统及操作逻辑参照移动端开发经验进行改良,导致市场上很多车机系统的交互逻辑并不科学。

移动端交互基于沉浸式操作,大量的应用直接展现在一小块电容触控屏幕上。而车机系统不一样,在驾驶过程中,驾驶员大部分注意力都会聚焦在驾驶行为上,仅能极少量的注意力在必要时关注车载系统显示。因此,车载系统的信息布局必须满足直接、快速、准确的要求,在极短的时间内以最直观的方式呈现在驾驶者眼前。

图 | HUD 让汽车仪表、导航等信息抬头可见

传统 CHUD 和 WHUD 虽然在一定程度上解决了视线转移的问题,但受限于显示尺寸,只能简单呈现少量的车辆行驶数据信息,和简略的导航诱导信息,无法快速为用户提供直观、无需思考的驾驶引导。

而 AR HUD 可以通过增强现实技术,将导航诱导信息直接投射到路面上,采用与真实道路融合的虚拟箭头指引车辆前进,提前提示车辆变道、拐弯等,无需驾驶员额外思考。还能结合道路实际路况,为驾驶员提供夜视系统、碰撞预警、车道保持、车道偏离预警、盲区预警、行人预警、障碍物预警、交通信号灯监测等服务。相比传统 HUD,AR HUD 极大地提升了驾驶员在驾车过程中的用户体验。

感知、显示、融合

HUD 本质是一个汽车电子显示系统,包括 ECU 部件,光源像源部件 (图形生成单元 PGU),投影光学部件 (自由曲面镜光学系统) 和机械壳体。此外,严格意义上来说,汽车的挡风玻璃也是 HUD 的一个核心光学部件。

其中,PGU 普遍采用 TFT-LCD,个别项目采用 DLP 投影技术,此外还有极少一部分采用 LCOS 投影或激光 MEMS 扫描投影技术。实际上,PGU 的显示面板虽然是 HUD 的核心部件,但并不是 HUD 公司的核心技术。HUD 一级供应商通常从上游的显示面板厂商处采购标准显示面板,通过设计 HUD 光路得到较好的画质,配合相应的软件系统,让驾驶者能够获得最佳用户体验。

而 AR HUD 要想实现真正的 AR 显示效果,不仅需要对现实世界进行精准感知,还需要实时、准确呈现数字化的虚像,并与实景道路环境进行融合。

感知技术:为了实现虚拟信息和真实场景的无缝叠加,要求对周围道路实景环境进行精确实时地感知,生成真实世界的三维坐标信息。

图 | FUTURUS AR 动态渲染引擎

显示技术:基于物理空间的感知结果和三维光场显示技术,借助融合技术、算法和计算机图形技术,实时计算、渲染生成任何需要被投射到真实世界内的虚拟对象。

融合技术:虚实融合是 AR HUD 技术的重中之重,不仅需要实现真实世界与 AR HUD 虚拟成像在位置 (空间坐标) 上的融合,还需要做到毫秒级的延迟控制 (时间坐标),才能将数字虚拟世界与真实世界精确融合,融合的精准度直接决定了 AR HUD 的使用体验效果。

没有融合和交互的"假 AR HUD"

AR 技术需要将原本在现实世界中难以体验的信息进行数字化处理,并叠加在真实世界之上,从而实现超越现实的感官体验。而目前国内外市场上自称或被称作 AR HUD 的产品,并没有达到技术意义上的增强现实显示效果。这些"假 AR HUD"产品,采用的都是传统 HUD 的 2D 平面显示技术,通过简单播放实时渲染的伪 3D 动画,甚至特定几个固定动画的形式在 HUD 的 2D 画面中进行驾驶指引,用户体验非常差。

人在开车的过程中,需要关注前方几米~∞远的范围内的环境,根据关注对象的不同,人眼需要能够对焦在不同距离上。目前除了 FUTURUS 未来黑科技的光场 AR HUD 产品,其他 AR HUD 产品的画面都投射在视线前方 7 到 10 米的固定距离,虚拟信息和现实环境无法达到空间位置上的融合,无法实现 AR 融合效果。而当前方车辆或其他障碍物与司机视线距离小于 HUD 的显示虚像距离时,强行将 HUD 显示内容与前方道路实景进行融合,则会产生严重的视觉辐辏冲突,令驾驶者感到眩晕和不适。

HUD 是为了解决驾驶员频繁转移视线查看仪表和中控信息导致的安全隐患才诞生的一项技术。安全,是 HUD 产品的第一性原理。没有融合和交互的"假 AR HUD"不仅不能"辅助驾驶者",反而会对驾驶者造成干扰,带来安全隐患。

好的融合应该是怎样的?

不同于 2D 动画播放或徒有"立体感"但显示距离固定的"裸眼 3D"显示技术,FUTURUS 光场 AR HUD 基于独家研发的三维光场 AR 显示技术,开发出了一套与之匹配的软硬件系统和 AR 算法,可以在驾驶者视野前方的现实世界中,投射出适应不同远近对焦距离的三维虚拟信息。这种三维光场显示技术能够将虚拟世界的信息和现实世界的相关物体在同一空间位置进行展示,实现虚拟与现实的完美融合,不仅能够呈现真正意义上的 AR 增强现实显示效果,也可以彻底解决视觉辐辏造成的眩晕问题。

图 | FUTURUS 光场 AR HUD 显示效果

此外,FUTURUS 基于车身自有传感器和处理器开发出的多传感器融合架构和算法,不仅能够对现实道路环境进行实时感知,配合独家坐标系融合、防抖动与延迟算法,还可以快速实现从感知、显示到融合的零延时响应,且数据的计算与采集也更加精确,从而打造沉浸式 AR 体验。

FUTURUS 未来黑科技光场 AR HUD 产品视场角可达 20 度,可覆盖五条车道,显示距离覆盖视线前方 4 米至∞远,为驾驶者在车窗前呈现出一个虚拟世界与现实世界完美融合的画面,给予驾驶者更全面的信息支持。

智能汽车,元宇宙新窗口

近期,元宇宙的概念甚嚣尘上,国际互联网巨头纷纷下注,力图从硬件、软件、系统、内容、应用等不同纬度抢先占位。清华大学新闻与传播学院教授沈阳认为,元宇宙是整合多种新技术而产生的新型虚实相融的互联网应用和社会形态,它基于扩展现实技术提供沉浸式体验。也就是说,元宇宙指向了下一代互联网形态,而 VR / AR 则是帮助元宇宙从概念走向现实的技术基础。

图 | 元宇宙 BIGANT 六大技术全景,图源:《元宇宙通证》

根据 FUTURUS 创始人、CEO 徐俊峰的判断,基于增强现实技术的数字孪生互联网将是智能汽车的发展终局。现在的智能汽车,已经高度集成了传感器、处理器、ADAS 等复合功能,无论是从芯片算力、传感器数量、智能硬件设备、屏幕空间等各个方面来看,汽车的表现都远胜于手机和 AR 眼镜,有望成为连接物理世界和元宇宙的超级智能硬件。

随着自动驾驶技术、AR HUD 等产品和技术的进一步普及,驾驶者完全可以把枯燥且疲惫的出行任务交由汽车自主完成,用户在车内获取完全沉浸式的体验将不再只是科幻电影中的情节。面对这个充满无限可能的"移动空间",你准备好了吗?

2022-05-06 15:49:34
0