车网中国现场报道
2021年9月3日-5日,由中国汽车技术研究中心有限公司、中国汽车工程学会、中国汽车工业协会、中国汽车报社联合主办,天津经济技术开发区管理委员会特别支持,日本汽车工业协会、德国汽车工业协会联合协办的第十七届中国汽车产业发展(泰达)国际论坛(以下简称泰达汽车论坛)在天津市滨海新区召开。本届论坛围绕“融合•创新•绿色”的年度主题,聚焦行业热点话题展开研讨。
在9月5日 “前沿瞭望:创造智能汽车新体验”中,英飞凌科技大中华区汽车电子事业部高级总监、车身与智能网联业务单元负责人 文君培发表了题为“半导体赋能汽车智能新体验”的演讲。
以下为演讲实录:
各位领导、各位嘉宾,业界的同仁们大家早上好。非常感谢泰达论坛的组委会的邀请,让我们今天有机会在这里跟大家分享一下英飞凌半导体对于整个智能网联汽车的发展所做的一些思考和实践。
大家都知道,在过去的一年以来,半导体成为了一个非常热门的话题,由于缺芯和整个汽车行业的发展,也促使了半导体比以往的合作模式下跟主机厂配合更紧密。从整体的趋势上,不管是生态链还是技术革新,大家都有了很多讨论,包括智能座舱、智能驾驶,以及新的电子电气架构的演变,都是热门的话题。今天我主要针对半导体如何赋能汽车智能网联所带来的新体验做一些分享。
我们看到,去年全球半导体市场大概规模大概为4700亿美金,排名前十的半导体企业基本占据了超过50%的份额。这是一个头部企业非常集中的行业。英飞凌半导体是全球前十大半导体公司,我们在全球拥有接近47000名员工,有60个研发中心,以及19座工厂分布在全球。我们主要的业务领域布局集中在能源效率、汽车,安全,物联网以及大数据这几个方面。
得益于去年成功收购了赛普拉斯半导体,目前英飞凌在全球汽车半导体市场上排名第一,我们拥有业界最丰富的产品系列,这里包括了传感器、微处理器,功率器件,存储芯片以及连接芯片。尤其是我们的功率器件,传感器以及微处理器都是在市场上占据了领导位置的产品线。
英飞凌一直秉持三大核心理念,也是顺应汽车行业的发展趋势。第一是零排放,对应着我们通常所说的电动化;第二,驾驶员变乘客,也是我们谈的比较多的智能汽车里的智能驾驶;第三,无汽车不智能,这里主要是指智能汽车更加注重用户体验以及电子电气架构的革新。
首先想分享一下用户体验。大家可以看到这几个都是一些传统的应用,我们要做的就是通过对技术解决方案的革新和优化,能够针对这些传统的应用做出不一样的用户体验。在这里我想拿智能座舱作为一个例子。大家知道,在未来的座舱里可能看到的显示屏数量会越来越多,而且显示屏的尺寸会越来越大,甚至由于内饰设计的需要,会有更多非规则屏的呈现。这个部分对于触摸屏的触控芯片的驱动能力带来很大的挑战,英飞凌目前能够提供超过20寸显示屏的单芯片驱动解决方案,而且我们的触摸驱动解决方案还支持会带来平常压力检测,声音反馈,振动反馈,还有悬浮触控等功能。
关于悬浮触控功能,我想稍微展开一下来分享, 目前手势识别的通常做法都是通过摄像头或者红外线来实现,但是但手离传感器靠得太近时,摄像头或者红外线方案会有一些检测盲区, 而我们的悬浮触控功能就能很好的做一个弥补。 另外在整个座舱的内饰艺术化设计上我们可能会在显示屏上增加一些金属按纽,而对于传统的电容式驱动芯片方案会有很大挑战,所以我们也会引入电感式的触摸驱动方案。所以这部分分享的例子就是我们通过技术的优化,在人机交互应用上能够带来不一样的用户体验。
将来的智能座舱不单是车载信息娱乐系统,也会融合更多的ADAS的功能,譬如大家比较熟悉的DMS驾驶员管理系统、OMS乘客管理系统、这些都可以通过一些传感器,包括图像传感器,以及毫米波雷达来获取感知数据从而进行下一步的决策。另外整个座舱也是要能够支持软件升级的(OTA),因为将来的智能汽车的设计方向都是打造标准化的硬件平台,通过软件的更新,提供一些新的应用功能。相信这个也会成为主机厂的一个设计方向,因为主机厂出厂的时候可能不具备所有完整的功能,但是可以通过付费的软件包来提供新功能。譬如大家也知道一些新势力造车企业,已经开始打造自动驾驶功能包付费的商业模式。
刚刚谈了智能座舱的例子,这些可能都是一些相对传统的应用,那接下来我想通过这张图来分享一下英飞凌半导体在智能座舱上新应用的一些探索。用智能眼睛、智能耳朵和智能鼻子来形容。
先讲一下智能眼睛。我们能够提供一个3D ToF的图像传感器,比起二维的传感器能够提供更精确的细节,同时可以支持测距功能。所以我们可以支持增强式的手势识别,而且能够区分主驾驶员和乘客的不同手势输入。当然,摄像头还可以针对整个头部动作,做一些主动式的交互。所谓的智能交互,我们希望它更多的是主动式的,而且是类人化的交互技能。譬如我们在座舱内拿起一本书,或者弯腰捡东西的时候,它可以识别到而主动把灯打开。另外可以通过检测脸部,做一些身份识别和支付功能。
另外,我们也可以通过摄像头检测到头部的位置变化,可以调整HUD抬头显示以及显示屏的角度,这就是非常主动式的交互体验。
刚刚讲了这么多图像传感器的优点,但它有一个比较大的不足,就是整套的图像检测系统费用比较高,而且私密度不够,所以这个时候我们引入了毫米波雷达,我们看到,它能够比图像传感器带来差异化的功能。譬如说像60G毫米波雷达,它就不会受这个环境的光照条件的影响譬如座舱内黑暗的灯光,而且,它也不会受光线的遮挡。 譬如说有些小孩比较矮,一坐上去可能摄像头照不到,但是毫米波雷达可以检测到。毫米波雷达可以提供基于亚毫米级的检测精度,能够检测到静态人体呼吸引起的胸腔振动,所以这个方案也是能够支持座舱内驾乘人员生命体征的检测,之前我们会看到的一些新闻,小朋友被锁在座舱内,那有了座舱内人员的生命体征检测手段,我们就可以通过手机获取信息,并通知驾驶员。
再讲一下智能耳朵。 智能耳朵就是我们讲的硅麦克风,通常就是语音识别和座舱降噪。其实大家看到的道路偏移和盲点的检测,之前是通过雷达或者是通过摄像头,但是通过高精度的麦克风也是一种补充的实现方式。当旁边有车跑过,带来的风噪是不一样的,或者是碰到小的路牙路障,眼睛看不到,但是这个时候胎噪传回来的声音不一样的。另外通过检测发动机的声音等等,对整车运行状态正常与否我们都可以做自检。
智能鼻子方面,我们提供了一个工业级别的二氧化碳浓度的检测芯片,这个部分在后疫情时代是非常重要的。天气比较热的时候,座舱开着空调,呼出的二氧化碳达到一定浓度,被芯片检测到了,可以自动触发功能,对空调系统进行换气,这些都是传感器带来的主动交互的功能的应用。
除了这些用户体验以外,对于未来智能汽车,电子电气架构上的革新也是一个重要话题。越来越多自动驾驶和辅助功能的不断叠加,使功能复杂度提升,对于功能安全和信息安全也提出了更高要求,但同时,我们也希望整套的电子电气的系统成本还能够得到节省。由此,我们正朝着Zo
nal Architecture区域性控制架构方向演进。目前,大部分量产的车型,应该都是分布式的网络架构,再加上一些功能域的架构,慢慢地往前走,大家可以看到,怎么样做低系统成本?原来所有的ECU都是分布式的,软硬件互相通讯没有那么顺畅,这个部分我们希望做更多融合,在软件上做更多的集成,减少硬件ECU的数量。但是域控制器也没办法解决线束的问题。一台车好几千米的线束,所以我们有了区域控制器的概念。左下角第二个绿色部分,这个部分慢慢把一些功能性安全要求没那么高的,按照区域来分,这会大大减少线束的长度,最终我们是希望能够形成一个大脑,中央处理器带着几个区域控制器的架构。
通过这个图能更好的看到,整个区域控制器里的架构,最早区域控制器扮演了网关,数据通讯、负载控制等,最初融入到区域里的是对于安全性要求没那么高的,传统的像座椅、门窗这些ECU模块,随着架构的发展,慢慢会把一些动力系统、底盘系统、BMS、传动系统安全等级要求高的ECU融入到一个区域控制器里,最终在最高级区域控制器架构里叠加一个数据预处理的功能,最后把数据送到中央处理器进行处理决策。
对于区域控制器所要具备的几个特性,第一个首先是性能。大家都在讲算力,这个当然是很重要的,对于处理器这是很重要的衡量指标。第二,它要支持到更高的功能安全ASIL-D和信息安全譬如支持HSM,第三,互不干扰地融合。举个例子,譬如像座舱将来会融合更多ADAS的一些功能,其实我们知道,座舱的前身是娱乐系统,娱乐系统通常来讲,它的功能性安全等级要求不高,但是ADAS需要更高的功能安全等级所以我们的处理器就需要支持Hypervisor,譬如仪表车身跑QNX系统,娱乐系统跑安卓系统。 第四,丰富的接口。新的网络架构里,传统的CAN/LIN都不能够满足整个的通讯带宽的需求了,所以需要有一个千兆网的以太网骨干网络,特别是支持TCN的以太网协议栈。
最后,关于自动驾驶。我们知道自动驾驶系统的AI芯片,V2X等等都是重要的技术。但是大家有没有想过,除了技术端,还有一个很重要的就是信任度,就算这台车有了自动驾驶的功能,但驾驶员要不要把它打开?这是建立于驾乘人员对于它本身的信任度。在这里我们稍微探讨一下,大家都知道,失效安全、失效运行都是比较标准的功能要求,而我们在此想强调一下“高可用性”的概念,系统出现失效后,失效运行能保证系统还是可以继续运行,但是很多功能是降维运行的。我们希望从网络架构到芯片层面,这种高可用性能够保证到多链路的冗余,当出现失效的时候,另外一条链路马上补上,功能没有降级。
感知系统、决策系统,包括执行端,这些系统最主要的一个基石,就是半导体。 半导体能够保证感知传感器传来的精确信息,高算力的处理器,以及稳定的执行器,从而得到一个更可靠,更可信赖的系统。
最后我用一页总结一下,英飞凌其实一直都希望能够跟业界的各位合作伙伴精诚配合,我们能够提供高可靠的产品质量和最优化的客户服务,也希望能够成为你们首选的合作伙伴,今天分享到这里,谢谢大家!