向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

繁荣的汽车CIS生态能否拯救萧条的车市

2018年,安森美半导体将自己的图像传感器部门(Image Sensor Group)更名为智能感知部门(Intelligent Sensing Group)。安森美半导体智能感知部全球市场及应用工程副总裁易继辉(Sammy YI)表示,名称的改变并非更换几个字这么简单,而是要站在一个更高的格局上,充分展现感知未来发展的三大趋势:图像传感器、深度感知和传感器融合。

汽车和工业是安森美最为看重的两大市场,2019年第1季度分别贡献了公司全部收入的34%和26%。而为了提供更宽广的汽车传感器阵容,2017年,安森美收购了IBM海法研究小组(IBM Research Haifa Lab)在以色列的毫米波研发中心,用以提供毫米波雷达方案;2018年5月,又收购了爱尔兰SensL Technologies公司,其核心技术之一是单一雪崩光电二极管(SPAD),具有极强的感光效应。

“作为全球唯一一家拥有超声波、成像、毫米波雷达、激光雷达和传感器融合等全部感知技术的公司,安森美的战略布局是考虑如何提升综合能力,以宽广的产品阵容满足客户全方位的需求,而不是满足于在某一个领域做到极致。”易继辉说,与传统手机图像传感技术过度追求像素不同,以汽车、机器视觉、边缘人工智能为代表的新兴应用对像素的分辨、理解和判断能力在不断提升,创造“超越人眼的新视觉”,成为了公司的新目标。

为自动驾驶铺平道路

按照易继辉给出的数据,目前用于自动驾驶的车辆通常拥有9个图像传感器,下一代将超过12个甚至接近20个,先进驾驶辅助系统ADAS、车舱内摄像机、视觉摄像机和摄像机监控系统(CMS)和自动驾驶是其主要推动力,2018-2022年行业收入复合年增长率将高达21%,成为CMOS图像传感器最大的增长动力所在。相比之下,用于智能手机的CMOS图像传感器在未来几年内的成长率仅为2%。同时,车辆还将配备至少10个雷达传感器、2个超声波和1个激光雷达,从而具备360度的智能感知能力,实现全天候的跟踪、检测和计算。

1.jpg

第三方市场调研公司的数据显示,安森美在汽车成像领域的份额2016年为49%,2018年增长至62%;感知摄像机(ADAS、自动驾驶)领域,2016年市场份额为63%,2018年则达到了81%,超过了豪威科技、索尼等竞争对手的总和。

2.jpg

·图像传感器

多晶圆堆栈(multi-wafer stacking)、宽动态范围、近红外+(NIR+)像素、LED防抖(LFM)和全局快门,既是安森美目前在图像传感器中采用的主要关键技术,其实也是那些试图进入汽车领域的CIS厂商必须具备的能力。而在此前的采访中,易继辉还曾表示,AI将会极大影响当前设计和制造图像传感器的方式,改变设计和构建成像方案的方法,使得智能成像和自适应成像方案成为创新的一个新前沿,例如在自适应成像中,图像传感器将能够采集并提供只对AI算法有用和重要的图像信息。

多晶圆堆栈将把图像采集、信号处理、图像感知和物体识别等多种性能高度集成在智能终端设备中成为可能,安森美目前已经可以实现并量产两颗芯片堆栈,下一步是将处理器和存储器也加入其中,实现三颗堆栈芯片的量产。

宽动态范围则对夜间行车极为关键。在夜间行车时,如果遇到相向而行的车开启大灯时,在宽动态102dB的情况下,图像传感器可以看到路边行人的轮廓,人工智能算法就可以加以判断。但如果宽动态在80-90dB之间,人工智能算法就无法判断这是行人还是物体,甚至根本看不到实体的存在。

近红外+(NIR+)像素、LED防抖(LFM)技术和全局快门则构成了汽车智能感知阵营。近红外+(NIR+)像素技术增加了约4倍NIR敏感度,不必再采用大功率LED补光,大幅提升低照度下图像清晰度的同时还降低了功耗;另一方面,由于LED在闪烁的时候频率并不一样,目前还没有统一的业界标准,所以如果摄像机和红绿灯的频率不吻合,就会难以捕捉信号,这对整车厂挑战极大。安森美的做法是在获取信号后通过软件分析延迟和功耗,在传感器硬件上直接加以解决。

除了车外人工视觉(环视/后视)、车外机器视觉(ADAS/自动驾驶),易继辉还特别提到了迅速扩展的车舱内应用给图像传感器带来的新机会。驾驶员监控方面,除了传统的疲劳检测,还新增了疾病检测、情绪/生理测量、安全气囊精准调整、人机互动、虹膜识别和面部识别等。乘员监控,比如安全带提醒、儿童在场检测、物体和宠物检测、视频电话会议、出租车录像等,都是未来自动驾驶都要涉及到的应用。

自动驾驶另外一个需要保障的是功能安全。如果将整个自动驾驶系统的故障率单位标准设定为100FIT(Failure in Time),那么子系统就是10FIT,传感器就是1FIT,这是非常高的要求。尽管可以通过工程判断和路测来避免风险,但终究不能保证100%的可靠性。安森美联合整车厂,将目前已知的8000+种失效模式植入芯片中以鉴别芯片的可信度。此外,考虑到网络安全标准ISO 21434将于2019年底出台,安森美在2018年底已经推出了具备网络安全功能的800万像素图像传感器。

·毫米波雷达与激光雷达

NR4401是安森美开发的一款自动驾驶毫米波雷达融合方案,具备4个同步收发器Tx,考虑到未来L3-L5级自动驾驶对长距、中距和短距毫米波雷达的需求量会越来越多,NR4401采取了可扩展设计的级联和灵活配置,在单芯片上就可以支持短/长距雷达。

得益于对爱尔兰SensL公司的收购,安森美在首款200万像素车规级激光雷达FuseOne中第一次实现了图像传感技术与激光雷达的融合。按照易继辉的说法,传统激光雷达采用的是特殊材料和雪崩光电二极管(APD)技术,感光率普遍偏低,且成本动辄上万美元。而安森美的目标则是将传统上万美元的激光雷达降至几百美元,从而实现商品化、大众化。

当然,激光雷达和图像传感器只能看见物体,无法识别速度,且有着类似的缺陷,即容易受到天气和周边环境的影响。而毫米波雷达则没有上述顾虑,对金属敏感,能侦测感知移动物体的速度。所以,每种传感器在智能化设备中都有其独特作用,传感器融合将成为必然趋势。

很显然,把不同传感器获得的数据进行融合,继而产生最终的判断和决策,这是实现自动驾驶必须解决的问题。传统CIS提供商如果能够向整车厂提供包括CIS产品、毫米波雷达、激光雷达,甚至融合性算法在内的一揽子解决方案,汽车厂商开发自动驾驶的难度就会显著降低,他们对CIS供应商的接受度就会大幅提升。

机器看图的时代正在到来

一般来说,今天的成像产品有两大类的应用:视觉(viewing)和感测(sensing)。视觉是指人眼视觉,即拍摄的图像(图片和视频)主要用于为人眼所看并领会;感测是指机器视觉,即用于算法或机器学习理解而拍摄的图像。也就是说,在人眼视觉中,图像是为人眼所见并欣赏的,因此图像通常需要做到清晰、细致、色彩丰富且美观。而在机器视觉中,图像则需提供足够的信息,例如边缘、形状、大小等,用于算法读取并理解。

机器视觉应用非常广泛且多样化,除了工厂自动化、智能化工厂的发展,机器视觉还在智能交通、新零售、智能楼宇/家居、机器人/无人机、安防/监控、AR/VR/可穿戴设备等领域不断发展。

安森美半导体在CCD和CMOS两种图像传感器技术领域均有布局。在易继辉看来,CMOS事实上已取代CCD成为用于中低分辨率和大体量应用的主流技术。但他也同时提醒行业说,目前市场上有误解,认为CMOS技术适用于所有应用,并人为地去开发并不适合CMOS技术的产品和应用,这种做法是绝对错误的。

根据他的介绍,为了能够捕捉移动物体的清晰图像,全局快门技术已成为机器视觉市场的基本要求,其效率高低是关键的性能指标之一。例如在平板检测应用中,对更高分辨率、更佳图像均匀性和更高快门速度的需求在不断提升,其驱动力主要来自于面板材质的转变(由LED过渡至OLED)和更高分辨率(4K和8K)与生产力的提升,为支持这些需求,高性能小像素技术至关重要。

具有4K超高清(4096x2180)分辨率的XGS 8000和具有1200万像素(4096x3072)分辨率的XGS 12000是两款具有代表性的产品,均采用3.2µm全局快门CMOS设计,能够完全兼容紧凑的29x29 mm2摄像机设计。而最新的产品则包括功耗3瓦,支持每秒60帧8K视频的XGS 45000系列,以及专为现代智能手机显示屏检测而设计的5000万像素CCD图像传感器KAI-50140。

而在机器人和电子制造应用中,智能相机和智能视觉也正成为重要的推动因素。如何通过一个摄像头和一颗芯片,在不需要任何补光的前提下,就能实现对五种深度映射技术:立体视觉、结构光、飞行时间(TOF)、Super Depth和雷达的支持,并不是一件简单的事情。

Pandion是安森美最新推出的SPAD阵列激光雷达,采用了400×100矩阵型感光点,通过将传统的LiDAR点云(point cloud)变为LiDAR图像(Image),使得Pandion在Flash LiDAR时可感知3米内的深度,而当切换至扫描式波速控制(Beam Steering)时,则可以感知100米左右的深度。

“人眼视觉和机器视觉并无孰优孰劣之分,因为两者服务于不同的目的和应用。过去人眼视觉主导着成像应用和开发,随着人工智能的发展和对智能边缘设备的强劲需求,我们预期会有更多机器视觉应用的技术和产品创新。”易继辉说。

原创
本文为国际电子商情原创文章,未经授权禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
邵乐峰
ASPENCORE中国区首席分析师。
  • 微信扫一扫,一键转发

  • 关注“国际电子商情” 微信公众号

您可能感兴趣的文章

相关推荐

可能感兴趣的话题