为什么光照对纯视觉自动驾驶影响较大?
被动感知的物理天花板
纯视觉感知系统本质上依赖于环境光反射,是一种被动获取信息的架构。其核心在于摄像头本身并不主动发射光信号,而是接收来自太阳、路灯或其他车辆灯光照射后从物体表面反弹回来的光子。
这种工作方式与人眼的视觉机制相似。在光线充足且分布均匀的情况下,摄像头可以捕获丰富的颜色、纹理与语义信息,这些数据对识别交通标志、判断车道线以及理解复杂的交通情境具有不可替代的作用。然而,当光照不足或环境光条件极端时,这种被动感知方式的局限性便凸显出来。
相较之下,激光雷达等有源传感器则具备“自带光源”的能力。它通过向外发射激光脉冲,并测量其从目标反射回来的飞行时间,从而直接推算出物体的三维坐标。这种主动探测方式使其在无光环境下依然具备高精度的感知能力,且不易受环境光干扰。
在低光环境下,摄像头传感器面临的首要问题是信噪比(SNR)的显著下降。光子数量减少时,传感器接收到的有效信号可能被电路中产生的热噪声所覆盖。为了增强成像效果,系统通常会延长曝光时间或提高感光度(ISO)。
延长曝光时间在动态驾驶中会带来运动模糊的问题,使得目标轮廓变得模糊不清。而提高感光度虽然能增强亮度,却会引入大量随机噪声,使图像质量恶化,严重影响后续神经网络对关键特征的识别。
环境介质对光波的拦截与扭曲
自动驾驶车辆并非在真空中运行,光线从物体反射至摄像头的过程中,需穿越复杂的环境介质。雨雪、雾气等恶劣天气会通过散射、折射与吸收等物理机制,对视觉信息构成多重干扰。
雾气对视觉感知的影响主要源于米氏散射(Mie Scattering)。当雾滴直径与可见光波长相近时,光波会被强烈散射。这不仅导致远距离目标迅速消失,还会在图像中形成模糊的“白幕”,大幅降低目标对比度。
从图像处理的角度看,雾气效应相当于在图像上施加了一个低通滤波器,削弱了高频细节。这使得神经网络难以准确识别被遮挡的行人边缘或车道线,进而导致识别置信度下降甚至漏检。
雨天则会引发光线折射和全反射问题。每一滴雨珠如同微型球形透镜,会扭曲穿过其的光线,造成图像局部伪影和扭曲。
更为严重的是,雨滴附着在摄像头的保护玻璃上时,会引发散焦效应,导致关键区域模糊不可见。
在雪天,视觉系统面临的挑战包括对比度不足和物理遮挡。高反射率的雪地在强光下易导致图像过曝,而在阴天,雪地与白色车辆或标志之间的色彩区分度下降,使算法难以识别目标。此外,积雪覆盖摄像头时,会造成物理性“致盲”,这属于不可逆的感知失效。
这些物理干扰对纯视觉系统构建空间几何模型的能力构成挑战。由于缺乏激光雷达那样通过精确飞行时间剥离噪声的能力,纯视觉系统必须依赖杂乱像素进行概率推断。这种信息源的中断,限制了系统的感知可靠性。
图像信号处理器,被忽视的信息损耗环节
即使光线成功穿透大气并被传感器接收,从原始传感器数据(RAW数据)到最终进入自动驾驶系统的RGB图像,仍需经过图像信号处理器(ISP)的一系列处理。
传统车载ISP的优化目标是服务于人眼视觉,追求色彩鲜艳、对比度高、噪点低的图像效果。然而,这种以“视觉美感”为导向的处理流程,对机器视觉算法而言反而成为负担。
ISP处理包括去马赛克、白平衡校正、去噪、伽马校正和色调映射等步骤。在低光或高动态范围(HDR)场景中,这些处理步骤的副作用尤为明显。例如,去噪算法在消除噪声的同时,也可能抹除微小纹理,造成图像“平滑化”。
这种处理对于依赖像素级特征梯度的深度学习模型而言,意味着关键边缘信息的丢失。
另一个问题是动态范围的处理。自然界中的亮度跨度可达140dB,而主流车载传感器的动态范围通常在120dB左右。当车辆从隧道驶入强光环境时,ISP必须迅速调整曝光参数。
传统的HDR技术依赖多帧合成,但在高速行驶中易引入运动伪影。不同帧之间的曝光差异可能导致图像出现重影,从而干扰目标识别。
此外,色调映射和伽马校正本质上是信息压缩过程。为了将高动态范围的RAW数据压缩至有限的RGB位深,ISP会压缩阴影与高光区域的对比度。这会导致原本在RAW域中清晰可辨的亮度差异被归并,进一步削弱感知模型的识别能力。
这种“人眼导向”与“机器需求”之间的错位,成为纯视觉自动驾驶在极端光照条件下表现不佳的重要诱因。当前已有研究尝试跳过传统ISP,直接使用RAW数据进行端到端训练,这从侧面印证了传统图像处理链在光环境适应性方面的局限性。
深度学习在极端场景下的认知边界
深度学习是纯视觉自动驾驶的核心技术,但其性能高度依赖训练数据的分布特性。在光照条件显著恶化的情况下,算法的认知能力也会出现偏差。
卷积神经网络(CNN)和Transformer模型主要依赖像素间的对比度梯度提取特征。在强逆光或远光灯直射场景中,传感器可能因过曝而产生“眩光”或“溢出”效应,导致目标轮廓模糊。
这种效应不仅遮盖了目标纹理,还破坏了物体的几何形态。当特征图中缺乏高频信息时,卷积核无法有效激活,系统可能“看不见”障碍物。
单目视觉系统依赖算法推断距离,通常利用“近大远小”的视觉经验或地面纹理变化进行估计。但极端光照条件下,路面纹理消失,目标特征失真,深度估计将变得极不稳定。
即使系统识别出前方有行人,也可能因距离估算偏差而导致误判。在高速行驶场景中,数米的距离误差即可引发安全风险。
更深层次的问题在于当前模型本质上是进行“模式匹配”。若训练数据集中绝大多数是晴朗、光照良好的场景,模型将形成先验偏见。在遭遇低光、隧道出口等长尾场景(Edge Cases)时,可能误将异常轮廓识别为无害的阴影或路面杂质。
这种泛化能力的缺失,是纯视觉方案迈向L4及以上自动驾驶水平必须克服的关键障碍。