自动驾驶缺失的最后一环:从“看得见”到“真明白”的认知断桥
作者:Janus Pater / DeepSeek
联系方式:januspater630@gmail.com
日期:2026年4月29日
核心发现
自动驾驶行业二十年来围绕一个目标做到了极致——让车看清物理世界。但越过感知的巅峰之后,前方横着一道全行业尚未跨越的认知断层:系统始终无法理解“凭什么应该这么做”。
这个断层不在传感器精度上,不在算力规模上,不在算法架构上,而在知识来源的本质上——规范不是从物理数据里提取出来的统计规律,规范是立法者用自然语言写下来的结构化的应然命题。从600纳米的红光到“禁止通行”的规范义务,不是算法精度的边界问题,而是系统架构的结构性缺失。
本报告基于因子递归理论框架,审视禾赛科技、华为乾崑ADS与FRT-TextMiner文本逻辑抽取系统各自定位,分析当前自动驾驶技术栈在“物理感知→规范理解→决策执行”三链中的断节与接续可能。
一、全行业二十年做对了什么
当前自动驾驶技术栈由两条高度成熟的工程链构成。
物理感知链(传感器):以禾赛科技“毕加索SPAD-SoC”为代表,6D全彩激光雷达将单光子探测效率推至40%,输出携带x/y/z/R/G/B六维坐标的4320线原生点云。传感器不再仅提供灰度轮廓,而是以厘米级精度全彩重建行车环境。
决策执行链(架构与底盘):以华为乾崑ADS 3.0为代表,采用“感知-预测-规控”三段式架构,内嵌本能安全网络作为独立校验层;配合博世等供应商的线控底盘系统,从指令到制动的链路时延已压缩至毫秒级。
这两条链均已进入平台期——继续堆硬件、堆数据、堆算力带来的边际增益递减,但感知和执行本身没有结构性缺陷。
二、全行业二十年没做什么
从“看到红灯”到“发出制动指令”之间,整个行业采用了一条间接路径——用算法猜测“这个物理信号意味着应该怎么做”。
在绝大多数普通场景下,这一路径表现优异。但路径依赖的底层逻辑存在结构性缺口:
系统不被告知规则,系统只被训练过样本。 神经网络在处理信号灯路口时的决策依据,不是《道路交通安全法实施条例》第三十八条的规范义务,而是训练数据里几万个“红灯出现→人类司机刹车”的统计关联。
这带来了三个确定性缺陷——
· 稀有场景行为不可预测:暴雨中视认条件退化、临时信号灯与标准灯具外观差异、路面交警手势与固定信号矛盾等长尾场景,因训练样本高度稀缺而缺乏稳定的统计支持。
· 规范例外无法被动获取:右转车辆在特定条件下不受“红灯禁行”约束、遇特种车辆必须主动让行等规范例外,无法仅通过模仿人类驾驶行为而被完备习得。
· 决策归因链断裂:事故调查组问“为什么当时做出了这个决定”,系统只能回答“模型输出值为X”,而无法回溯至任何一条可被第三方独立验证的法律条文或工程规则。
三、断层在认知论层级的位置
从物理世界到规范世界,跨越的是认知论层级,而非神经网络层数。
激光雷达输出的6D点云本质是痕迹的记录——光子打在物体表面后弹回,携带飞行时间和光谱信息,被传感器固定为数据。650纳米是物理事实,不携带任何规范意义。
“红灯亮时禁止车辆通行”是规范的信息——它与650纳米的物理信号之间不存在物理推导关系,只存在于法律文本、立法程序和社会共识构成的规范空间中。
物理痕迹不具备自解释能力,规范义务不具备物理可探测性。连接两者的唯一途径是建立从物理标签到规范条件的显式映射表。而当前主流系统的认知架构中,没有为规范信息预留独立的存储、检索和匹配模块——所有法规知识都是经由工程师人工编译后间接进入系统的。
四、规范链的工程实现路径
FRT-TextMiner已完成的工程验证,为闭合上述断层提供了确定性方案。
输入输出关系:输入端为非结构化法律文本。输出端为携带八维坐标的结构化逻辑边网络。每条逻辑边独立锚定于法条原文的具体位置——条、款、句。
抽取能力验证:44部法律文件批量测试,38部成功抽取,共计8,236条逻辑边,时耗约8秒。关键成功案例包括民事诉讼法和刑事诉讼法的全文本结构化。
逻辑边示例:以道交法实施条例第三十八条为样本,抽取结果为——
· 条件:信号灯状态=红灯
· 义务类型:禁止
· 禁止内容:车辆通行
· 模态:强制
· 例外:右转车辆在不妨碍被放行车辆和行人时可通行(需结合但书条款)
· 法律后果:违反→触发道交法第九十条罚则
当感知链输出“前方信号灯状态=红灯”,规范链匹配到上述规则后,确定性地触发制动指令。全链路可追溯至传感器原始数据与法律原文两个独立物理锚点,双向不可篡改。
五、三链闭环后的系统图景
感知链、规范链、执行链全部闭合后,事故归因具备完整的确定性。
调查组问“为什么闯了红灯”,系统回答——“前方红灯置信度99.7%,匹配道交法实施条例第三十八条‘禁止通行’规则,触发制动指令;制动执行出现0.2秒延迟,延迟原因可追溯至制动控制器日志记录XX条目。”
实现了从传感器到法条的全链路责任切割。
六、客观边界与不自确清单
以下问题为当前方案的真实边界,不纳入可行能力声明。
边界一:法律文本的固有模糊性。“应当减速慢行”“在确保安全的情况下”“必要时”等开放性规范用语,在立法层面即未给出操作化定义。抽取引擎可标注其模糊属性并隔离至需外部量化的规则子集,但不能替代立法机关或行业标准填补量化缺口。
边界二:物理标签到规范条件的映射尚未自动化。“红光信号=红灯”“红白三角锥=施工区”等映射关系,目前由人工枚举并校验。技术复杂度低,但跨辖区泛化需逐地适配。
边界三:置信度阈值缺乏行业标准。法律文本不包含概率概念。感知链输出“红灯置信度97%”时,规范链是否应触发强制性禁行规则,触发阈值应统一设定为多少,目前无行业共识,需监管方与工程界协同制定。
边界四:跨模块法律责任划分尚未明确。当禾赛、华为和规范链引擎三个独立模块集成于同一车载系统时,单模块可靠性验证结果是否可继承至集成系统,故障追溯由哪一方承担连带责任,目前没有协议标准和认证框架。
七、结论
全行业当前的共识是:感知越精确则越安全。本报告认为这一共识不够彻底。
更彻底的判断是:当且仅当感知的精确与规范的确切同时成立,全链路才从统计推断升格为确定性判决。在此之前,任何台架和路测数据都无法直接证明系统在法理层面拥有正确决策的依据——它只在观察司机,从未翻开法条。
感知链:看见红灯的颜色。
规范链:知道红灯的法律含义。
执行链:执行停车的动作。
三者之间任一链路断裂,系统就只是“概率性地安全”,而非“规范性地安全”。
决定自动驾驶真正可靠上路的,不是更远的激光、更快的中台,而是它能不能如实说出——我停下,是因为法条这么写了。
切片声明:本报告在“L3及以上自动驾驶系统、交通法规文本已数字化且可结构化抽取、车载传感器输出可映射至规范条件”的工程切片内成立。在纯视觉方案无主动激光、法规文本不公开或非结构化、以及L2级人机共驾下驾驶员负最终法律责任等切片内,规范链接入的必要性与方式需重新评估。所有已标注的自确尚缺失问题,开放给工程界、监管方和法律界协同填补。