在讨论AI分级之前,我们以汽车自动驾驶这一使用场景为例,来思考分级的意义。
一、自动驾驶的分级
在自动驾驶领域,目前行业已经普遍达成了共识,将“汽车驾驶自动化”进行了较为明确的分级定义,同时颁布了推荐性国家标准。
该分级是对“动态驾驶任务执行能力”的分级,从低到高依次是应急辅助(L0,如车道偏离预警,自动紧急制动等)、部分驾驶辅助(L1,车道居中,自适应巡航等)、组合驾驶辅助(L2,自动变道,领航辅助等)、有条件自动驾驶(L3)、高度自动驾驶(L4)和完全自动驾驶(L5)。
当前,具备L1、L2功能的车辆已经在售,具备L3能力的新车辆目前也在加紧研发和测试中,相关法律法规也在持续补充和完善。
我们无法预言L4、L5级别的车辆何时出现。
可以确定的是,未来L4、L5级别车辆能否走进社会,除了需要技术本身的迭代和进步,与之匹配的使用环境也需要得到适配发展,才能构建出高级别自动驾驶车辆赖以生存的环境。这些环境因素包括但不限于法律法规,社会接纳度,社会舆论,普通人认知,公路基础设施,能源网络,通信设施等等。
由于自动驾驶与生命安全直接相关,且汽车产业发展迅速,因此相关分级标准、法律法规配套速度相对较快。
二、AI分级的迫切性
目前涉及民用的AI普遍存在与开发、设计、生产环节中,在消费和使用环节尚未产生颠覆性、安全性等重大影响,因此AI分级还未有现成的行业标准,仍处在共识的形成过程中。
人们能够有直观感知的不是区分AI能力的大小,而是新闻、广告的曝光率。
在2026年2月的马年春节期间,多个科技巨头刚刚结束了一场春节营销大战:字节跳动豪掷十亿冠名春晚,让豆包传遍千家万户;阿里巴巴结合自家千问和淘宝生态,拿出30亿请客点奶茶;腾讯则为了推广元宝的祝福语、图像生成功能,准备了10亿元现金以微信红包的形式进行推广。
与对汽车的态度不同,人们似乎对AI抱以类似互联网般的态度,接受程度更高,接受速度更快。实际上,AI应用所产生的风险和自动驾驶所产生的风险虽然不尽相同,但都影响深远。而且,AI应用的场景更复杂、更多样,涉及面更广,以至于达成相对统一的分级角度、方法、可操作性等方面的难度也更大。
分级的初衷是便于人们实现对AI的风险管控和差异化治理。
现阶段AI应用所导致的问题已经层出不穷,比如AI造假、恶意代码攻击、生成谣言并传播、生成不良内容并传播等。
此外,在一些特殊应用场景,如医疗,工业生产,交通等,AI一方面可以提高效率,另一方面对AI的容错率要求高,因为一旦出现误判、意外等事件,产生的后果不堪设想。
将AI进行合理化分级,有助于对AI产品进行标准化管理,大大提升各类产品的安全底线,有效降低潜在风险。
三、AI分级的挑战
AI分级在理念上较为容易达成共识,然而落地上困难极大。
AI分级不能停留在定性上,而是要考虑算法可解释性、技术迭代速度、利益博弈、跨国差异、责任和义务等一系列技术和伦理难题。这里仅列举三个典型的挑战。
(1)技术迭代太快:分级标准可能“刚出台就过期”
目前AI能力呈现出阶跃式增长,大模型每6–12个月能力翻番,小模型通过微调、LoRA、插件等方式,也能瞬间获得高风险能力。
今天被定为低风险的聊天AI,明天加个工具调用就能写恶意代码、做诈骗脚本。
业内专家Geoffrey Hinton、Yoshua Bengio均强调过:现有的分级都是 “给某一时刻的 AI打分”,但AI会自我进化、跨模型联动,风险是动态、涌现、不可预测的。
(2)责任主体不容易界定:出了事,到底算谁的?
AI应用的链条极长,包括底层模型基座、平台、开发者、第三方插件、使用者、用户等。同时,AI中的很多算法模块仍是黑盒,其中的推理逻辑无法做到完全解释。
这种情况下,一旦用户在使用中出现问题,产生问题的责任不容易进行追溯。
比如AI换脸诈骗这一案例,责任该如何认定?模型提供方没有做到隐私保护?软件开发没有做到功能限制?视频发布平台没有做到实时监督?使用者动机不纯?
责任主体界定困难是AI分级落地的极大制度障碍。
(3)伦理与价值冲突:不同地区的文化差异
AI跟随互联网的步伐,能够在全球被触达。然而正是因为地域范围广,以至于有些分级不是技术问题,是价值观问题。比如欧盟委员会2025年5月公布的《人工智能法案》,将AI应用分为“不可接受风险”“高风险”“低风险”三类。 其中,实时面部识别、社会信用评分等被列入禁止清单。在我国,面部识别广泛应用于机场,酒店,甚至超市等场所。此外,还有涉及政治、宗教、价值观内容,不同国家和地区的边界完全不同。
无论挑战如何,全球AI治理将必然会走进“分级管理”时代。新的工具产生,必将催化新的社会发展以及新的社会共识形成。
AI是智能化的工具,是能力强大、应用广泛的工具,因此分级不仅是技术问题,更是人类如何平衡创新与责任的文明考验。