第二类情境则是系统风险导向路径优先的情况。当智能技术的应用呈现高度自主性、显著的社会外部性以及技术过程的低可解释性时,技术风险的控制便难以完全通过个体层面的权利主张或事后救济来实现。由于此类技术往往能够快速而广泛地影响大量不特定个体,并在公共层面形成结构性风险,例如,误判风险、大规模歧视或不当监控风险,因此必须采取更严格、更主动的前置监管和持续性系统监督措施。具体的监管方式包括但不限于前置性的技术风险评估、事前准入审查或行政许可制度、系统运行中的实时监测和事故报告机制,以及明确的暂停和下线机制。此外,还需要引入独立的第三方评估机构,对技术系统进行客观评估与持续审计,以确保系统运行的安全性、合规性与可控性。总之,在高风险情境下,治理路径更多地关注整体的风险防控、责任主体的明确化和监管措施的持续性,从而确保公共安全与社会整体利益不受威胁。 第三类情境为权利导向与系统风险导向并行适用的情况。实际治理实践中,一些智能技术往往无法简单归入上述两种情境的任一类,可能同时兼具对个体权利产生侵害与对社会整体形成系统性风险的特征。例如,情绪识别技术和生成式人工智能技术(如大型语言模型)即属于此类情境。一方面,此类技术可能直接影响个体的隐私、尊严或权利;另一方面,其自主运行和规模化应用还可能产生社会层面的结构性风险,例如,大规模歧视或虚假信息扩散。因此,在治理上必须同时关注微观个体权利保障与宏观风险管控。适用的具体策略可以采取“权利底线+风险分层管理”的双重结构:首先,在微观层面严格落实个人信息保护的基本原则,保障个人知情同意权和救济权利;同时,在宏观层面实施高强度的风险防控措施,例如,对该类技术应用实行强制性的风险分级审查、动态准入管理和持续运行监测。通过这种并行治理的方式,既可有效地保护个体权利,又能确保系统性风险的及时发现与处置。 治理路径适配规则的正当性基础,源于法学理论中的比例原则与必要性原则。这一原则强调监管措施的强度与技术风险之间应存在合理的比例关系,只有在相应技术事实集合下,采取较高强度的监管措施才具有正当性与必要性;否则,应适度降低监管强度,回归至较低干预的权利导向路径。例如,当一种智能技术被发现可能造成严重而广泛的公共安全威胁时,则监管机构实施严格的前置审查和持续监管措施具有充分的正当性。而当某种技术的潜在风险较小且影响范围有限时,强制实施类似的高强度监管措施便会被认为是治理措施的过度扩张,应当适当减少监管干预。这种动态的适配逻辑确保监管的有效性和灵活性,使治理路径的选择更符合实际情境,并兼顾技术创新与风险防控的平衡。 因此,智能技术治理路径适配规则并非追求单一模式或简单归类,而是强调以技术自主性、社会外部性与可解释性为坐标,在具体风险情境中动态合理地确定个体权利保护与系统风险管控之间的治理重心。只有通过规范理论的深入分析和恰当的制度设计,才能为应对复杂多变的智能技术风险提供制度支撑,并有效地保障个人权利和社会整体利益的协调共存。 (三)衔接机制设计 要实现个体权利导向与系统风险导向两种治理路径在实践中的有机衔接,需建立一套配套机制,以确保治理措施在个体权益保护与系统风险防控之间实现无缝衔接,避免监管盲点与责任真空。为此,本文提出如下四项具体制度化机制,以完善智能技术治理体系的实施路径和可操作性。 第一,统一底线条款的普遍适用机制。面对智能技术对敏感个人信息的广泛利用,尤其是涉及生物特征数据、定位轨迹或敏感属性推断数据的处理,个体权利保障理应设立不可突破的普遍底线条款。这一底线条款不因技术形态的差异而有所松动,而应一律适用严格的个人信息保护原则,包括明确的数据处理目的、个人数据最小化原则、短期存储原则以及个体数据处理的充分知情同意与撤回权利。同时,为确保底线条款落地,需通过行政执法和司法程序保障个体的申诉、救济与纠正权利。例如,当涉及人脸识别或情绪识别等敏感数据的处理时,应确保数据主体明确知晓数据用途,并享有随时撤回授权的权利,以最大程度保障个人信息自主控制权的落实。 第二,动态高风险清单制度。这一机制强调由主管监管机构联合相关部门及外部专家,定期对智能技术应用进行风险等级动态评估与更新,及时将高风险技术应用纳入监管范围并明确监管强度与措施。这种高风险清单不应采取封闭式列举,而应采用开放性列举,以适应不断涌现的新型智能技术风险场景。例如,当前广泛讨论的情绪识别技术、敏感属性推断技术、跨数据库追踪技术,均可能对个人隐私权、人格尊严与群体权益造成重大风险,应列入重点关注的高风险清单,并实施严格的技术准入审查与持续监管。针对确有特殊必要的技术应用场景,应建立严格的例外审批制度,明确限定使用的期限、适用范围和复审周期,以保证监管措施的动态调整和适时修正。 第三,建立双轨评估体系,以强化个体权利保障与系统风险管控之间的相互支撑。个体权利导向路径所依赖的个人信息影响评估(PIA)制度与系统风险导向路径所依赖的算法/系统影响评估(AIA)制度,不应作为孤立的监管工具,而应在实际部署时相互配合、共同发挥作用。在具体操作中,可以将二者进行统一编号、联动评估,并在文件存档中实现相互引用,以确保不同层次的风险信息互通共享。例如,当某一智能系统进行重大更新或应用场景发生变更时,应同时启动二者的再评估程序,以共同构建持续、完整的证据链条,从而确保技术应用始终处于监管掌控之中。这种双轨评估体系不仅强化了对个体数据处理合规性的监督,也为系统层面的风险评估提供了具体的个案与数据支撑,防止权利保护与风险管理之间的脱节现象出现。 第四,实施指标化问责与激励机制。法律制度的实施不仅取决于法条规定的严密程度,也取决于能否通过执法机制和激励措施确保合规行为的实现。监管者应在执法过程中明确设定一系列可衡量、可核验的风险管控指标,例如, 对不同群体的差别性影响、算法偏差程度、系统运行中事故报告与响应时限,以及技术暂停与恢复的条件与程序。这些指标的设定不仅为技术提供方和使用方提供清晰的合规指引,也便于监管部门对技术运行状态进行实时监测和动态监管。同时,监管机构还应通过制度性激励机制促进合规行为的落实,例如对于合规表现优秀的企业提供监管沙盒、政府采购和税收优惠等政策激励,而对合规表现较差的企业,则限制其市场准入或予以更严格的监管约束,以形成权责明确、激励有效的制度环境。 综上,个体权利导向和系统风险导向两种治理路径的适配与衔接,需通过统一底线条款、动态高风险清单制度、双轨评估联动体系以及指标化问责与激励机制予以制度化落实。这些机制的实施能够有效弥合两种治理路径在实践中可能产生的缝隙和漏洞,确保技术风险防范和个体权利保护在规范上实现无缝衔接,共同构建起完整、系统、弹性的智能技术治理框架。
五、结语 从规范理论的视角来看,本文所构建的技术特性与治理路径适配框架试图在三个关键张力之间寻求合理的平衡与协调:一是“权利保护”与“系统风险治理”之间的平衡,以权利保障为底线确立治理的绝对边界,同时辅以风险管理工具对更为复杂的系统性风险进行有效管控;二是“事前预防”与“事后救济”之间的平衡,通过前置的风险评估、准入许可与持续监测机制搭建风险防控的前沿防线,同时在事后保留充分的程序性救济措施,包括信息透明、申诉程序与损害救济途径,保障个体在事后获得纠正与补偿的权利;三是“技术动态演进”与“规制稳定性”之间的平衡,以动态更新的高风险清单与适时评估机制保持规则的灵活性与适应性,同时通过统一的底线条款维持规则适用的稳定性与可预期性。这种三重平衡的治理安排,并非是对现行单一路径的简单替代,而是一种结构化的补充与精细化的制度分工,旨在更为精准有效地回应智能技术带来的风险与挑战。