China Behavioral Law Society Development Network

中国行为法学会事业发展网
  • 中国行为法学会第六届四次理事会在京召开
  • 沉痛悼念马宝善同志
  • 中国行为法学会医疗健康法治研究专业委员会战略合作研讨会在京召开
  • 学会动态 | 第二届“澜沧江—湄公河次区域”国际法治论坛在云南警官学院举行
  • [完整版|图文]《中国法治实施报告(2022)》隆重发布
  • 《企业商事刑事风险防范指引丛书》 启动交流会在京召开
  • 中国行为法学会侦查学专业委员会第十四届全国侦查学术研讨会暨第七届现代侦查技战法论坛在浙江绍兴召开
  • 《民营经济促进法(草案)》征求意见座谈会在长沙举行
  • 为人民抒怀、为时代放歌 《人民就是江山》——大型公益原创歌曲交响 音乐会在京举办

   时政要闻

洪延青:人脸识别的双轨治理与通向智能技术的治理适配框架

来源:《行政法学研究》2026年第3期 | 作者:管理员 | 发布时间 :2026-04-21 14:29:49 | 12 次浏览: | 🔊 点击朗读正文 ❚❚ | 分享到:

权利导向路径的弹性更多来自原则的包容性,精心措辞的权利条款往往可覆盖未曾预见的新情况,通过价值衡量进行扩张解释。例如,“隐私权”已通过解释延伸到定位数据、基因数据等21世纪新领域,“平等原则”也被用来规范算法歧视。但这种适应有赖于法律解释者的视野和魄力,并且缺乏主动的“学习”机制。在制度层面,也少有内建的定期更新要求,例如,宪法和基本权利法典修改并不频繁,只能由新时代赋予其新的含义。

风险导向路径则努力将“学习机制”嵌入治理体系。例如,要求监管机构发布年度风险评估报告、定期召开专家会议研判新风险,并据此调整规制策略;鼓励行业协会总结事故教训、及时更新行业守则。这样形成从实践中获取信息、持续优化治理的反馈循环,类似于工程领域的迭代优化。然而行政机构或专家委员会的认知能力有限,而且如果透明度不足,公众将难以对这一调整过程是否出现偏差进行监督。

公众参与也影响适应性的路径。权利导向路径的变革常由公众舆论和社会运动自下而上推动(如隐私运动、数字人权倡议),一旦形成共识就会促使立法或司法做出改变,是规则演进的重要动力。而风险导向路径更多依赖专家自上而下的调适,由专业判断驱动政策变动,公众作用相对间接。这可能造成技术政策的“民主赤字”,虽然更新更快,但因缺乏公众广泛参与而正当性不足,引发质疑。

总而言之,在适应性与动态更新方面,权利导向治理强调价值恒常胜于规则易改,其强项是稳定明确但反应较慢;系统风险导向治理强调灵活调整胜于一劳永逸,其长处在机动前瞻但可能牺牲确定性和公众参与。如何结合两者的优势,是未来技术治理需要探索的关键课题。


四、技术特性与治理路径适配框架的展开

在前文区分了“个体权利导向”与“系统风险导向”两种监管路径后,本部分进一步探讨如何根据智能技术本身的特性,在二者之间进行适配性选择。具体而言,不同技术特性是否应对应不同的治理路径?何时应侧重保护个体权利,何时又应更加依赖对系统性风险的管控?为此,本文提出“技术特性与治理路径适配框架”,以技术自主性、社会外部性和可解释性三重维度为坐标,对包括人脸识别在内的新兴智能技术的风险特性进行识别,并根据不同的风险画像,动态匹配相应的治理路径和监管工具。

(一)智能技术风险刻画维度

第一是技术自主性(对“可预见性”的检验)。技术自主性是指智能技术在决策过程中无需人类干预而独立执行任务和决策的能力。这种自主性决定了智能技术行为的可预见性及由此产生的风险可控性。当系统的决策机制明确且稳定、决策边界清晰时,风险主要局限于数据获取和数据处理的合规性。此类情境下,传统的个体权利保护路径较为有效,通过合法性基础(如个人同意或法定授权)、数据处理目的限定、数据最小化原则及信息主体权利救济机制,就能实现风险的可控。例如,以固定规则驱动的人脸身份验证、静态个人信用评分系统等技术,其风险高度集中在隐私侵害或数据过度收集,这种风险相对易于识别且易于规制。

然而,当智能技术的自主决策能力显著提高,系统具备实时学习和自适应行为时,其决策边界便难以预先预测,传统的事前规则往往无法涵盖所有可能的风险情境,个体救济的事后补救更可能变得不切实际。例如,高度自主的无人驾驶汽车、实时公共场所人脸识别系统、大型生成式人工智能(如生成式文本或图像模型)等技术,都具有较高的不确定性与风险失控可能性。此时,风险很容易从个别案例的个人损害扩散至社会范围,形成难以个体化追责的系统性危害。因此,更需要系统风险导向的监管路径,建立事前许可或备案、引入独立第三方风险评估、设计实时风险监测机制与事故处置方案,包括确保必要时人为干预系统的“人在环内”机制,以及明确技术失控时的暂停或终止使用程序,以避免个体与公共风险进一步扩大。

第二是社会外部性(对“受影响范围”的检验)。社会外部性衡量智能技术对公共利益或社会整体产生影响的范围。当智能技术的影响主要限于特定个人层面,且对外界存在较强的可控性与替代性时,权利导向的治理路径更具适用性。个体在明确同意的基础上自主决定是否接受技术服务,这种情况类似于人脸识别的个人设备解锁、个性化推荐算法等情景,此类情形的风险范围可控,规制上可以主要依靠个人信息保护与隐私保护法律框架,以尊重个人的自主选择为主。

然而,当技术的社会外部性突出,其影响波及公共空间、不特定多数人乃至弱势群体时,个体自主选择的有效性大幅削弱。高外部性意味着风险可能超出个体的认知和掌控,带来群体性与结构性风险。例如,公共场所实时生物识别技术、公共情绪监测系统、社会信用评分算法等都具有显著的公共影响,风险可能集中表现为大规模监控侵犯隐私、群体歧视和偏见扩散等公共安全与公平问题。这类技术风险单纯靠个体救济无法有效防范,必须通过系统风险导向的路径,以政府监管的形式进行前置审查、风险分级和准入限制。同时需要跨部门监管合作,及时开展系统性风险评估、持续的社会风险监测与适时调整风险治理措施,从而确保公共利益与社会整体安全得到有效保护。

第三是技术的可解释性(对“可被治理性”的检验)。可解释性指智能技术决策的透明度与决策理由可被人类理解的程度。这项特性直接决定了治理措施介入的可能性与有效性。当智能系统具有较高的可解释性与可追溯性时,权利导向路径更为适用。可解释性较高意味着受影响的个人和监管者可以清楚地了解算法决策的逻辑与具体原因,从而较容易地发现不当决策,并通过现有的法律救济途径及时纠正错误或侵权行为。此类系统较易适用传统法律规则,如通过信息公开、个人异议和撤销机制进行有效监管。

然而,当智能技术呈现出显著的“黑箱”特征,决策依据高度复杂且难以明确阐释时,个体权利救济便因信息不对称而遭遇巨大障碍。例如,基于深度学习的情绪识别技术、大型语言模型等技术都可能对特定个人或群体产生影响,但其算法过程难以清晰还原与审查。这种低可解释性的情形下,单靠个体权利主张或事后救济难以奏效,监管方式必须转向更强度的系统风险导向措施,包括实时监控、持续性能审计与透明度报告、独立第三方算法审核与认证,以及明确算法责任主体的持续说明义务。这种前置性与持续性措施可弥补个体因技术信息高度不对称而难以有效主张权利的缺陷,及时发现和干预系统性风险。

综上所述,技术自主性、社会外部性与可解释性三项技术特性,在规范意义上直接决定着个体权利导向路径和系统风险导向路径之间的适配选择。治理路径的选择,应当根据这三项特性组合呈现的具体风险情境,动态决定是以保障个体权利为主,还是转向系统性风险治理,抑或需要两种路径并行以达成治理效果的最优化。唯有在治理路径的选择上具备足够的弹性与灵敏性,才能在保障个人权利的同时有效应对日益复杂的智能技术风险。

(二)适配规则

智能技术的治理路径适配问题,在规范上体现为如何依据特定技术风险刻画进行审慎的制度选择,以避免治理方式的“一刀切”或过度单一化。因此,在前文区分技术自主性、社会外部性和可解释性三项关键技术特性的基础上,本部分进一步提出一种可操作的治理路径适配规则,以确定在何种情境下适宜采用权利导向治理路径,何种情境应倾向于系统风险导向,何种情境下则需要两种路径的并行适用。

第一类情境为权利导向路径优先适用的情况。这种情形通常表现为智能技术运行的自主性较低、对外部环境影响范围较窄且技术决策过程具有较高的透明度和可解释性。具体而言,此类技术往往是具有清晰决策规则的静态或简单动态算法,例如,明确的个人身份认证系统或个性化推荐系统。由于此类技术的潜在风险较易被个体察觉和控制,个体通常具有有效的救济渠道,因而规范路径适合以个体权利保障为核心。治理措施的着重点应放在个体信息处理的合法性与正当性审查之上,具体包括严格遵循告知同意原则、落实数据最小化和数据留存期的限制,并为个体提供充分的程序救济机制和说明理由的义务。此外,权利导向路径在这一情境下也要求企业必须提供明确的信息,使个人能够清楚地了解并掌控相关智能技术的应用过程与结果,从而有效维护自身权利。

   通知公告

  • 暂无相关记录!
【编辑:杨昊一