China Behavioral Law Society Development Network

中国行为法学会事业发展网
  • 中国行为法学会第六届四次理事会在京召开
  • 沉痛悼念马宝善同志
  • 中国行为法学会医疗健康法治研究专业委员会战略合作研讨会在京召开
  • 学会动态 | 第二届“澜沧江—湄公河次区域”国际法治论坛在云南警官学院举行
  • [完整版|图文]《中国法治实施报告(2022)》隆重发布
  • 《企业商事刑事风险防范指引丛书》 启动交流会在京召开
  • 中国行为法学会侦查学专业委员会第十四届全国侦查学术研讨会暨第七届现代侦查技战法论坛在浙江绍兴召开
  • 《民营经济促进法(草案)》征求意见座谈会在长沙举行
  • 为人民抒怀、为时代放歌 《人民就是江山》——大型公益原创歌曲交响 音乐会在京举办

   时政要闻

丁晓东:制度与场景:重构人脸识别与人脸图像信息保护

来源:《行政法学研究》2026年第1期 | 作者:管理员 | 发布时间 :2025-12-29 13:41:09 | 661 次浏览: | 分享到:

相较而言,公共监控中的人脸信息具有事前一般预防的特征。就人脸视频监控对象而言,公共监控所收集的人脸信息涉及公共空间的所有个人,而非仅仅刑事个案所涉及的人脸信息。因此就制度而言,人脸视频监控并不需要获得一般性授权,整体坚持“统筹规划、合理适度、标准引领、安全可控”的原则。不过也正是因为其权限较广,其部署应当仅限于公共空间,排除“安装图像采集设备后能够拍摄、窥视、窃听他人隐私”的区域、部位。就监控目的而言,人脸公共视频监控包含了维护公共安全、信息追溯、威慑犯罪与侵权等目的。因此人脸公共视频监控虽然无法获得个体或公众授权,但应该在显著位置设置显著标识,告知公众存在监控视频。公共监控的显著标识除了可以有效威慑犯罪与侵权,对于获取公众信任也有重要意义。如果公共监控视频没有相关提示,甚至在公共空间秘密部署,则公共监控视频就可能变为一般性技术侦查措施,公众可能反而会因为此类秘密监控而感到不安全。

对于执法隐私制度涉及的非典型人脸保护场景,执法隐私制度也应进行改造性适用。例如,在企业等私主体的执法场景中,很多企业不仅进行人脸公共视频监控和维护其内部营业安全,而且对此类监控视频进行人脸识别与违法人员筛查。例如,上文提到的娱乐场所利用人脸识别技术筛查未成年人,网约车利用人脸识别技术筛查可疑犯罪分子。此类情形构成私人执法或委托执法(delegated enforcement)。在本文看来,对于私人执法是否应当被允许,私人执法应当遵守何种程序,需要考虑多种因素。就执法权限而言,人脸识别所涉及的违法行为的严重性程度越严重,私人执法者越难找到人脸识别之外替代性的执法方法,人脸识别执法造成的执法错误或附带侵害越小,私人利用人脸技术进行执法就越应当被允许。就执法规范而言,法律需要对私人执法进行严格规范,以避免私人执法对公众权益造成侵害。《公共安全视频图像信息系统管理条例》对此已经做出若干规范,例如,“建立系统监看、管理等重要岗位人员的入职审查、保密教育、岗位培训等管理制度”“采取授权管理、访问控制等技术措施,严格规范内部人员对视频图像信息的查阅、处理”“建立信息调用登记制度,如实记录查阅、调取视频图像信息的事由、内容及调用人员的单位、姓名等信息”。当私人主体进一步利用此类视频图像进行人脸识别,法律应当在私人主体遵守这些规定的同时,进一步制定其人脸识别执法的程序与制度。


五、结语:制度与场景如何对齐

本文对人脸信息保护进行整体图景分析,指出将人脸信息区分为技术性识别的人脸识别信息和自然识别的人脸图像信息,并对其进行二分保护,会带来很多问题。有的人脸识别场景并不适合适用信息隐私或个人信息保护制度,有的人脸图像信息也可以部分适用信息隐私或个人信息保护制度。人脸图像并不必然具有公开性、非私密性,而人脸识别信息也未必因为其生物性特征而变得具有敏感性、非公开性、私密性特征。这些现象产生的根源在于,人脸信息和其他所有个人信息保护一样,其保护取决于人脸信息流通与利用的场景。如果对人脸信息本身进行保护与属性认定,其结果就会导致制度适用悖论,很多制度将无法发挥作用或带来负面效果。

为了超越人脸信息保护的悖论,本文区分了隐私与个人信息保护的三种典型制度模块:侵权隐私、信息隐私与执法隐私。其中侵权隐私是一种横向性制度,这一制度主要维护横向社会主体之间的关系;信息隐私是一种倾斜性制度,这一制度主要维护信息能力不平等主体之间的关系;执法隐私则是一种纵向的制度关系,这一制度主要维护执法者与个体或公众之间的关系。无论是侵权隐私、信息隐私还是执法隐私,法律都需要通过对人脸图像信息或人脸识别信息的保护而实现合理的信息关系,促进横向性、倾斜性与纵向性关系中不同主体的信任。本文将人脸信息保护放置在这三种不同的制度模块下进行分析。其中有的场景完全对应某一制度模块的典型场景,因此其制度与场景高度对应。但更多的场景则并非完全对应某一制度,对于这些场景,应当对制度模块进行拆分、重组、改造或转型升级,并将改造后的制度适用于这些非典型场景。

人脸信息保护看似是一个小问题,但揭示了具体场景与法律制度对齐的一般原理。在法学研究与法律制度设计中,人们常常会根据直觉对法律适用对象进行分类。例如,在本文的例子中,人们的第一直觉往往区分人脸信息属于人脸识别信息还是属于人脸图像,同时对其进行二分保护。但正如本文研究所表明的,直觉性的分类可能反而带来更多问题。究其原因,直觉性的分类是人们根据日常经验所形成的第一反应,是人们理解与应对现实世界的表象性认识,而法律制度所要处理的问题往往具有复杂性,需要超越此类直觉性或表象性认识。法律需要既全面深入了解相关场景,又对制度的分类与功能进行更为准确地把握。如此,法律才可以在匹配的场景中适用相关制度,在不匹配的场景中改造与升级相关制度,场景与制度才能真正对齐。



文章来源:《行政法学研究》2026年第1期


   通知公告

  • 暂无相关记录!
【编辑:杨昊一