China Behavioral Law Society Development Network

中国行为法学会事业发展网
  • 中国行为法学会第六届四次理事会在京召开
  • 沉痛悼念马宝善同志
  • 中国行为法学会医疗健康法治研究专业委员会战略合作研讨会在京召开
  • 学会动态 | 第二届“澜沧江—湄公河次区域”国际法治论坛在云南警官学院举行
  • [完整版|图文]《中国法治实施报告(2022)》隆重发布
  • 《企业商事刑事风险防范指引丛书》 启动交流会在京召开
  • 中国行为法学会侦查学专业委员会第十四届全国侦查学术研讨会暨第七届现代侦查技战法论坛在浙江绍兴召开
  • 《民营经济促进法(草案)》征求意见座谈会在长沙举行
  • 为人民抒怀、为时代放歌 《人民就是江山》——大型公益原创歌曲交响 音乐会在京举办

   时政要闻

周辉:论智能法治政府

来源:《行政法学研究》2026年第2期 | 作者:管理员 | 发布时间 :2026-03-25 15:44:21 | 17 次浏览: | 🔊 点击朗读正文 ❚❚ | 分享到:

人工智能技术应当服务于规范政府权力与保障公民权利的法治价值。在设计和应用人工智能系统时,政府应将公平正义的法治理念置于算法逻辑之上,确保技术运行符合法治精神。应用人工智能技术的政务活动,必须高度警惕技术应用可能引发或加剧的“社会排斥”问题。如果智能化的公共服务体系在设计上未能充分考虑不同群体的数字素养与接入能力,其结果将不仅是对老年人、残障人士等群体的边缘化,更是一种系统性的制度性排斥。智能政府的绩效评价中,应把“让人民满意”作为核心价值导向,切实保障人民的“满意权”。智能法治政府建设应当始终将技术视为实现为民服务的手段,而非目的本身。

政府在智能化进程中,应以“人民满意”为目标,识别和响应公众需求,不仅关注技术指标和效率提升,更要关注技术应用对公民权益的实际影响,确保技术赋能最终转化为民生改善和公共福祉增长,从而向公众提供高效的公共服务。

第二,落实“总体国家安全观”,推进智能政府和法治政府良性互动。必须坚持总体国家安全观的指导,从国家安全战略高度统筹智能政府与法治政府的协调发展,既要充分释放人工智能技术对政府治理的赋能效应,又要防范技术应用可能带来的风险隐患,确保国家治理体系安全稳定运行。

政府作为公共权力主体和社会稳定器,其安全边界应比一般市场主体更为严苛。“法律之于安全,是权利的稳定器,失控权力的抑制器。”法治政府是“权力受监督制约的责任政府”。将智能政府建设全面纳入法治政府的框架之内,正是要运用法治的确定性、规范性和强制性来驾驭人工智能技术的不确定性与潜在风险,从而确保人工智能发展安全、可靠、可控、始终在法治轨道上服务于国家安全与公共利益。

第三,在法治轨道上实现智能政府高质量发展和高水平安全的良性互动。引入大模型的核心目标在于政务服务智能化、行政办公效率提升、城市治理智能化以及营商环境改善,本质是基于政府提质增效的考量。

智能政府活动应同时确立“基于设计的人工智能”和“基于合规的人工智能”原则,致力于在政务大模型部署中寻求效率与安全的最佳平衡点,实现以发展促安全、以安全保发展的良性循环。智能法治政府不仅要对新技术、新应用带来的风险挑战予以回应,更应着眼于为智能经济、智能社会、智能政府构建具有基础性、原则性的制度框架。

02
智能法治政府建设的方法论

第一,实施场景化分类治理。在清晰识别政府运用政务大模型具体场景的基础上,根据行政行为主要影响内部管理或直接作用于外部相对人的性质差异,制定不同的法律规则和监管措施。

在政府内部管理领域,大模型主要辅助公文处理、知识检索、流程自动化及内部决策参考,目标是提升行政效率和内部协同。针对内部应用场景,建设重心在于保障信息安全、确保辅助功能可靠性以及规范内部工作流程,确保数据安全和保密合规。伴随行政活动作用于相对人的人工智能应用,既会因与相对人的交互增加风险变量,也可能在效果上影响或改变外部公民、法人的权利义务,法律关系更加复杂,需要更加审慎。

对于负担性行政行为,例如,利用人工智能实施行政处罚、采取强制措施、限制或剥夺特定权益等活动,应施加更为严格的法律控制。应在严格落实《行政处罚法》等现行法律规定的基础上,明确算法决策的可解释性要求、归责机制和救济路径,设立有效的人工复核或干预机制,充分保障相对人的知情权、陈述申辩权,并提供通畅的法律救济途径,防止权力滥用和侵犯公民权利。

对于授益性行政行为,例如,发放行政许可、分配公共资源、确认福利资格等活动,法律规制应在遵循《行政许可法》《中华人民共和国社会保险法》等相关法律精神的前提下,侧重于保障机会公平与程序公正,确保人工智能应用过程中的标准统一、执行准确、结果一致,防止算法偏见或歧视导致的不公平现象。

第二,创新模型化治理。建设智能法治政府不仅是对人工智能技术的应用与管理,更需要引入大模型技术提升治理能力,实现从技术化治理到模型化治理的方式转变。

首先,政务大模型部署后的能力边界,必须有法律的明确设定。法律需要明确哪些政府活动或决策环节可以适度引入自动化,哪些领域因其复杂性、敏感性或对公民权益的重大影响而必须保留人工主导或严格的人工复核。在缺乏透明度、可解释性和公平性保障的情况下,应禁止或严格限制模型的自主决策。

其次,模型化治理要求从选型、训练、部署到监测优化,各环节均建立动态适应的标准规范,引导政务大模型不超越预设的应用范围,内部运作和外部行为影响始终处于可控状态,避免因“黑箱”特性导致权力失控或责任模糊。通过建立模型风险的动态评估与干预机制,利用好安全对抗测试工具,及时发现并修正政务大模型的安全风险。

再次,模型化治理应汲取模型训练的跨领域知识迁移、增量学习、实时优化等能力。通过不断收集政务大模型风险数据,持续优化政务大模型治理规则库和知识图谱,研发用于政务大模型治理的垂类模型,在“统一规制”工具库要素的基础上,迭代丰富“调优适配”的新型治理工具和风险解决方案。

第三,节点化配置权责。智能法治政府的构建,需要推动政府行为向节点化管理转变,并实现法治建设在权力、责任与相关方权益层面与相应节点的精准匹配。

2025年7月1日,中央财经委员会第六次会议提出要“统一政府行为尺度”,把政府行为放在法律制度的标尺下度量,做到“法定职责必须为,法无授权不可为”。实施节点化治理,正是将“统一政府行为尺度”的宏观要求,转化为对每一个政府行为节点的有效赋权与有序约束。

鉴于政务大模型在行政流程中扮演着多重角色,将复杂的政府行为分解为若干相互连接、功能清晰的“节点”或“环节”,便成为实施有效治理的关键前提。

政务大模型及相关政务活动的信息采集、数据分析、方案拟定、决策辅助、指令执行以及结果反馈,都应被视为相对独立的单元进行审视和规制。法律规范需明确界定该节点所涉及的权力范围、责任归属以及相关方的权利保障。例如,针对在信息筛选、个人评价、风险预测等特定节点的应用,必须清晰设定模型的权限边界、数据使用的合规性要求、人工干预的必要性与时机,以及该节点操作结果的法律效力与责任承担机制。

节点化的治理方法有助于将宏观的法治原则细化落实到政府运作的具体环节,提高权力行使透明度与责任追溯的可操作性。一旦出现决策失误、信息泄露或权益受损等问题,也能够更精准定位问题发生的具体节点,并依据该节点预设的权责配置规则进行处理。


PART.5


智能法治政府的建设路径


01
从“规制到塑造”的范式表达

智能法治政府的构建不仅是技术层面的革新,更深层次地触及了政府治理的基本理念与权力运作模式。其治理理念将从传统的“规制”转向主动的“塑造”,旨在将以人民为中心的价值追求贯穿始终,并确保技术创新与安全保障在法治轨道实现协同并进、良性互动。

第一,智能法治政府的理念革新。“转型社会制度变革总是在先进的意识、观念和理论的引导下展开的。”智能法治政府的构建,首先要求在监管理念上实现根本性转变,即从传统的、以事后应对和限制为主的“规制”思路,转向更具前瞻性、主动性和建构性的“塑造”范式。这并非否定规制的必要性,而是强调法治在人工智能时代应扮演更积极的角色。

“塑造”意味着智能法治政府建设不仅为人工智能应用划定红线、设定底线,更要主动参与技术发展路径选择、应用场景规划、价值伦理构建及制度环境营造。法治政府应以建设性姿态引导人工智能在政务领域的健康发展,将“规则刚性治理”与“语义柔性治理”相结合:一方面以明确的法律规则、技术标准和问责机制构建稳固的法治框架;另一方面通过政策引导、伦理共识和场景赋能,推动人工智能发展方向与公共利益和法治价值保持一致。

   通知公告

  • 暂无相关记录!
【编辑:杨昊一