China Behavioral Law Society Development Network

中国行为法学会事业发展网
  • 中国行为法学会第六届四次理事会在京召开
  • 沉痛悼念马宝善同志
  • 中国行为法学会医疗健康法治研究专业委员会战略合作研讨会在京召开
  • 学会动态 | 第二届“澜沧江—湄公河次区域”国际法治论坛在云南警官学院举行
  • [完整版|图文]《中国法治实施报告(2022)》隆重发布
  • 《企业商事刑事风险防范指引丛书》 启动交流会在京召开
  • 中国行为法学会侦查学专业委员会第十四届全国侦查学术研讨会暨第七届现代侦查技战法论坛在浙江绍兴召开
  • 《民营经济促进法(草案)》征求意见座谈会在长沙举行
  • 为人民抒怀、为时代放歌 《人民就是江山》——大型公益原创歌曲交响 音乐会在京举办

   时政要闻

周辉:论智能法治政府

来源:《行政法学研究》2026年第2期 | 作者:管理员 | 发布时间 :2026-03-25 15:44:21 | 16 次浏览: | 🔊 点击朗读正文 ❚❚ | 分享到:

第二,智能法治政府的权力重塑。从“规制”向“塑造”转变的核心在于重塑政府公权力的内在形态与运作逻辑。政务大模型的引入并非仅仅是为现有权力体系提供新的技术工具,而是对权力本质、行使方式乃至合法性基础发起了一场结构性的变革。

传统公权力以人的理性和科层结构为主要依托。政务大模型正以数据驱动和算法赋能的方式,深刻重塑公权力的认知基础、决策模式与行使效能,使其从传统的人类经验与线性审批,转向基于智能分析、人机协同的高效非线性运作。然而,技术逻辑的复杂性与数据驱动的内在局限可能引发公众对政府权力运行的透明度、公正性和可问责性的质疑。因此,智能法治政府语境下的权力重塑,不局限于适应性调整或补充性规范,而在于前瞻性地思考和构建一种与智能化权力形态相适应的新的合法性框架、责任机制和监督体系。塑造大模型部署中的权力架构及其监督机制,增强规范性和问责性嵌入,方可在法治轨道上最大程度实现正当性与行政效能的统一。

第三,智能法治政府的流程迭代。理念革新与权力重塑的必然结果,是智能法治政府对传统行政流程的再造。

针对内部行政行为,流程迭代主要致力于提升行政效率、强化内部协同和实现管理精细化。既要让大模型适应政务流程的需求,也要以更好释放大模型效能为导向优化既有的公文处理、信息共享、政策辅助研判等内部环节。

面向外部行政行为的流程迭代,对智能法治政府建设提出更高要求。一方面,外部行政行为的行使必须在追求效率的同时,坚守公平正义、程序正当与权利保障的法治原则。直接影响公民、法人或其他组织权益的行政活动必须严格落实算法应用的透明可解释,确保相对人的知情权、参与权与申辩权,确保行政程序规范有效运行。另一方面,外部行政行为要提升相对人的便利度,将行政管理和服务尽可能集合、集成于一个窗口、一个客户端、一级界面,即形成具有跨部门能力的政务AI Agent。权力的融合必然伴随着权力滥用风险的增加。交通“电子眼”的经验表明,即便是功能单一的工具,也需法律严格授权并限定其边界。面对能力更强、逻辑更复杂的AI Agent,更需未雨绸缪,为其预设权力清单与责任机制,实现其在法治轨道内的可控运行与权责统一。

02
智能法治政府的制度建设

确保人工智能在政府治理中得到负责任的应用关键在于构建一套与之相适应的、具体可行的制度体系,以保障智能法治政府的建设要求落到实处。

第一,伦理规范实质性嵌入政府人工智能全过程。我国虽然在2023年7月公布了《科技伦理审查办法(试行)》,但科技伦理审查制度仍处于起步阶段,存在审查形式化、虚置化等现实问题。政府作为公共利益的守护者和规则的制定者,在人工智能研发、提供和使用活动中的示范作用尤为重要。

随着政务大模型能力提升,人工智能对传统行政决策方式的替代从理论走向实践,为防范技术异化与自动化偏见,需构建细化的伦理审查机制。应基于人工智能在决策中的角色和影响程度设置针对性标准:对于完全代替人类决策的大模型应用,应明确禁止人工智能独立完成涉及国家安全、社会稳定、公民核心权益的重大决策;对于可适度引入智能决策的领域,则应设定明确的授权上限和程序保障,确保效率提升不损及合法性和公信力。伦理审查应关注训练数据偏见、算法设计公平性、决策过程透明可解释、责任链条清晰完整等关键问题,并建立动态调整机制优化审查标准。通过这种分场景的伦理审查体系,可以在促进智能决策创新的同时,有效防控决策风险,维护行政决策的法治底线。

第二,规范和保障智能法治政府基本要素供给。智能法治政府的构建与运行高度依赖于算力、数据、算法及模型等基本要素。这些作为“公共物品”属性的要素供给,应通过法治路径加以规范和保障。

一方面,要保障基本要素的规范利用。相关要素的采购应严守《中华人民共和国政府采购法》等法律规定,确保公平透明,保障各类人工智能服务提供者具有平等市场机会,形成竞争充分的政务大模型生态。政务大模型部署需符合相关法律要求,明确主体责任、供应商资质与安全评估,并通过对抗测试等手段评估安全性。需要确保技术供应商、数据管理者与政府主体的责任穿透,并引入公众参与的透明度验证,更好监督智能法治政府建设过程。

另一方面,要保障基本要素的供给能力。破解政府智能化转型中基本要素资源不足与配置失衡困境,需要推动基本要素支撑体系建设。目前我国各地政府的智能化进程存在显著差异,情况较好的地方政府可以实现自下而上式的智能化进程,但更多地区仍需要通过智能法治政府自上而下式统筹建设。在外部支撑维度,纵向上建立中央统筹、省级支撑、基层应用的协同机制,规划公共算力,提供专项资金,增强技术自主可控,“鼓励各地区从顶层设计上完善相关配套政策,推动数据要素的市场化、价值化”;横向上创新政企合作,通过购买服务、联合研发、数据共享等措施激活社会资本参与算力与数据建设。在内部改造层面,应构建与智能治理相适应的新型政府组织形态。政府内部需形成“人机协作”工作流程,设立专门协调机构统筹大模型应用,打破部门边界,优化业务流程,合理分配数据与决策权限,使组织与技术逻辑深度融合。同时,也需要加强对政府工作人员的人工智能素养培育,创新市场化人才引入与共享机制,破解智能政府的专业人才瓶颈,让各级政府“用好”人工智能。

第三,同构融贯智能政府责任机制与激励机制。应提升问责机制对人工智能应用场景的适应性,一体设计智能政府责任机制和激励机制,将责任边界与激励措施置于同一框架下考量。既要明晰智能应用中的责任链条,又要激发政府部门和公务人员的创新活力,从而缓解责任追究与技术创新间的结构性矛盾,塑造边界清晰、敢于创新、善于创新且负责任的智能政府形态。

为避免过度严格责任阻碍技术尝试,应构建区分主观过错与客观风险的尽职免责规则,完善试错容错管理制度。对于公务人员在引入智能技术过程中尽职尽责但因技术自身局限导致的不利后果,应当建立清晰、具体的责任豁免机制。尽职免责要以充分履行事前评估、过程监督和事后审查等职责为前提。通过明确界定政府部门和公务人员在智能应用中应当遵循的基本义务和行为标准,对于严格遵循规定流程并履行必要职责的情况下出现的技术失误或系统缺陷所导致的问题,区分不同情形予以合理责任减免。

智能政府可在具备条件的区域设立政务大模型创新试点,在开展大模型应用的探索性实践的同时,构建科学的监测评估机制全程跟踪实践效果。对取得显著成效的创新经验,应及时提炼其中的规律性认识,开发可广泛适用于某类政务场景的标准版本,推动成功做法“泛化”,最终实现创新成果的规模化复制与系统性推广。我国学者在《人工智能示范法》中提出鼓励政府机关、事业单位及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域依法开展人工智能技术应用先行先试,优先采购和使用安全可靠的人工智能产品和服务。为有效实施《人工智能+意见》,需要推动政府部门强化示范引领作用,通过开放场景等支持技术落地。政府部门的先行先试不仅有助于在内部环境中持续优化政务大模型的适用性和效能,还能为引导和促进国内人工智能产业的技术创新和市场发展注入信心和资金,形成政府应用与产业发展的良性互动循环。

第四,体系推进政府人工智能活动专门立法。智能法治政府建设需要法律规范体系作为基础支撑,为模型化治理提供统一、权威的法律框架。在短期内,可针对既有法律规范中与政府人工智能活动、政务大模型应用相关法律法规的具体条款进行修改,使其适应技术变革的客观需要,在保留法律体系整体稳定性的同时,回应新技术带来的新需求。从长远来看,修法模式难以应对技术跨界融合、快速迭代的系统性挑战,也无法突破现有行政法律框架对技术创新的约束性制度瓶颈。《人工智能+意见》中明确提出应“强化政策法规保障”,要求“完善人工智能法律法规、伦理准则等,推进人工智能健康发展相关立法工作”。国家发改委同中央网信办发布的《政务领域人工智能大模型部署应用指引》进一步从应用场景、规范部署、运行管理等方面提出了工作导向与基本参照。未来,应在人工智能发展和治理实践更加成熟后,创新立法机制和路径,制定关于政府人工智能的专门法律,或者在人工智能综合性立法中以专章形式规定政府人工智能活动的内容,从而为政府人工智能应用提供统一的法律框架。

   通知公告

  • 暂无相关记录!
【编辑:杨昊一