第三,技术应用与业务流程的融合不足影响了任务流畅度。当前的政务大模型的部署多停留在“技术外挂”层面,未能与业务流程进行有机融合,导致操作复杂、流程脱节,使用体验不佳、输出结果可用性低。例如,在四川省多个区县接入DeepSeek的政务服务助手中,针对“开办企业需要提供哪些资料”等咨询,系统给出的答案常存在表述模糊、内容缺失等问题。在许多政务领域的“智能问答”仍在采用简单的关键词匹配机制,大模型应用并未发挥生成式理解与回答的能力,仅作为关键词索引工具,难以处理复杂多样的公众咨询需求。 智能法治政府运转的 1.技术可靠性:技术缺陷损害政府权威 在智能法治政府的构建过程中,政务大模型生成内容的准确性、真实性和公正性直接关系到政府公信力。任何技术缺陷或偏差都可能引发公众对政府权威的质疑,进而影响智能政府建设效能。 政务知识体系具有高度专业性、规范性与语境依赖性。无论是法律条文的精确解读还是政策文件的背景理解,都需要专业积累与实践经验。大模型通过海量文本训练获得的知识结构,与政务领域所需的深度理解之间存在本质差异,导致模型在处理专业政务问题时,易产生“幻觉”。但更为严峻的是,政务大模型的“幻觉”问题与“不可解释性”两大技术缺陷,会因政府权威的背书效应而被显著放大。智能系统通过政务大模型与公众聊天交互时,可能输出真实信息与虚假信息相互掺杂的低质量信息。由于政府官方的背书,公众往往将官方发布的信息视为权威内容,较少质疑其准确性。如果公众按照政务平台提供的事实上存在偏差的指引开展活动,不仅直接影响公众的实际权益,更会逐渐侵蚀削弱政府公信力,最终引发更为广泛的不利后果。据报道,美国某政府部门用于审查退伍军人事务合同的AI工具,因技术缺陷产生“幻觉”,错误地标记了千余份合同,引发了法律诉讼,充分暴露了技术缺陷损害政府权威的现实风险。 2.安全风险:系统防护与数据保护的双重压力 随着政务系统加速接入人工智能技术,安全防护的压力急剧攀升。政府作为数据主权的守护者和公共秩序的维护者,其系统安全边界的任何缺口都可能引发连锁反应,威胁国家安全和公民权益。 第一,开源模型的安全风险。政府部门在智能化转型中倾向选择开源模型进行本地部署和定制,虽可避免数据外传风险,但开源架构的透明性使系统面临统一攻击路径的风险。当源代码和架构对外公开时,潜在攻击者可针对共性漏洞,设计模型越狱、提示注入等攻击策略,导致开源模型本身具有的安全隐患传导至所有下游部署的实际应用。开源模型部署的风险在政务环境中尤为严峻。如果大量政府部门采用相似的部署方式, 一旦某类安全漏洞被发现,将会导致系统性安全威胁的快速扩散。 第二,本地部署环境的安全配置与维护风险。政务内网虽具有网络隔离优势,但部署其内的人工智能模型若未设置妥当的安全环境架构、安全配置和安全风险响应机制,仍可能引发内部安全事件。尤其是,政务内网现有应急响应体系仅针对病毒感染、网络攻击等传统威胁设计,针对模型特有的模型投毒、对抗样本攻击等新型安全风险缺乏有效应对能力。 第三,政务数据安全风险。智能政府建设中,模型训练和优化过程需处理大量涉公民个人信息、敏感信息的政务数据,如果数据预处理和去标识化、匿名化不足,将会导致模型“记忆”敏感信息并在特定条件下意外泄露,影响政府公信力和社会稳定。在面向公众的应用中,提示词输入可能诱导模型输出不应公开的信息,形成“隐形漏洞”。重大公共事件或危机情况下触发的安全漏洞,甚至可能导致“系统性失声”或“功能性失能”,危及社会稳定和国家安全。 3.主体性弱化:过于依赖智能系统可能导致“技术懒政” 政府部署大模型的初衷是优化工作流程、提高行政效能。但随着大模型深度融入工作,其带来的流程优化和效率提升,也容易使政府工作人员形成依赖惯性,将本应由自身承担的分析、判断、决策责任推给大模型应用。即便在政府管理制度设计上加强对人工智能进行人工审查与监督,也可能因人的惰性而流于形式,从而在内部患上“技术依赖症”。长期发展下去,很可能导致公务人员独立思考能力和专业判断能力的逐步弱化,最终形成一种新型的“技术懒政”。 在个体层面,政府公务人员如果过度依赖人工智能辅助,减少自主思考和判断,将导致职业能力弱化,并在因算法引入而出现问题时,形成“算法卸责”。在组织层面,政府部门过度信任智能系统判断,减少人工审核,陷入“技治主义”陷阱,将行政机关应承担的决策责任不当推诿给技术系统。 政府决策本质上需要基于公共价值的判断和选择,过度依赖智能系统将导致价值判断能力萎缩,使决策偏离公共性和价值理性。当政府“智能化”异化为“去人化”,会忽视公众情感需求和价值诉求,损害政府与公众间的信任联结,背离全心全意为人民服务的根本宗旨。 4.公平性:智能决策考验行政公正 无偏私、平等地对待所有人是政务活动的重要核心价值。然而,随着人工智能技术日益融入政府决策过程,从行政处罚、行政许可扩张至行政给付等多元领域,并由半自动化逐步迈向全自动化,对行政公正的价值实现将带来前所未有的考验。 算法辅助或自动化决策已引发公平性争议。荷兰政府曾部署的SyRI人工智能系统用于识别社会福利欺诈,可根据申请人特征计算“风险分数”,却在独立调查中被发现对低收入社区和移民背景申请者给予不成比例的高风险评级,形成基于社会经济地位和族裔的差别对待,最终被海牙地区法院裁定违反欧洲人权公约的反歧视条款。 在我国行政执法实践中,公平性问题同样引发关注。我国广泛应用的交通电子监控系统虽提高执法效率,但其机械化判断逻辑无法充分考量紧急避险、特殊天气等情境因素,导致某些处罚缺乏合理性,算法执法的标准化处理忽视个案特殊性,事后司法审查也难突破技术壁垒。并且,受地方财政所限,不少地方政府采取与技术公司“风险共担、收益共享”的方式合作建设交通电子监控系统。而为偿还技术公司的投入成本,地方执法部门不得不利用“电子眼”加大执法力度,导致难以做出公正处罚。相比功能单一的“电子眼”,政务大模型的能力更为强大,其技术逻辑也更为复杂。复杂政务场景的自动化处理以及政务大模型技术服务外包对行政公正的挑战也将更为严峻。 当政府使用人工智能系统进行资源分配、许可审批、监管执法等活动时,任何系统性的偏见都可能构成对法治原则的实质性挑战。算法偏见一旦嵌入行政系统,其规模化影响可能远超传统行政过程中的个体偏见。算法决策应用于政务领域必须确保对行政相对人的公平对待。公平本身是一个多维度、高度复杂的概念,即使在传统行政决策中也常面临难以权衡的价值冲突。人类决策者通常能基于法律规范和社会共识做出灵活判断,但将其转化为代码时,公平的丰富内涵往往被简化为可量化数学模型。相较于人类决策者,大模型在处理需要权衡多重价值的复杂案例时,既缺乏灵活适应性,又存在伦理考量深度不足的局限。大模型继承并可能放大训练数据中的历史性偏见,使既有社会不平等通过算法决策被规模化地复制,形成可预测的偏见循环。算法决策与行政公平的协调是一个需要审慎处理、严肃对待的问题。 第一,坚持以人民为中心建设智能法治政府。人工智能大模型的应用必须坚守技术发展“以人为本”,政府也应坚持“全心全意为人民服务”的根本宗旨。 人工智能在提升政府效能的同时,必须确保技术为人民服务的根本属性不变,政府的人民性不因技术应用而削弱,依法履职的使命不因智能化进程而偏离。人工智能介入政府决策与服务过程,可能带来权力运行方式的深刻变革。智能政府建设应警惕技术赋能可能导致的权力扩张和运行失范。
潜在风险