(来源:求是网)
转自:求是网
算法的治理困境主要体现为治理对象的模糊性、治理规则的矛盾性、治理责任主体的多元性等,这些问题的根源来自技术逻辑、平台权力与制度滞后之间的相互影响。
市场监管总局近期发布实施外卖平台推荐性国家标准《外卖平台服务管理基本要求》,针对“外卖配送员权益保障不足”等问题,提出平台要综合考虑路况、天气、配送难度等因素对调度算法进行优化,科学规划配送路线。图为2025年10月2日,一名外卖员在河南省焦作市温县街头骑行,为顾客送餐。 新华社发 徐宏星/摄
治理对象的模糊性。与传统基于明确规则的“可读代码”不同,深度学习时代的算法,由于具有模型规模巨大、参数庞大、行为非线性等特征,即使是开发者和平台方也难以解释其决策逻辑,这是“黑箱社会”问题在技术层面的具体体现。
治理规则的矛盾性。各国的算法规制几乎都在强调促进创新、维护公平、防范风险、保护隐私、保障言论空间等多重目标,但在具体规则设计和执行层面,这些目标之间却存在一定的矛盾冲突。例如,提高模型透明度有助于问责,但可能泄露商业秘密甚至被恶意利用;强化风险防控可以降低歧视和安全隐患,却可能无形中抬高合规成本、抑制技术创新。在人工智能技术透明度与可解释性上,法律对“可理解”的要求与技术对“高精度”的追求之间同样存在一定的矛盾,这使治理规则在具体推进过程中面临一些现实阻碍。
治理责任主体的多元性。算法带来诸如歧视、误导、沉迷等后果时,通常涉及算法设计方、数据提供方、平台运营方、用户个体方等多个责任主体。主体的多元性无形中带来责任的分散性,掌握算法代码运行和管理的平台,容易在“责任分摊论”、“技术中立论”等论调的掩盖下逃避或推诿承担的主要责任。基于这一现状,亟待划定算法治理的责任边界,加强对技术平台的责任约束,探索构筑协同共治、各司其职的治理格局。
算法治理面临多重困境的核心原因,还在于传统的法律规制体系难以适应算法技术的流变性与复杂性。现有的法律规范多基于工业时代的物理实体构建,追求确定性与稳定性,而算法技术迭代极快,具有高度的流动性与不确定性。例如,对于生成式人工智能带来的“幻觉”风险、数据侵权等新问题,传统的版权法等在认定侵权主体、主观过错及因果关系时显得捉襟见肘。法律的滞后性与分散性,导致在面对新型算法侵害时,缺乏精准的案由与裁判规则,往往只能通过类案检索或原则性条款进行模糊适用。同时,算法的专业壁垒极高,且涉及企业的商业秘密。监管机构与平台企业之间存在巨大的信息不对称。平台往往以算法复杂、不可解释或商业机密为由,拒绝披露核心逻辑,导致监管难以深入到底层代码与运行机制。这种“技术面纱”使监管往往只能停留在事后的结果应对,而难以实现事前的风险预防与事中的穿透式监管。如何在保障算法安全、维护公共利益与促进产业发展、鼓励技术创新之间找到平衡点,是立法与司法面临的巨大挑战。