爬越企服-爬越算法备案代办

快速导航

联系客服

客服橙子

  • 微信二维码

  • 13360330306

  • cz@payue.com

算法备案

代办互联网信息服务算法备案、深度合成备案填报,电话13360330306,微信同号

杭州互联网法院及中国政法大学课题组:算法技术的法律规制:治理困境、发展逻辑与优化路径|中国应用法学

  •  更新时间:2024/11/12
  •  点击量:421
  •  分享

算法技术在推动社会发展的同时,也带来了诸多风险与挑战。本文通过分析算法技术的发展现状与风险,探讨了其治理困境及成因,并提出了相应的行动逻辑与优化路径。强调应从专业化、场景化、体系化等维度加强算法治理,以促进数字正义和构建良善数字法治秩序。这对引导算法技术健康发展、保障社会公共利益具有重要意义,为算法治理提供了有益的参考。杭州互联网法院、中国政法大学联合课题组撰写了《算法技术的法律规制:治理困境、发展逻辑与优化路径》一文


算法技术的法律规制:治理困境、发展逻辑与优化路径

算法作为网络空间的一项重要基础性技术,算法治理在网络社会治理中居于关键地位且具有重要意义。基于算法治理的复杂性和特殊性,我们应在实证分析算法技术发展现状、风险、治理困境及其成因,充分考量行业发展、公共利益、法律秩序、数字权利保护等法益平衡基础上,形成算法技术治理与法律治理的思维方法与行动逻辑,从专业化治理之维、场景化治理之维、体系化治理之维探索算法技术法律规制的优化路径,进而构建更加公平透明可解释的算法规范,形成更趋于数字正义共识的技术伦理规则,塑造机制更加健全完善的算法治理体系。

随着算法技术的蓬勃发展,社会治理的时间、空间、质量和效率维度得到了大幅拓展,为构建数字经济新形态、数字社会新形式、数字治理新范式提供了无限发展可能。但与之同时,算法歧视、算法霸权、数字鸿沟等问题也悄然出现,技术滥用可能异化为与人类本质相对的力量,给人类福祉带来难以预计的风险与挑战。在新形势下,如何强化算法技术法律规制,引导算法向契合数字文明建设需要、延续未来产业希望的方向发展,成为当下数字法治研究的重大课题。本文在实证分析算法治理困境及其成因基础上,坚持遵循算法治理的技术逻辑与法律逻辑,充分考量技术发展、权利保护与社会公益的价值平衡,提出推进算法治理专业化、场景化、体系化建设的优化路径,以期为促进数字正义和构建良善数字法治秩序提供建议参考。


▐ 一、算法技术的发展现状与伴生风险



算法治理是“算法社会”行为规则塑造的核心议题之一,要对算法实现有效治理,就必须对算法技术的发展现状、风险进行充分调查与考量,真正掌握隐藏在计算程序背后算法的技术逻辑、特性与规律,进而构建公平透明的“算法法律”,形成趋于共识的算法伦理“规范”和迈向算法可解释的“代码”。


(一)算法技术的发展现状

近年来,算法作为收集、处理数据,挖掘数据价值的生产工具,其技术应用实现了对生产、流通、分配、消费等模式的数字化改造,对产业生产、社会治理组织结构产生了显著影响。当人工智能机器学习进入大模型时代,算法不再纯粹是一项技术创新,它已转变成一种生产工具和新型权力,只需对模型参数进行简单调整,便能满足数字经济、公共治理、网络法治和城市建设等重要领域多功能场景需求。


一是在社会生产领域,算法技术在产业侧引起了大量科技企业布局,成为创新创业热点,有效推进了新质生产力的发展。如在自动驾驶测试中,搭建仿真模拟平台对自动驾驶算法进行仿真测试和技术验证,帮助自动驾驶算法训练开发。


二是在数字文化领域,内容生产各个环节都有算法的身影。依靠算法推荐技术,基于用户兴趣偏好进行“算法分发”成为数字内容主要的分发方式,新闻智能化的新闻采编、机器自动生成的新闻资讯、AI合成播报等成为传统新闻报道的有力补充。特别是生成式AI无需人类参与就能自行生成高质量原创性内容,实现图片风格转化、文本转图像、图片转表情包、图片或影片修复、合成逼真人类语音等结果,该技术将与数字内容领域深度融合,推动内容开发、商业服务、视觉艺术等创新。


三是在公共服务与治理领域,算法技术根植于数据的大规模、自动化、自主性、迭代式收集与分析,为提升治理能力带来了新的可能性。数字政府建设促成行政权力的行使向自动化与智能化转变,引入算法的决策和资源分配深刻影响了民众的行为、利益和福祉,大幅提高了服务效率。在乡村振兴战略中,通过算法机制动态识别和积极匹配多元化诉求的数字贫困农民群体,建构数字服务供需双方之间的良性服务关系,推进数字贫困农民公平共享公共服务信息等。


(二)算法技术的伴生风险


作为新一轮科技革命中至关重要的驱动力量,算法在日常生活和社会治理中的广泛嵌入引发了多种风险并日渐受到社会重视。欲对算法进行有效法律规制,就必须全面审视算法滥用可能带来的法律风险。


一是国家安全风险。随着经济全球化、交易网络化,数据跨境转移和流动规模日益扩大。在强大算力支撑下,大规模集合式信息相互结合,可能会让算法操纵者从中总结出国家、政治、军事各方面敏感信息,在经济层面削弱国内以数据驱动的新兴技术产业的竞争优势。在意识形态层面,算法推荐长期有针对性地对特定个人或群体进行内容推送,无形中可能影响用户思想,操纵特定用户思维,操控社会舆论。同时,利用信息分发算法进行内容操纵亦潜藏政治安全风险,可能引发公众对政府的信任危机。


二是数字人权风险。算法的控制对人格尊严、自由选择、平等参与、民主权利等产生深刻影响,亟须按照数字正义原则,防范算法对人们的偏好诱导、思想控制和行为影响,维护数字人权。从技术属性上看,自动化决策算法因其专业性、复杂性和不透明性具备了单方强制力。智能推荐算法使用户长期处于同类信息环境中,不利于个人思想的塑造和观点养成;网络环境的开放性和算法分发技术的高效性,使网络成了不良内容、负面内容、非法信息、虚假信息广泛传播的工具;部分平台可能利用个性化推送算法对用户消费习惯、地理位置、需求程度等进行数字画像,实行差别化商品推荐、定价和券补发放等算法歧视行为。从工具属性上看,算法通过对数据的挖掘、处理与结果输出,使得数据演化为资源、商品、财产,大规模聚集于各类平台或企业手中。加之数据的非法收集流动和超权限使用,导致政务数据、健康医疗数据、生物识别数据等高价值特殊敏感数据大规模泄漏,甚至对公民权利造成严重侵害。如滥用生成合成类算法进行深度伪造等,给生物特征识别验证系统和规则秩序带来了风险。从伦理属性上看,算法不断嵌入公权力运行,甚至在某些领域成为决策者,而算法设计、部署者多为少数掌握软件开发技术优势的企业,进一步引发了公众对算法偏见和不公平决策的疑虑。


三是经济秩序风险。平台作为数字经济时代掌握了底层计算力量、云计算服务等算法技术的重要社会生产组织,如缺乏法律规制,极有可能利用算法支配地位,运用管理者和经营者的双重身份,操纵商品展示、排序的优先级以获取竞争优势,或者通过封禁、限流、降低便利性等方式拒绝与其他平台连接,限制阻碍其他经营者提供更优质的产品服务。如平台通过算法搜索降权、实行流量相关限制等来逼迫商家“二选一”等。同时,动态定价算法对交易活动的深度介入进一步提升了市场透明度,大型平台可能采取共同限制价格或产量、控制销售渠道等进行算法共谋,垄断市场。

▐ 二、算法技术的治理困境及其成因


鉴于算法给网络治理底层架构带来了监管困难与挑战,我们在整理各国算法法制综述和实地调研淘天、腾讯、华为等互联网头部企业基础上,从法律供给、技术特性、治理规范等维度实证分析算法技术治理困境及其成因,以期更好地寻求破解困境的法治化出路。


(一)法律供给不足加剧了算法规制的难度


随着算法技术广泛应用于医疗、社交、旅游、服务、购物等场景,我国构建了由法律、行政法规、指导政策等组成的算法治理法律政策体系,对网络空间的治理已逐步迈向了算法治理。从全球范围看,各国都在积极探索算法有效规制路径,较为典型的有美国公共治理框架下的外部问责机制,欧盟数据治理框架下的个体赋权机制等。但随着算法快速发展,纠纷形态日益呈现新颖性、复杂性、专业性,更深层次地触及了公平、安全、个人信息保护与隐私等社会秩序问题,算法法律供给与需求之间的张力日趋明显。


1.算法法律制度的相对滞后性、分散性问题
从国内规定看,我国算法立法取得了明显进展。2020年,《法治社会建设实施纲要(2020—2025年)》提出了要制定完善对网络直播、自媒体、知识社区问答等新媒体业态和算法推荐、深度伪造等新技术应用的规范管理办法,我国算法治理相关文件呈现大幅增长。从整体上看,《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律和《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等政策文件先后出台,为算法治理提供了相关制度指引。其中,除了专门性管理规定,关于算法治理的制度规则亦散见于知识产权、个人信息保护等不同领域法律规定中,整体上呈现相对分散分布的特点,一定程度上导致裁量尺度、认定标准缺乏统一性。同时在面对算法技术发展出现的新型治理难题时,相较平台企业等算法合规需求,也存在一定迟滞性。如我们在调研互联网头部企业过程中,相关企业提出在云计算领域,数据保护和云服务协议是需要重视的方面,亟须进一步强化算法法律制度供给来予以纾困。


通过对域外算法治理的法律制度考察,不同法系国家也存在着立法分散性、缺乏系统性的问题。如欧盟在立法设计上,未制定专门性算法规范,而是将其纳入数据保护内容,通过具体条款进行治理。美国没有在联邦层面采取统一算法治理方式,而是在实践中由各州、各部门在管理范围内发布有关算法治理制度。


2.算法治理规范的相对“刚性”不足问题
在实践中,《互联网信息服务算法推荐管理规定》等文件以更具灵活性、适应性的特点在算法规制中发挥着重要作用,目前已成为一种常见状态。然而这些治理规范相对“刚性”不足,对于算法透明度、隐私保护、算法歧视等问题,往往会被商业秘密、知识产权、平台责任豁免的“面纱”和技术鸿沟所遮蔽。同时算法立法需进一步强调算法问责的明确性。算法技术的广泛应用和多种技术交叉综合应用带来的责任划分不清、主客观不相一致等问题均可能抑制算法创新发展的积极性;要求算法透明、获得算法解释等权利的边界一旦模糊不明,亦可能影响平台企业的合规成本与算法创新的动力,增加个体理解的困难与法律规制的难度。这些都亟须予以进一步明晰。


关于算法问责与治理规范的刚性问题,在域外算法法律制度中亦一定程度存在。早期美国多以原则、标准、声明、行政指导等进行弹性治理,避免对算法的硬性规制。后因算法逐渐渗入不同领域产生大量争议,算法问责制成为算法治理核心,对算法治理逐渐严格、明确。欧盟没有设计针对算法问责制度的统一法律,而是通过《通用数据保护条例》《算法责任与透明度治理框架》等有关条款赋予有关个体对数据的控制权,以期实现对算法应用的干预与法律规制。


3.算法治理的场景化谱系不够丰富问题
2022年3月,我国第一部以算法为专门规制对象的部门规章《互联网信息服务算法推荐管理规定》正式施行,确立了生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等五类常见算法应用场景,构建了算法安全风险监测与评估、算法备案管理与违法违规处置等多维一体的监管体系与全生命周期的问责机制。但随着算法技术应用的日益泛化,需要更加精确的场景化分类来提升算法治理的准确性。而当前的场景化更多是对纷繁复杂算法应用场景的梳理,描述性功能强于规范性功能,一定程度上影响实践性和可操作性。在立法设计上,应进一步以算法具体应用场景为基准切入口,寻求面向更加多维谱系的应用场景规制路径,构建灵活可预期的治理规范,实现对算法为核心的新型数字关系的精准治理。


从全球范围看,关于场景化治理问题,域外立法也并非都按照体系化架构进行设计,亦存在考量算法目的意图等实用因素,场景化谱系不够丰富的问题。在构建多维谱系场景化治理图景上,我们或可通过更多全球性学术交流,共同探讨算法治理的发展思路。


(二)算法内在技术特性带来的治理困境


大量算法产品应用于社会生活,突破了社会大众对新技术感知和风险识别能力的常规思维模式。特别是算法本身的复杂性、动态演化性、不可解释性、不可控性、不可预见性等,无形中加剧了社会公众对算法架构和规则的陌生疏离感和“黑箱”感,进一步增加了算法法律规制的难度。


1.算法技术的复杂性
算法的技术属性、组织架构、应用场景均具有高度的特殊性和复杂性。一般来说,算法的功能系统设计、研发、应用需要不同的架构、设计、研发工程师等通力合作才能完成,开发和应用主体的相互分离可能会导致植入的价值思维和逻辑思维较为多元;当进入应用程序后,算法运用场景又往往涉及不同学科领域。社会关系、主体利益的多元性与复杂性决定了算法的复杂性,算法的复杂性引发了算法纠纷的复杂性,这是造成算法治理困境的内在因素。


2.算法的动态演化性
算法系统是动态开放的,算法会随着外部世界的发展而不断演化,具有连续性特征。我们在实地调研时发现,部分企业在无线通信、网络优化和数据传输等方面都有算法研究,并取得了重要突破。例如,通过算法优化,可以提高通信系统的容量和速度,使用户能够享受到更稳定、高质量的通信服务。但与之同时,通信领域的网络安全和用户隐私问题,物联网领域的知识产权保护和标准制定难题等快速涌现,现有司法治理思维较难适应算法技术的这种快速动态变化。


3.算法的不可解释性
算法的不可解释性来源于算法技术专业性带来的高难度理解门槛。特别是当算法进入人工智能阶段,智能算法通过分析特定数据学会了自我总结形成决策规则,这使得一些能看懂代码的专业人士,可能也只能获悉机器的学习方法,而无法完全掌握算法决策规则。从另一个层面来说,算法涉及平台企业的商业秘密,这也使得不可解释性增添了人为利益驱动的阻力。但在司法中,如不对算法演算过程进行司法审查,仅凭大数据专业分析报告中的源代码记录来证实大数据逻辑演算过程的真实性和合法性,会出现以专业技术分析代替司法判断的情况。司法机关如何平衡平台、用户以及公共利益,对算法权力进行有效监督,促使平台对算法逻辑构造作出合理解释等,是当前算法司法治理需要面对的重点之一。


4.算法的不可控性
随着智能算法的进一步发展,算法在生成解决方案时逐渐从使用人类定义的模型来分析数据转向自主学习决策,设计者对算法的控制和算法决策结果预测的可控性逐渐降低。而且算法投入到实际使用中,具备较强的自主性,仍会不断学习、变化,其内容可能无法被程序员所理解和控制。这进一步增强了对技术安全风险的审核与治理难度。


5.算法的不可预见性
在算法运行逻辑上,人工智能决策系统并不完全依据预置的价值观念、经验法则等因素,可能存在无法稳定、准确地实现预定目标的缺陷,甚至可能作出不具备可行性的实施方案。加之算法所依赖的数据来源或基础信息出现偏差,可能会造成运行结果出现偏差。这些不确定性因素,可能导致自动化决策程序无法产生预定结果。算法的不可预见性也导致了风险的不确定性,让用户很难准确预估算法可能带来的风险危害,增加了算法决策逻辑的理解难度,从而使算法准确问责与归责面临着巨大的困难。


(三)案由分散性对算法治理规范化的阻却


我们在全国范围收集50余个涉及生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等应用场景的涉算法纠纷案件。经分析发现,因尚未设置专属算法案由,算法纠纷涉及知识产权保护、竞争秩序维护、个人信息保护、数据安全等多个领域。在实践中,需要运用不同案由纠纷的审查逻辑去判断主观过错、因果关系、法律责任边界等。案由的分散性带来了法律适用的复杂性,不利于形成规范统一的强回应型治理机制。


1.主观过错判定标准的复杂性问题
要求算法使用者根据主观过错承担法律责任,是使算法成为“负责任”算法的必要条件。法院需要审查算法使用者的主观过错,但囿于案由分散,判断标准大不相同,没有以算法治理为轴形成统一规范的认定规则。如在算法风控系统误判的相关案件中,倘以网络服务合同关系诉讼,算法服务提供者尽到了与算法风险相匹配的注意义务,司法便不应过分苛责,对新生事物应持必要的容忍态度。但在网络著作权侵权纠纷中,平台根据著作权人要求在事后删除侵权视频,却不足以认定平台无过错,免除其间接侵权责任。


2.算法治理标准的复杂性问题
对于算法带来的风险,包括算法操纵、算法歧视、算法黑箱、信息茧房等,理想的法律状态应当是审查算法技术本身,以算法的运行逻辑为轴来治理算法,包括确立算法公平原则、制定算法解释规则、设计算法审计程序和形成算法问责机制等。在算法侵权纠纷中,当事人需提供证据证明算法的应用状况、损害情况、算法逻辑与损害结果的关联等;在算法合同纠纷中,查明算法应用是否符合当事人之间的合同约定。但当前并没有确立涉算法纠纷的专属案由,其表层法律关系纷繁复杂,如涉及涉网络人格权侵权、著作权侵权、网络服务合同纠纷等,纠纷处理并非完全基于对算法技术本身的治理展开,案由的分散性进一步导致了算法治理标准的复杂性。


3.算法新型损害认定的复杂性问题
囿于现有案由的惯性思维窠臼,当前对算法治理专业化的应然逻辑仍有不同的声音。甚至有学者认为算法仅仅是一种工具与手段,在考虑责任认定时仍应回归人格权、网络知识产权保护等传统法律关系予以考量。但随着深度学习技术的进步,人工智能行为的不可预见性问题更加凸显,“分散性治理”思路对算法技术自身逻辑与规律的漠视,使得一些新型算法损害问题难以及时被发现,无形中加剧了算法对用户权益和社会公共利益损害的识别难度。


▐ 三、算法技术治理的行动逻辑与发展方向

随着Web 3.0时代的到来,计算力大幅提升,连通性进一步增强,算法等技术融合发展进一步催生了新兴互联网经济形态。经济系统变革决定了治理逻辑与方式也应作必要调整,我们应充分考量行业发展需求、治理经济成本、技术使用目的等因素,从“规则”和“代码”的治理逻辑出发,在完善治理体系的同时最大程度地释放算法技术蕴含的价值。


(一)治理原则:行业发展与技术规制的价值融合


算法不是一项“坏技术”,当算法等技术形成自成体系的运作逻辑和相对稳定的经济系统时,便会加倍释放出提高信息利用效率、增强决策科学性、优化行业生产力、创造新的产业可能等巨大潜力。因此,在考量算法法律规制时,必须充分考虑算法对行业发展的影响,将行业发展作为判断责任边界的重要因素。甚至考虑到特定行业发展需要以及对社会的价值贡献,应适度容忍算法偶发性失误,让技术规制始终遵循商业创新的动态发展规律,迈向更灵活的治理路径。在具体认定上,算法规制尺度的关键性标准之一在于准确考量技术治理成本与效能产出的价值平衡。总的来说,对于平台干预算法的成本问题应当纳入算法责任考量因素,并进一步在实践验证中将其具体化、可估量化。在无法准确界定责任范围大小的情况下,司法实践仍然应当遵循“适当性”原则。即平台为算法承担的责任需与其能力、收益相匹配。如平台应采取区分性审核策略,对平台内作品事前审查过滤义务的大小,要充分考量平台算法是否具备拦截过滤的能力,有无转嫁本应权利人承担的错误通知风险,是否增加网络服务提供者的运营成本等综合因素,实现各方利益平衡。


(二)治理理念:“公益性”与“私益性”的区分考量


随着平台从商业模式演进成重要社会生产组织形态,在算法主体责任认定时,应评估是否属于保护公众安全、用户隐私、免于歧视、合理资源配置等公共政策因素和公益使用目的,从而确定使用算法管理行为,是否可被推定为一种合理使用理由。反之,如果平台使用算法是为了追求经济利益,则平台需提供充分的证据来证明自己尽到了“审慎注意”义务,否则就要对用户的损害结果负责。在杭州互联网法院审理的“平台算法误判责任否定案”中,明确平台基于法律监督和公共利益保护目的,为了交易安全设计预防性风控算法应用,在尽到与算法风险相匹配注意义务并采取必要纠错机制安排的情况下,虽存在误判可能,但不构成违约。这也是区分算法目的“公益性”与“私益性”来认定责任的一种探索。


(三)治理导向:“技术中立”与“技术负责”的清晰界分


随着网络平台在政治、经济、社会等领域的影响力日益壮大,人们开始用技术文明时代观来审视“技术中立”,特别是对技术逻辑的客观性和技术设计者的目的性有了更为清晰地界分:技术本身是中立的,技术原理是不带价值判断的工具;但代码与程式的形成是人主观价值的高度聚合,并非价值中立,因此技术设计与使用过程中对算法可能造成的不利后果,便具有了可责性。在实践中呈现两个面相的治理状态:一方面,增强平台对内容的审核义务、注意义务和明示告知义务,明确算法设计者、使用者责任,进一步保障平台用户的知情权。另一方面,通过特定场景的个人赋权来提高用户对自动化决策进行监督和干预,以消解信息壁垒、对抗算法对个人的控制倾向。如欧盟《通用数据条例》设置了数据主体对个人数据的访问权、更正权、删除权以及数据可携带权等新型数据权利。我国明确要求算法使用平台承担社会责任,将伦理道德嵌入算法,使平台算法成为道德算法和负责任的算法。这意味着算法法律规制有赖于建立一套正向的价值判断方法和处理机制,用主流价值导向“驾驭”算法。


(四)治理方式:公法思维与技术逻辑下的穿透式监管


近年来,随着平台在市场资源配置中的控制力和多边市场的地位逐渐显现,司法更加注重将行政法等公法思维融入算法治理,将治理重点从具体算法行为转向算法合规体系建设,从算法应用产生的外部结果转向平台底层技术逻辑,进行穿透式监管,实现法律治理从适应技术治理、规范技术治理发展到先于技术治理。《互联网信息服务算法推荐管理规定》等也为平台“穿透式监管”开创性地建构了一系列制度基础。从算法技术规制的逻辑来看,当前,算法设计者和使用者的主观意图往往隐藏在自动化面纱之下,加之算法技术本身复杂性和不透明性,当产生风险纠纷时,如果仅从网络服务、网络著作权、不正当竞争等算法行为结果的表层关系来进行责任认定,往往导致治理节点滞后,也为放任不正当竞争行为,推卸法律责任的企业提供了监管套利空间。在治理方式演进上,进一步穿透算法运行的外部行为结果,捋顺隐藏在黑箱中的决策规则和因果关系,从治理技术本身建构算法治理专属路径,对明显影响个人权益、公共利益的算法提前干预、监管与治理。


▐ 四、算法技术治理的实践维度与路径优化

立足算法的技术特性、价值取向和主体面向,我们可以在形成算法法律规制专门化架构的基础上,从横向与纵向两个维度优化算法技术的治理路径,形成体系化治理方案:从横向维度,根据不同算法应用场景推进算法治理精细化;从纵向维度,以算法和用户交互为轴,从事前、事中和事后三个环节进行全链路动态治理。


(一)强化制度供给:推进算法治理的专门化


算法作为数字社会的重要生产工具,治理的专门化程度关系着数字行为规则体系的构建与完善进度。我们应根据案件本身属性特点创制专门化治理架构,避免因为过于主观和难以量化等原因,导致个案裁判之间存在较大差异可能性。


1.纳入互联网法院专门管辖的范围
随着互联网社会发展演进,新型互联网纠纷不断涌现,互联网法院管辖范围也应进一步转向“专门化”,集中管辖在当前具有类型新颖性、疑难复杂性和规则确立意义的互联网案件。在互联网技术深刻改变法律关系时间、空间和客体的背景下,算法挖掘生产数据资源的能力不断强化,算法纠纷案件因与技术发展存在强联动性,与数据、虚拟财产等财产要素具备高度关联性和黏合度,相关案件在数字治理研究中具有很强的典型性意义。故将算法类案件统一纳入互联网法院的专属管辖规则设计既有利于裁判尺度和标准的统一,实现对算法这一数字时代重要生产工具的专属性治理,也符合互联网法院“以规则之治促进网络空间治理法治化”的功能定位。


2.确立算法纠纷的专属性案由
算法纠纷案由,应涵盖与算法开发、部署、使用等各个阶段相关的争议,例如数据隐私保护、歧视性算法决策、不当信息过滤等问题,从而明确定义算法纠纷并界定其适用范围。因此在治理架构上,需要创建专属案由对算法纠纷进行治理。在案由概念界定上,要严格区分涉算法元素纠纷与算法属性纠纷,真正筛选出由算法技术应用及自动化决策引发的侵权、合同类纠纷,对于仅仅在网络活动中涉及算法要素,并不涉及算法透明、算法推荐、算法决策、算法歧视等算法技术特性的纠纷案件,仍然归属于原有案由范畴内,不宜做过度扩张。同时,要以兜底条款方式确保涉算法纠纷案由适用范围具有足够的灵活性,覆盖未来可能出现的新类型纠纷。


3.探索算法系统性侵权的公益诉讼制度
随着算法愈加广泛地嵌入了管理决策、经济活动之中,算法应用的日益广泛加之算法天然的封闭性、隐蔽性,算法权力异化与算法技术滥用引发的问题将对公民个体权益甚至社会公共利益造成更为严重的系统性侵害,因此有必要在私益救济基础上,对于算法的系统性侵权,由更具有主动性、更具备力量的主体加以维权,“私益救济”+“公益诉讼”相结合的诉讼程序制度有望成为未来算法治理的一种预设性尝试。换言之,基于个人用户与算法设计、部署者间的权利势差,可以专属设定适用算法纠纷的私益救济、公益诉讼并行的诉讼程序,制定算法技术证据审查规则等,形成专门适用于算法技术法律规制的诉讼程序与规则制度。


4.延伸算法专门化司法治理的能动属性
相较于传统案件纠纷,涉算法纠纷案件更需要我们对审判实践中发现的具有普遍性、倾向性、苗头性问题,积极发送司法建议等,进一步强化对政策立法、行业规范等填补、阐述和纠偏功能,推动算法治理从“治已病”转向“治未病”。同时,基于司法灵活性对立法滞后性的强弥补性,应充分发挥人民法院案例库作用,延伸案例职能,在汇聚、梳理案件基础上统一算法纠纷案件审判标准、明确算法使用主体的法律责任和义务,确保司法裁判权威性,强化对算法社会与数字空间的行为规则指引。在学术理论与司法实务双向赋能的机制上,以法学期刊作为重要纽带搭建平台,通过组织学术研讨会、座谈会等方式寻求与拓展共同研究的课题,以更加积极主动的姿态构建统一的算法治理理论模型,探索中国式算法司法治理理论和实践模式。


(二)横向治理维度:推进算法治理的场景化


算法合理性判断标准具有极强的场景化特点。在司法实务中,我们可根据“生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类”等应用场景,以场景化思维确立司法审查重点,为算法治理提供更加明确的规则指引,推进算法精准化治理。


1.生成合成类算法:算法创作物的法律性质及归属
随着三维重建、虚拟数字人等技术的蓬勃发展,算法创作物逐渐走向大众视野,为丰富数字文化、提升数字经济注入了活力,但有关其法律性质、权益归属与责任认定等问题亦成为算法规制的重点难点。拨开技术复杂性面纱,我们需对作为人类辅助创作工具与具有一定“自主创作能力”的算法作有效区分,分析是否具有个性化创作空间,从而进一步考量“算法创作物”的可版权性问题、权利归属与责任认定问题,在防范侵权风险、实现利益分配优化基础上开发出更加合规高效的治理范式。如首例“虚拟数字人”案中,法院认定虚拟数字人仅是作者创作工具,体现了开发设计者的干预和选择,即使其生成内容具有独创性,其权利也不归属于虚拟数字人,可视为对算法创作物法律性质及归属的一种探索。


2.个性化推送类算法:算法歧视的认定与规制
在个性化推送类算法应用场景,平台依托人工智能分析与过滤机制,对采集的数据进行处理、模型训练及结果分发,实现相关信息内容与具体用户的精准匹配。具体来说,平台通过算法嵌入实时收集用户数据,基于数据对不同偏好、消费习惯和经济状况用户进行“画像”,精准分析用户可能的消费选择,提供个性化内容推送、个性化广告推送等个性化服务。在实务中,个性化内容推送的侵权内容注意义务问题,个性化广告按照用户喜好投送广告行为的侵权认定等问题,或可统一归为在技术隐蔽、掩护下的算法歧视认定与规制问题。


3.排序精选类算法:算法性竞争业态的规则重塑
排序类算法通过预设算法因式将一组或多组数据按照既定模式进行重新排序,主要包括电商平台与内容信息排序场景;精选类算法通常指信息网络平台的热搜榜单型算法。结合案例,可以看到目前相关司法纠纷多集中在平台店家商品算法排序合理性问题,利用算法帮助用户制造虚假数据扰乱原有客观排序、热搜榜单排名等。从实质上看,这些问题系算法技术深度介入网络经济与文化后,传统竞争业态依靠的思维、逻辑、手段发生了改变,以数据为基础,以算力为核心的新类型竞争业态产生的新型法律问题。这一变化促使我们要在遵循数字技术发展规律上,以数字正义为导向,去重塑算法性竞争业态的规则。


4.检索过滤类算法:算法错误的归责与包容性治理
检索类算法功能偏向于从数据库大量非结构化的数据信息中快速查找到用户所需信息,例如关键词检索场景和检索结果中立性判断场景;过滤类算法更多是指从大量信息、商品等标的物中将用户可能需要或偏好的标的物过滤出来,包括风险过滤类与内容屏蔽类场景等。结合已有案例分析,可以大致判断出目前此类算法主要规制难点在于如何以一种正向治理观,确定平台收集、发布数据信息的基本注意义务,界定数据过滤、检验等责任边界,增强对平台伦理偏误的监督与引导等,实现对算法错误的精准认定、归责与包容性治理。如在审理公共数据商业化利用案中,从算法设立目的出发,明确了网络平台对预先设置算法自动抓取数据算法结果的审查注意义务。在首例消费者因检索服务状告电商平台违约案中,考虑到消费者对平台推荐结果的依赖性进而严格审查检索算法的合理性,也充分考虑电商平台功能定位、人工智能的发展阶段等因素,得出其精确匹配程度可低于搜索引擎的标准。


5.调度决策类算法:算法权力架构下的数字权利保护
当算法作为基础设施嵌入平台经济和技术社会之中,作为能根据系统策略有效分配资源,综合评判并作出最优决策的调度决策类算法,应用场景日益丰富与多元。但与之同时,数字人权保障、调度决策的公平性合理性等问题也日益显现。如算法忽视骑手劳动权益保护的问题,平台自动化决策作出处罚是否合理等。如何在算法权力架构下强化“数字人权”保护,为改进算法治理路径提供新的思路,或可从两个维度优化路径:一方面,强化算法应用主体对算法运行规则的自我约束和披露,提升算法透明度与决策公平性,提升数字信任;另一方面,适度配置个人对抗算法决策的刚性权利,以技术与人的良性互动塑造包容向善、公正平等的算法社会秩序。


(三)纵向治理维度:推进算法治理的系统化

从纵向治理来看,算法治理应以算法和用户交互过程为轴,从事前、事中和事后三个维度对算法技术进行全链路治理、全方位规制。具体来说,包括事前注重算法透明度及其合规要点,事中建立健全内控与审核机制,事后基于算法运行的结果,进行有效追责与合理救济,形成应对算法侵害的完整治理闭环。


1.事前治理:注重算法透明度及其合规备案
对于算法引发的问题,事前规制注重强调对算法进行穿透式监管,尽可能明晰算法技术运行的基本逻辑与设计的目标意图,减少因算法技术复杂性造成的纠纷复杂性。因此,算法透明度及其合规要点被广泛认为算法事前治理的主要模式,包括审查算法使用数据的合法性、公开方式的显著性、公开对象的不特定性。其核心是让用户知道其获得产品或服务是否为算法推荐结果,从而可以选择或者删除针对其个人特征设置的特定标签,获取有效退出或维权机会。但基于披露对象技术能力的有限性和机器自主学习的不可预见性,一般公众和不具有技术能力的监管机构甚至设计者都无法完全理解其具体含义并进行充分说明。因此,必须对公开内容类型进行具体规定,将事前治理进一步延伸到算法备案及其合规上,尝试通过算法备案补救不足,增进算法透明性。在报送机制上,进一步细化信息报送的范围,以适当方式公开或披露算法运行的基本技术原理、主要运行机制和内在目的意图,解决干扰性披露和算法技术复杂性障碍,使监管机构利用最少成本获得更加准确、清晰的内容;同时根据内容区分政府备案和社会公示,既能满足监管机构要求,又可消弭算法透明引发的知识产权和商业秘密争议。


2.事中治理:强化对算法的内控与审核
算法事中治理的核心在于从技术机理、伦理规范、信息保护、安全监测、应急处置等多维度建立健全内控与审核机制,并根据算法类型进行分级分类管理,注重持续评估、检查、调整,确保算法合规操作,推动法律与算法的跨系统沟通。在算法内容安全管理上,进一步健全完善记入用户标签管理规则和用户模型的兴趣点规则,增强违法和不良信息的排查敏感度并及时采取相应处置措施,从监管维度减少算法推送内容的安全风险。在算法审核和监督上,对算法审核、评估和验证应当以算法的公开性、公平性、透明程度以及数据使用的最小必要等方面作为评价维度。在算法评估和检查上,由形式监管到实质监管,从算法设计、部署和使用等全生命周期应用环节展开评估,及时有效研判和应对可能产生的国家安全、数字人权、经济秩序、技术伦理等方面的风险。


3.事后治理:基于算法运行结果进行有效问责
在算法事后治理环节,我们应当在坚持算法公平透明原则的基础上,落实算法解释义务,基于算法运行结果明确法律责任,对相关主体进行精准归责和有效问责。面对算法应用中出现的扰乱市场经济秩序、侵害公民权利等算法侵害,事后治理更要以数字平权理念去强化对网络劳动者、老年人、未成年人等数字弱势群体的保护力度,弥补数字鸿沟,用算法公平维护社会公平正义。算法解释权为用户和相关个体的技术性正当程序权利奠定了行使基础,个人有权要求平台就相关算法决策情况及规则进行必要适度的解释与说明。在实践中,需要进一步明确平台解释的程度、判断是否需要专家辅助人支持等具体问题。在明确算法不当使用的责任上,可分为由用户或相关权利人直接通过权利救济途径主张责任,由国家行政、司法机关依法开展追责等。若平台经营者构成垄断行为损害社会公共利益、侵害平台用户或消费者众多个人的权益的,则存在被提起公益诉讼的可能。




结 语


迈入数字空间与算法社会,算法在数字经济、数字社会、数字治理中的重要作用将进一步彰显。我们在聚焦如何有效释放算法技术强大生产力的同时,也应当始终以关注的目光、积极的态度深入沉浸到算法具体应用场景,去穿透式把握算法技术法律规制的逻辑方法与具体策略,推进算法治理法治化。我们有理由相信,随着公共监管、法律规制、平台自治等一体协同、优势叠加、多元共治的算法治理格局不断发展壮大,我们将在法治轨道上构建更加契合算法技术特性与适应算法产业发展的治理规范体系,营造更加良性可持续发展的算法生态。