荐读 | 数智时代算法推荐风险的法律治理
2024-06-05 | 查看: 10
徐伟 韦红梅 中国科大知产院 2024-06-05 15:34 安徽
作者简介
徐伟(1987—),男,江苏常州人,特聘教授,博士,研究方向:人工智能法学,数字法学;
韦红梅(1998-),女,广西钦州人,研究人员,硕士研究生,研究方向:人工智能法学。
摘要
算法推荐技术作为国家治理体系和治理能力现代化的关键引擎已被广泛应用,但也引发一系列问题,关乎公民、社会和国家利益。当前算法推荐的法律治理政策呈碎片化,治理效果不彰,迫切需要梳理以构建科学的算法推荐法律治理体系。通过扎根理论研究方法,揭示了五种算法推荐安全风险类型。基于此,构建了主体性法律治理、规则性法律治理和程序性法律治理三种工具,相互协同形成法律协同治理体系,提升算法推荐风险的法律治理水平。展望未来,需持续优化这三种工具的互动机制,规范算法权力行使以实现算法卸责,并推动算法透明度和可解释性的系统性建设。
关键词
算法推荐;主体性法律治理;规则性法律治理;程序性法律治理
一、问题的提出
算法推荐技术作为人工智能的核心信息技术,已广泛应用于电子商务、新闻推荐、网络直播、音视频媒体等商业和公共领域,成为推动国家治理体系和治理能力现代化的重要引擎。然而,伴随着其迅猛发展,算法滥用、算法操纵、算法霸权等一系列问题也层出不穷[1],亟待予以积极治理。我国在算法推荐治理领域颁布了多部重要法律法规,包括《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》《生成式人工智能服务管理暂行办法》等,取得了一定的治理成果。然而,在当前多元化的算法推荐领域,不同机构和领域对算法治理的关注点和侧重点不一,导致法律法规、技术标准和伦理准则的分散和交叉,从而引发法律政策碎片化与多样性问题。这不仅影响了治理的效果,也使得政策实践难以形成统一的战略。扎根理论作为一种开放性和探索性的研究方法,强调对概念和关系的深入挖掘,有助于揭示法律政策文件之间的联系、冲突和共性,这对于解决法律政策碎片化和多样性问题尤为关键。有鉴于此,本文以扎根理论为研究方法,对我国算法推荐领域30份重要的法律政策文本展开系统的质性分析,深入挖掘不同法律政策文本之间的内在逻辑关系,细致梳理风险类型及其相应的法律治理对策,为建立一个全面而一致的算法推荐法律治理体系提供支持。
二、数据来源与研究方法
(一)数据来源
本研究通过以下方法开展法律政策文本的检索与筛选。首先,以“算法“”算法推荐“”算法风险“”人工智能”等为关键词,在北大法宝、威科先行、聚法等法律数据库上进行广泛检索和筛选。其次,有针对性地聚集于电子商务、网络直播、广告营销、音视频播放等细分场景的算法法律治理政策文件。再次,通过“滚雪球”方式查找关联度较高的法律政策文件,以进一步丰富检索结果。最后,通过人工方式对上述法律政策文本展开梳理与审核,确保了法律政策文本的综合性、代表性与多样性。经过以上一系列步骤,本研究最终搜集30份算法推荐相关法律政策文本,详见表1。
(二)研究方法
扎根理论(Grounded Theory)是一种社会科学研究方法,最初由社会学家Barney Glaser和Anselm Strauss于1967年提出[2]。其核心理念在于强调通过对实际数据的深度分析来生成理论。在法律政策文本分析中,这一方法尤为关键,因为法律政策文本常涉及复杂而多变的现象,不同于传统的理论框架。扎根理论的多层次分析允许深入挖掘法律政策文本中的各种概念、关系和主题,使研究更加细致入微。在本文中,通过扎根理论,不断提取和比较不同算法推荐法律政策文本中的概念、关系和主题,以识别算法推荐风险类型以及相应的法律治理工具。
三、数智时代算法推荐的风险挑战
通过扎根理论对30份法律政策文本进行算法推荐风险编码分析。研究结果表明,数智时代的算法推荐风险主要分为五类:算法黑箱、算法滥用、算法操纵、算法霸权和算法问责,详见表2。从风险来源看,算法黑箱是内生性风险,而算法滥用、算法操纵、算法霸权和算法问责风险则属于衍生性风险。
(一)算法黑箱引发技术信任风险
算法黑箱是指在算法运行过程中,人类对于输入结果与输出结果之间的关联性无法完全理解和追踪的现象[3]。算法黑箱主要由于算法的复杂性、高度抽象性及其不可解释性所致,在现实中发展成算法歧视、算法合谋等问题的“温床”。政策编码结果显示,算法黑箱风险主要表现为以下三种类型:其一,算法可解释性不足的风险。算法可解释性是算法持续运作和生成决策的前提,是连接算法自动化决策与法律责任的桥梁。由于当前算法可解释性不足,极易引发算法偏见和歧视问题,也成为相关责任主体逃避责任的“绝佳借口”[4]。其二,算法黑箱易引发社会信任危机的风险。即便不存在算法黑箱问题,由于算法语言的专业性及其难以理解的特性,加之“数字鸿沟”的客观存在,一般社会公众理解算法决策生成过程的成本很高,遑论完全信任依据算法作出的决策。其三,算法黑箱存在难以调试和改进的风险。由于算法运作过程的不透明性,发现和修复模型存在的问题变得异常困难。这使得在问题发生时难以进行及时调整和改良,进而形成恶性循环。
(二)算法滥用引发权益侵犯风险
算法的运行仰赖于数据的收集与处理,然而在此过程中很容易造成对国家利益、社会利益以及公民个人权益的侵犯[5]。政策编码显示,算法滥用风险主要表现为以下五种类型:其一,侵害国家安全与利益。主要表现为通过算法发动网络攻击与战争,导致国家关键基础设施受损或者散播其他可能危害国家安全的恶意信息。其二,侵害社会安全与利益。主要表现为算法被用于操纵社会舆论,传播民族、种族仇恨言论等不利于民族团结和社会安定的非法信息。其三,侵害公民人身权益。主要表现为算法对公民人格平等、人格尊严等一般人格权以及对生命权、健康权、名誉权、肖像权、姓名权等具体人格权的侵犯。其四,侵害财产权益。主要表现为算法实施刑事犯罪行为和侵犯他人版权、商业秘密等民事侵权,导致个人和集体财产权益损失。其五,侵害隐私权益。主要体现为私人通过算法侵犯他人隐私,以及监管主体擅自使用或非法提供他人信息,对他人隐私权益造成侵犯。
(三)算法操纵引发内容安全风险
算法推荐技术的到来开启了数智时代信息分发的新模式。在此信息分发模式下,极大促进了用户获取所需信息的效率、降低信息获取成本[6]。然而,这种个性化的信息分发模式也带来一系列问题。政策编码显示,算法操纵风险主要体现为以下三种类型:其一,信息操纵。这主要体现为信息过滤和虚假信息传播风险,即利用算法调整甚至改变用户获取的信息,导致用户长期只能接触同质性甚至虚假信息,最终陷入“信息孤岛”和“信息茧房”[7]。其二,行为操纵。它包含个性化推荐和社交工程风险,即利用算法分析用户行为和偏好,以操纵用户的点击、观看、购买决策或者干预用户在网络社交平台上的行为和互动。其三,意识形态操纵。它涉及政治宣传和文化价值风险,即通过算法传播特定政治观点,影响选民决策或者促使用户形成某种特定意识形态。
(四)算法霸权引发市场秩序紊乱风险
在数智时代,算法发挥了优化市场资源配置、提高决策效率、降低决策成本等积极作用。然而,与此同时,一些平台经营者滥用算法实施自我优待、限制交易、提供差别服务等不正当竞争行为[8]。政策编码显示,算法霸权风险分为以下四种类型:其一,自我优待。在市场竞争中具有算法霸权的经营者兼任“参赛选手”和“裁判员”双重角色,利用算法技术给其自营业务或者其他与其有某种关联的特定主体的产品以优惠,实现自我优待目的。其二,不正当竞争。具有算法霸权的公司与其他竞争对手借助算法促进横向和纵向垄断协议的达成和维持,或者在内部垄断关键数据破坏市场公平竞争环境。算法共谋行为本质上是经营者利用算法技术实现意识一致的协同行为,其根本目的是限制、排除竞争。它比传统意义上的共谋行为更加隐蔽,因此也给追责带来更大难度[9]。其三,限制交易。它表现为具有算法霸权的公司利用算法技术控制关键交易渠道限制其他竞争者的准入或者实施算法价格垄断行为。其四,提供差别待遇。具有算法霸权的公司基于用户的行为、交易偏好、收入等数据提供个性化定价等差别服务。
(五)算法问责困境引发法律治理风险
在算法推荐领域的法律治理中,尽管对算法责任构建的关注逐渐增加,但仍存在责任内容分散、责任标准不够细化等问题,形成算法问责困境,同时也引发法律治理风险[10]。政策编码显示,算法问责风险主要包括以下三种类型:其一,责任界定标准模糊。由于缺乏具体的责任回溯标准,导致责任主体回避责任审查,责任归属变得模糊的风险。以平台短视频版权侵权为例,由于缺乏具体明确的责任界定标准,平台经营者作为算法使用者通常以算法推荐的“技术中立”特性为由进行抗辩,主张已经尽到合理注意义务,从而逃避侵权责任的承担[11]。其二,损失救济缺位。由于责任界定不清、责任归属模糊等问题,在算法侵权问题发生后可能导致对被侵权人损失救济缺位或者不充分的风险。在法律规定不明的情况下,相关主体通常以各种理由否认侵权行为,进而阻碍被侵权人的损害赔偿。其三,责任意识缺乏。表现为责任相关方由于缺乏责任意识而违法违规使用算法,从而导致事故责任的风险。
四、数智时代算法推荐风险的法律治理
通过对法律政策文本详细编码,研究发现算法推荐的法律治理工具可根据其作用对象的不同分为主体性法律治理、规则性法律治理和程序性法律治理。
(一)主体性法律治理
以政府机构为中心的单一主体治理已经不能应对算法推荐的风险,数智时代算法推荐的风险治理呼吁多元主体的参与[12]。根据治理主体性质和权限的不同,现有法律政策文本中算法推荐治理主体包括政府部门和社会力量两大范畴,详见表3。
首先,政府部门在纵向和横向上起到关键的协调和监管作用。在政府层面,考虑政府科层结构的差异,将政府部门划分为纵向主体和横向主体。纵向主体包括中央网信办和地方网信办,中央网信办负责算法推荐治理的顶层设计,主导全国范围内算法推荐服务治理工作;地方网信部门则协调治理地方范围内的算法推荐服务。横向主体包括电信、公安、市场监管、金融、科技等主管部门,按照法定治理权限和责任监管、督促、协助算法推荐服务的监督管理工作。其次,社会力量参与算法推荐治理体系建设。行业组织通过自律规则、自律程序进行自我管理,为政府算法推荐治理提供重要补充。企业平台通过不断制定和完善业务规范,配合政府算法推荐治理工作。社会公众的参与为算法推荐服务治理提供广泛的监督约束机制,有助于保障政府决策的透明性和维护社会利益。这些多元参与主体间形成相互协同的关系,推动着算法推荐主体性法律治理体系的有序运转。
(二)规则性法律治理
基于治理规则的多样性,现行法律政策构建了一个综合的“技术—伦理—法律”规则性治理框架,详见表4,以确保智能算法的稳健推进。在这个框架中,法律政策发挥关键作用,一方面为治理框架提供基本方向和指导;另一方面在框架中协调技术标准、伦理准则和法律规范的关系。技术标准、伦理准则和法律规范相互关联,技术标准关注底层逻辑,伦理准则关注伦理失范行为,法律规范强调法律制度为导向构建人机责任共同体。
首先,技术标准应对算法推荐风险的措施主要包括以下几个方面:其一,优化透明度和可解释性。通过技术措施增强模型的透明度和可解释性并以可理解的语言呈现算法模型以减少争议纠纷。其二,优化算法模型。定期审核算法机制机理、设置符合主观价值导向的算法模型、规范和优化算法模型的设置和使用等。其三,算法安全认证。要求开展用户真实身份认证,未提供真实身份认证的,不得向其提供服务。其四,信息发布审核。采取“技术+人工”方式加强内容安全审查、设置信息多节点信息召回复核机制、定期扩充违法违规样本库提升审查效率等。其五,信息推送管理。加强用户模型和用户标签管理,禁止推送有害信息;准确把握推送环节,严格控制推送频次,加强推送内容审核把关。算法推荐本质上是技术逻辑的产物,因此,技术标准侧重采取技术措施,通过算法设计和应用阶段的预处理和价值敏感设计,确保算法运行的可靠性、安全性和稳定性[13]。
其次,伦理准则应对算法推荐风险的措施主要包括以下几个方面:其一,明确增进人类福祉为根本。算法推荐服务活动应当坚持以人为本的发展理念,促进人机和谐友好,共建人类命运共同体。其二,确保可控可信。保障人类的自主决策权确保人工智能始终处于人类控制之下。其三,遵守法律和社会道德。算法推荐服务活动遵守法律和社会道德,不得利用算法技术从事违法违规活动。其四,尊重生命权利。尽量降低算法推荐服务活动对人的生命健康权益的威胁;尊重人格尊严和保障主体权益。其五,坚持公平公正。充分考虑特殊群体权益,保障社会实质平等,促进发展成果普惠全社会。算法的公正性是算法伦理的核心。总体而言,现有政策文本的算法伦理治理注重强调算法企业进行科技向上向善理念升级,促进人工智能发展和社会价值的“同频共振”[14]。当前,人工智能处于高速发展阶段,政府过度规制不利于人工智能的创新和发展,算法伦理治理为政府和企业提供“缓冲带”,避免企业算法“创新失范”。
最后,法律规范应对算法推荐风险的措施主要包括以下几个方面:其一,保障用户权益。基于“以权利制约权力”的理念[15],当前的法律政策文本明确规定了一系列用户权益,包括但不限于算法知情权、算法选择权、算法访问权等弱式权利,以及算法限制权、算法拒绝权、算法删除权等强式权利[16]。这一系列措施旨在确保用户在算法推荐服务中能够行使充分的权利,平衡“算法权力”与用户权益之间的关系。其二,构建算法问责机制。企业应落实算法安全主体责任,为事后问责提供依据;企业从事算法推荐服务活动存在违法违规情形的,视情节严重程度承担相应法律责任。其三,训练数据管理。使用具有合法来源的数据和基础模型,规范数据标注活动;数据处理者对所处理的训练数据负责,建立完善的数据安全管理制度和技术保护机制。其四,信息安全管理。建立违法、不良信息识别特征库,不得利用算法传播违法不良信息;建立健全辟谣机制以防公众误认等。其五,信息呈现管理。不得利用算法干预信息呈现;建立权威内容信息库,重点领域优先展示权威来源信息;履行算法相关内容显著标识义务;重点环节优先展示符合主流价值导向的信息等。其六,科技伦理审查。明确科技伦理审查原则、标准、程序;探索完善科技伦理委员会认证标准等。算法治理的法律制度通过厘清相关利益主体权利义务的配置,并明晰相关利益主体的法律责任保障权利的实现与义务的落实。
(三)程序性法律治理
编码结果显示,根据对算法在不同发展阶段的监管需求,现行法律政策文本将算法推荐的程序性法律治理划分为事前审查、事中监管和事后应对三个阶段,以实现对算法生命周期的全面管理,详见表5。
首先,事前审查注重“前端治理”和“预防为主”,主要从算法分级分类、算法评估、算法备案三方面展开对算法推荐风险的事前预防管控。其一,算法分级分类。囿于社会资源的有限性,算法治理应当有的放矢,不可“一刀切”,必须体现出差异化的治理特点[17]。算法分级分类要求依据算法推荐服务的舆论属性、社会动员能力、对用户的干预程度等分级分类标准,进行算法风险分级、内容分类管理,以便在有限的社会资源内实现对算法的效益最大化监管。其二,算法评估。算法评估分为算法安全评估和算法风险评估。两者密切相关亦略有区别:前者侧重于对算法模型本身是否安全及其安全系数进行评估;后者则侧重于从风险发生的可能性、影响范围、危害程度等评估角度出发对算法进行评估,以便及时根据风险等级采取相适应的防范措施。其三,算法备案。作为“有效市场与有为政府相结合”的治理原则在算法治理领域的运用和发展,算法备案是事前准入审查的关键环节。它一方面有助于政府监管部门及时了解掌握企业算法运行的底层逻辑,保障后续监管活动的顺利开展;另一方面有助于前期在一定程度上明确责任主体及责任范围,让事后追责“有迹可循”。
其次,事中监管在法律政策文本中分为政府监督检查和企业监测审计。其一,政府监督检查要求政府部门内部建立与之相对应的算法监管审查委员会,做到内外联动,开展算法审核和日常监督检查工作,督促企业开展内部评估、备案工作,并及时审验算法推荐服务的合规性,确保具体治理制度得到落实。其二,企业监测审计要求企业建立算法监测、算法审计和信息通报制度,多管齐下,对算法活动进行监测、审计,以便及时发现和防范算法风险,并按照相关规范向社会发布算法安全监测预警信息。值得一提的是,算法风险评估侧重于对未上市的算法进行风险评估(并可能在上市后持续评估),定期检测其可能存在的风险;而算法审计更强调对已经上市的算法进行监督审计,确保算法应用的合规性[18]。
最后,事后应对关注算法的应急响应机制和监督反馈机制。其一,应急响应机制。应急响应机制要求制定算法安全事件应急预案,并在发生算法安全事件时依据事件的危害程度、影响范围等因素采取相适应的防范措施。其二,监督反馈机制。它要求设置便捷有效的投诉、举报、申诉渠道,并保障反馈渠道长期有效,以便接受公众监督。
五、结语
2021年,我国开启算法治理元年,算法治理迅速受到国家层面和全社会的广泛关注,而推动国家算法治理离不开法律政策的引导。本文采用扎根理论对数智时代算法推荐风险及其法律治理工具进行精准识别。基于前文的分析,可以窥见数智时代算法推荐风险现有治理政策的部分特征。
首先,现有算法推荐治理法律政策文件散见于不同法律规范中,呈现出体系分散和“碎片化”治理的特性。究其原因:中国的算法治理刚刚起步,短期之内要在未知领域内建立起机制健全、体系完善的算法综合治理格局难度较大。此外,囿于算法本身的复杂性和隐蔽性,多元主体协同治理的过程中职责与权限往往难以明确和协调,很难达成一致的治理方案和责任分配[19]。加之目前针对算法治理的框架和标准缺乏统一性,各个国家和地区在算法治理上的实践和要求存在差异,进而导致算法治理体系的分散化[20]。其次,相比于算法问责风险和算法黑箱风险,现有法律政策更关注算法操纵风险、滥用风险和算法霸权风险。这是因为:一方面,算法操纵、算法滥用和算法霸权风险对社会带来的危害短期内更加迫切,亟待法律予以重点规制。另一方面,囿于算法的“中立性”和复杂性,相比于其他风险,算法问责风险和算法黑箱风险治理难度显然更高,因此现有法律政策针对算法问责和算法黑箱的风险治理着墨不多。这既是立法技术的体现,同时也是立法者应对上述风险时的“无奈之举”。最后,在算法推荐风险法律治理工具方面,主体性法律治理、程序性法律治理和规则性法律治理的某些规定仍停留在较为宽泛的原则性规定层面,缺乏具体可操作性。
基于上文的分析,笔者从以下方面提出算法推荐风险的治理优化思路:第一,建构整体性的算法推荐法律治理体系。从政策编码来看,三种法律治理工具可以在一定程度上回应算法操纵、算法滥用和算法霸权风险。风险交替出现的特性呼吁风险的联动治理,然而,三种法律治理工具之间目前尚未形成良好的衔接互动机制,导致治理效果大打折扣。因此,整体性的算法推荐法律治理工具体系建设任重道远。笔者认为,整体性的算法推荐治理呼吁能够统筹人工智能发展与管理的主管机关来指导和协调算法推荐治理工作。《人工智能法(示范法)1.0》(专家建议稿)(以下简称《示范法》)第十二条创设性提出设置国家和地方人工智能主管机关,统筹负责全国和地方范围内人工智能发展与管理工作。这为整体性的算法推荐治理工具体系建设注入“强心剂”。第二,规范“算法权力”的行使为算法“卸责”[21]。算法问责机制的功能在于引导和优化算法行为。囿于算法黑箱的存在,在机器学习算法和深度学习算法模型中,算法决策往往会“失控”。就连系统开发者、提供者、部署者都无法解释算法为何会作出如此决策。当前,人类还无法完全解释算法黑箱现象,因此,针对客观存在算法问责困境,规范算法权力的行使或许是更为直接、有效的措施。正所谓“法律不和疯子对话”,以算法时代平台短视频侵权为例,传统的“通知—删除”规则显然过于放纵了“算法权力”的行使。故可以通过立法明确:平台要想否认版权间接侵权行为的存在则必须举证证明自己已经使用达到行业平均水平的算法模型以识别和防范侵权作品的传播。第三,推动算法透明度和可解释性建设。长远来看,破解数智时代算法推荐风险,尤其是算法黑箱风险,推动算法透明度和可解释性建设是最好的方式。当前算法治理中存在的许多问题,究其根源往往都是因为算法不透明所致。唯有化算法黑箱为算法“白箱”,算法推荐的治理体系才能真正得到落实。《示范法》第三十五条和第三十六条分别明确了人工智能研发者和提供者的公开透明性义务与可解释性义务,使得算法透明度和可解释性建设迎来了新曙光,焕发出新活力。相信随着实践的不断发展,算法的透明度和可解释性建设成果也会随之不断迭代而迈向更高台阶。