你好,欢迎来到中国科学技术大学知识产权研究院!
 
 

智能向善|人工智能伦理治理研究

2024-09-23 | 查看: 10


张平 中国科大知产院

作者简介

张平(1958—),女,辽宁沈阳人,北京大学人工智能研究院人工智能安全与治理中心主任,北京大学武汉人工智能研究院副院长,北京大学法学院,教授,博士生导师,研究方向:知识产权法,互联网法。

摘要

以人工智能为代表的新质生产力逐渐成为智能时代下经济发展的强劲动力,同时也引致了智能技术对人类个体和整体合法权益的担忧。中国在多个国际场合下都提出了“以人为本、智能向善”的主张,引导全球在人工智能伦理的轨道上发展智能技术。人工智能伦理有遵循一般科技伦理原则的方面,同时更多涉及社会伦理问题及人类整体安全问题。文章通过探讨人工智能伦理的基本内涵,分析人工智能伦理审查的道德正当性与政策规范的必要性,厘清人工智能伦理审查的理论逻辑,提出人工智能伦理审查机制的构建在坚持“以人为本”的基础上确保人工智能“向善”发展,还需确保制度规范的公平公正,厘清透明度与问责制的因果联系,确保科技发展与法律关系的稳定性,在人工智能伦理审查原则中落实监管责任,适时建立审查评估制度。

关键词

人工智能伦理;伦理审查;以人为本;智能向善

一、引言:智能时代的“人文主义”关怀

人工智能以其迅猛的态势走进了现代社会,在给人类带来巨大惊喜的同时,也让人们产生诸多不安,尤其对人的主体性挑战让人们开始思考人工智能的发展方向是否可控,人工智能是否会在人类生存的地球上反客为主?人工智能在当前依然呈现较强的工具属性,对其的利用依然无法脱离当前对科学技术的利用逻辑,无论是基于符号学派、联结学派、进化学派、贝叶斯学派或类推学派等何种技术底层逻辑的人工智能类型,都必须要回答我们应以何种态度对待以科学技术发展为驱动的人工智能,以及人工智能如何回应社会需求的问题,因此,伦理治理应当成为人工智能治理的首要问题。智能技术凭借这种巨大优势正在酝酿和重塑新的世界观和价值观,可无论如何,对以人为本的基本价值的遵循,是以“凸显人的独特性、从人出发的视角、将人和人性视为丰富且复杂的存在”为主要内容的人文主义的基本要义[1],推动建立以人为本的人工智能发展生态,就是强调“人类权益”,保障人工智能朝着有利于人类文明进步的方向发展,为人类提供福祉,解决人类面临的发展风险,而不能有损人类基本权益,大到人类的生命权、生存权、发展权;小到个人的隐私权、生活安宁权等。这就要求人工智能的发展首先要进行科技伦理审查和承诺,以更加负责任的方式发展可信的、以人为本的人工智能,贯彻在人工智能发展中始终保证“人权、自由、尊严”价值观和原则的实现[2]。本文在此背景下,尝试勾勒人工智能伦理问题的基本范畴,建立有效伦理审查的逻辑理路和搭建伦理审查的基本原则。

二、人工智能伦理问题的基本范畴

人工智能伦理既不同于传统的科技伦理和社会伦理,又与两者有密切交叉关系。

01

人工智能伦理与科技伦理

科学研究和技术探索不仅与客观的真理和法则相关联还是有目的性的实践行动,因此,在理论层面,科学技术本身是价值中立的,但实践行为需要接受道德上的评价,如同人类的其他行为一样[3]。科技伦理是指为实现科学研究的目标,科技活动、技术探索的过程中应当遵循的价值观和行为准则[4],不限于某一特定技术领域,而是涵盖了所有技术领域的伦理问题,包括生物技术、信息技术、纳米技术等。人工智能伦理是指在开发、部署和使用人工智能技术过程中,智能体(人与智能机器)所应该遵循的一般伦理原则和行为规范[5]。一般来说,人工智能伦理是科技伦理的一个子集,专注于人工智能技术的开发和应用中的伦理问题,但是由于人工智能伦理还涉及更高层面上的社会伦理问题,也不应简单地将其归纳到科技伦理分支的范畴。

传统科技伦理问题的相关研究主要集中于医学伦理和生命科学领域,前者如辅助生殖技术、器官移植、基因治疗、医患关系涉及的医学伦理难题[6],后者如安乐死、干细胞研究、生殖克隆性技术研究、药品研究等方面[7],二者在内容上具有相似性。人工智能和区块链、物联网、合成生物学、纳米技术等都属于新兴技术,当面对人工智能技术产生的伦理争议时,传统科技伦理治理的手段和规则难以提供周全的解决方案,主要体现在以下两个方面:

一方面,人工智能具有一定的自主性和决策能力,具有较强的复杂性和颠覆性。传统科技的行为和结果具有可预测性,通常按照预设程序和人类指令运行,依赖人类直接控制,这使得伦理风险评估和管理相对容易,伦理审查可以集中于使用前的评估,如评估技术的设计和预期用途是否符合伦理标准。并且,传统科技的发展速度通常较慢,这为伦理规范的制定和更新提供了较为充足的时间,使得法规和伦理标准能够较好地适应技术发展。然而,现如今许多人工智能,尤其是深度学习模型,其决策过程非常复杂且不透明,这种“黑箱”特性使得验证人工智能决策的伦理合规性变得困难,这与传统科技伦理治理中对透明度和可解释性的要求相冲突。当人工智能在应用场景中能够自主做出某些决策时,责任归属的不确定性不仅对现有的法律框架提出挑战,也将成为一大科技伦理难题。并且,人工智能通过不断学习新数据,调整其行为模式,因此科技伦理治理手段需具有动态适应性,传统的伦理审查通常是在项目初期进行,显然难以适应这种持续变化的需求。此外,传统的伦理治理流程往往周期较长,而人工智能技术的快速发展也使得相关的法规和标准难以跟上技术进步的步伐。

另一方面,人工智能伦理不仅涉及技术的研究过程,还与技术的应用密切相关,覆盖了从研发到部署的整个流程。从数据的收集和处理、算法的设计和优化,再到系统的部署和应用,人工智能的每一个环节都可能涉及伦理问题,需要进行伦理考量。传统的科技伦理治理手段伴生于医学研究和临床实践,侧重于技术研发阶段。例如,医学研究中的伦理审查委员会会评估临床试验的设计、受试者的知情同意和潜在风险,其职责是审查和评估研究项目的伦理合规性,确保研究过程符合伦理标准,许多国家在技术研发阶段制定了详细的法规和政策,以及一系列关于研究的伦理标准和准则,以规范研究行为。可见,传统的科技伦理治理手段较少关注技术应用阶段的伦理问题。然而,人工智能技术的应用场景多元,受众范围广泛,不限于某一领域和某一类人群。例如,人工智能技术在无人驾驶汽车系统的应用场景中,在无人驾驶汽车的研发阶段,研究人员和公司通常会进行大量的测试和伦理评估,以确保技术的安全性和可靠性。然而,当无人驾驶汽车投入市场并在公共道路上行驶时,会产生事故责任归属、数据隐私保护等新的伦理问题,这些问题在研发阶段可能未能获得足够重视。由此可见,对于人工智能伦理,传统的科技伦理治理手段可能无法全面应对技术应用阶段的复杂挑战。“电车难题(Trolley Problem)”一类的思想实验在智能技术的应用中已经不是假想的伦理问题了,而忒修斯之船(The Ship of Theseus)之惑也在数字人和具身机器人上再次无法检验。

如前所述,从内容上看,人工智能伦理包含通用的科技伦理原则,又与其他科技领域中的科技伦理有明显的特殊性。

02

人工智能伦理与社会伦理

社会伦理是指一套指导和评判个人和团体行为的道德规范和价值观,涵盖了道德原则、行为规范、责任和义务、权利和自由、公正与公平以及共同利益等方面。人工智能社会伦理指的是人工智能技术在研发、设计和应用过程中需遵循的合理性边界[8],核心在于权利和义务的关系。它包括人工智能研发和应用中的道德规范、价值观念,以及这些规范和价值观在社会条件、社会价值、互动方式和结构体制中的合理性。此外,还涉及人工智能应用于社会所带来的积极与消极影响[9],具体包括如何在提升效率、辅助与替代决策等方面取得平衡。

人工智能伦理与社会伦理之间有着密切的关系,二者相辅相成,互为影响,具体体现为以下三个方面:一是人工智能伦理和社会伦理都依赖于一系列共同的道德原则,如尊重个人权利、正义、公平、隐私保护和责任。这些原则形成了伦理判断和决策的基础,并为如何在人工智能技术应用中实现社会的道德目标提供了指导。二是人工智能的发展赋予了社会伦理新的时代内涵。人工智能作为第四次工业革命的标志,在提高生产效率的同时,会引发劳动力市场和就业形态的变化。人工智能技术发展迅速,一些传统岗位可能被替代,同时也创造了新的职业机会和就业需求,如高技能劳动力的需求增加[10]。但在短期内,劳动者在新旧职业和岗位之间的转换难以做到无缝衔接,劳动资源的大规模重新分配也难以避免摩擦,从而可能导致“结构性失业”的风险增加[9]。由于不是所有劳动者都具备进入新兴行业所需的技能和资源,这可能导致机会不均等,影响社会公平与正义,加剧社会分化,带来社会不稳定。三是社会伦理和人工智能技术的发展相互影响,将现有的社会伦理应用于人工智能技术,构成了人工智能伦理的重要组成部分,反过来,人工智能技术的发展也扩展了社会伦理问题的范畴。社会对人工智能伦理问题的关注会影响人工智能技术的发展方向。社会强烈反对的技术可能被限制或禁止,而符合社会伦理标准的技术可能获得更多的支持和发展。例如,面部识别技术引发了关于隐私和监控的伦理问题,讨论社会对这些问题的关注促使相关技术在开发和应用过程中更加注重隐私保护和透明度。人工智能伦理不仅需要考虑技术本身的安全性和有效性,还需要关注其对社会公平、隐私权、就业等方面的影响,从而确保技术发展与社会伦理相协调。

综上,人工智能伦理是社会伦理在特定技术领域的延伸和具体化。它不仅要遵循社会伦理的基本原则,还要应对人工智能技术带来的特定挑战和问题。

03

人工智能伦理问题的表现形式

人工智能伦理问题受到关注与人工智能技术的发展阶段相关,在弱人工智能阶段,主要涉及的是初级伦理问题,如隐私保护、算法黑箱、消费者画像等;在强人工智能阶段,人工智能伦理涉及的深度伪造、舆论控制、价值观干扰等;而在超强人工智能阶段则是有关智能鸿沟、国家平等发展、人类生存安全等问题。以下讨论几种典型的人工智能伦理问题。

深度伪造(Deepfake)技术是指利用机器学习技术生成逼真的视频或音频文件,创建出虚构但能以假乱真的内容[11]。一方面,此类技术可能被用于恶意制造虚假信息、诽谤个人,在未经个人同意的情况下利用其发布的图片,替换场景,制作虚假视频和音频,从而侵犯个人隐私权和名誉权[12]。另一方面,深度伪造技术可能会对信息真实性和公众信任产生负面影响。这一技术可以被用于制造虚假新闻、伪造名人言论或行为,高度逼真的虚假视频和音频使得辨别真伪变得极为困难,人们难以分辨哪些信息是真实的,哪些是伪造的。技术滥用会导致公众在面对大量虚假信息时,容易产生不确定感和怀疑态度,导致对新闻和媒体的信任度降低,进而对所有信息源失去信任[13]。此外,深度伪造技术还可能被用于政治目的,制造虚假政治宣传,影响选举结果,或在选举中操纵公众舆论,影响司法公正和民主进程,进一步加剧社会的不信任感[14]。相比于过去篡改视频的技术手段,深度伪造技术可以批量制作出无比逼真的音频和视频,而且越来越难与真实事件区分开来,给民众辨别真假的方式带来重大改变,该技术的滥用不仅可能威胁到个人隐私和名誉,还可能对社会稳定和公共安全造成严重影响,存在较大的伦理风险。

人工智能技术可以被用于各种形式的欺诈(Fraud)活动,如自动化的网络钓鱼攻击,通过人工智能技术生成个性化的钓鱼邮件或信息,诱骗受害者点击恶意链接或提供敏感信息,使其在无意中向他人共享个人机密数据,或冒充他人要求受害者向攻击者汇款[15]。人工智能驱动的钓鱼攻击会比传统的钓鱼攻击更具欺骗性和有效性,原因在于它能够利用机器学习和自然语言处理技术分析目标用户的行为和偏好,创建高度个性化和语言流畅的诱饵,且快速迭代和自动化操作扩大了攻击范围并提高了效率,技术上更具侵入性。再例如,通过人工智能生成的语音进行电话诈骗,人工智能技术可以生成高度逼真的语音,利用人工智能生成的语音模仿银行职员或政府官员,诱骗受害者提供个人敏感信息[16]。可见,人工智能驱动的欺诈行为更加复杂且难以检测,给法律监管和伦理治理带来了新的挑战。

算法黑箱(Algorithmic Black Box)指的是许多人工智能系统,尤其是使用深度学习(deep learning)模型的人工智能,作为一种深度神经网络的算法系统,其内部决策过程对用户和开发者来说都是不透明的[17],这种“黑箱”性质使用户和受影响者无法理解或质疑算法的决策,缺乏透明性的问题在伦理上会引发对公平性和责任的担忧。此外,算法黑箱可能会隐藏算法中的偏见,这些偏见可能源于训练数据的不平衡或设计中的无意识偏见。例如,在招聘领域,应用人工智能技术的招聘系统可能会基于历史数据进行决策,如果历史数据中存在性别或种族偏见,这些偏见可能会被算法继承并放大,导致某些群体在招聘过程中被系统性地排除在外,或获得较少的应聘机会。由于算法黑箱的性质,受影响者即使受到歧视性政策,也难以知晓这些决策的依据,一定程度上影响了公众的知情权和监督权。因此,在技术层面,如何提升算法决策过程的透明性和可解释性,增强用户对算法的信任,并有效检测和纠正算法中的偏见,对开发者和设计者提出了更加严峻的挑战。同时,人工智能在应用场景中可能会继承并放大现有的社会偏见和不公正,进一步加剧社会不公平等,如何确保公平性和消除偏见,已成为一个重要且亟待解决的伦理问题。

人工智能在数据收集和分析方面的先进技术能力,虽为社会带来了诸多便利,但同时也引发了隐私侵犯(Privacy Invasion)的伦理风险。一方面,人工智能在机器学习的过程中,需要从海量的数据中学习模式和规律,实现自动化预测和决策。例如,在社交媒体或广告投放的场景中,有关用户的信息越多,个人行为数据越丰富,人工智能就越能从数据中学习并调整自己的行为,实现精准投放广告、吸引用户使用平台或购买商品的效果[18]。虽然用户个人数据的可用性能让人工智能发挥更好的性能,但这种数据收集存在相当大的侵权风险和伦理风险。其中,一个核心问题在于数据可能被用于非预期的目的。用户可能并不完全了解其上传至平台的信息将被如何处理、使用甚至出售,也未能充分认识到潜在的“数据操控”行为。与以往的侵害方式相比,用户信息的安全性和隐私保护面临更为隐蔽的威胁,监管难度也相应增加。更进一步地,若人工智能技术被用于影响用户对各种议题的看法,包括政治立场和观点,且这种影响是在用户不知情的情况下进行的,将会引发更为严重的伦理问题。

另一方面,人工智能技术的应用不仅极大扩展了个人信息的收集场景、范围和数量,而且通过先进的数据分析技术,可以从公开合法获取的非敏感信息中综合推断出个人的敏感信息,这无疑增加了识别和处理个人敏感信息的难度,传统的保护方式面临严峻考验。例如,面部识别技术可以在公共场所且个人毫不知情的情况下,识别个人身份并实现对个人的持续跟踪[19],过度监控可能会侵犯个人在工作场所、学校或其他公共场所的隐私。再如智能设备(如智能音箱、智能手机)和应用程序,可能在未经用户同意的情况下会记录用户的私人对话,并将这些数据发送到云端进行处理,在上传和处理的过程中,个人数据可能因安全措施不足而遭受泄露或被不当使用,不仅侵犯了用户的个人隐私,还对个人信息安全造成威胁。

三、人工智能伦理审查的理论逻辑

面对人工智能技术带来的伦理挑战,科技企业、科研机构和监管部门都在不断探索对人工智能进行规制的可行方案。其中,源于生命科学领域的伦理审查制度具有促进多方协同共治、预先防范潜在风险、灵活应对技术挑战等优势,已经成为人工智能科技伦理治理的重要措施。

01

伦理审查制度的建立

伦理审查制度发端于医学领域,最早可追溯至国际法院针对纳粹非人道医学实验而提出的《纽伦堡法典》(The Nuremberg Code)。作为首套医学研究领域的道德规范,该法典系统提出了人体实验的伦理原则,将此前不成文的医学研究者道德规范上升为成文的伦理准则,在此基础上,《赫尔辛基宣言》为涉及人类受试者的医学研究提供了一个完备的伦理治理框架。此后的几十年间,伦理治理的理念从医学拓展到其他科研领域,一批具有全球影响力的伦理准则不断涌现,针对科技活动的伦理审查机制也得以建立和完善。具体详见表1

结合上述科技伦理准则的内容,可将科技伦理审查制度的起步与发展分为三个阶段。20世纪6070年代是科技伦理审查制度起步期,这一阶段人们主要关注人体实验和动物实验领域的研究伦理。早期的科技伦理准则不具有硬性的约束力,也缺乏有效的监督和约束机制,并不能避免诸如“塔斯克基梅毒实验”等非人道研究[20]。为回应公众的义愤,美国于1974年将受试者保护相关规定纳入联邦法规。该法规提出建立机构伦理审查委员会(Institutional Review Board,IRB)对涉及人体实验的研究方案进行独立审查,开创了对科技活动进行伦理审查的先河[21]。20世纪8090年代是科技伦理审查制度的拓展期,主要表现为伦理审查在学科领域和地理空间上的拓展。一方面,公众意识到基因重组、遗传修饰等生命科学研究对生物安全、环境保护乃至人类尊严的可能风险,将科技伦理审查制度应用于整个生命科学领域;另一方面,伦理审查机制在保护研究参与者、促进社会信任方面的积极作用逐渐显现,发达国家相继完善政策法规以推广该制度,各研究单位也着手组建伦理评审委员会以对实验计划进行评估[22]。21世纪以来,纳米科技、大数据、人工智能等新兴科技在推动社会变革的同时,也带来了生态危害、隐私侵害、算法歧视等新兴伦理议题,并最终推动伦理审查制度从生物医学领域向整个前沿科技领域拓展[23]。科技伦理审查制度进入了创新发展阶段,成为了科技治理体系中的重要组成部分。瑞典、德国等国先后以法律形式明确了伦理委员会的建制和法律地位,使得科技伦理审查走向制度化、权威化。

同西方国家相比,我国的科技伦理审查制度起步较晚,但近年来发展迅速。20世纪90年代初,中华医学会医学伦理学分会通过了《医院伦理委员会组织规则》,初步在医疗系统内确立了伦理委员会制度。早期的伦理委员会主要负责伦理教育和医德监督,并不承担审查职能,这一局面一直延续到1999年《药品临床试验管理规范》的施行。该规范明确了伦理委员会审查批准药品临床实验的职责,标志着我国伦理审查制度向标准化、规范化的方向发展。步入21世纪以来,我国政府加快了科技伦理立法步伐,《人胚胎干细胞研究伦理指导原则》《涉及人类的生物医学研究伦理审查办法》等政策法规相继出台,伦理审查监管框架逐渐成型[24]。2023年,科技部、教育部等十部委联合印发《科技伦理审查办法(试行)》,对科技伦理审查的主体、程序和监督管理予以规范,并将伦理审查制度应用于人工智能领域。经过三十余年的发展,我国科技伦理审查制度已经初步同国际接轨,政府、学界、社会共同参与的科技伦理治理格局正在形成。

02

人工智能伦理审查的道德逻辑

在科技发展的早期阶段,科学研究距离产业应用仍有一定距离,科学、技术和社会之间的系统边界较为明晰,这就导致诸多学者秉持技术工具主义的立场,认为科学研究本身是价值中立的活动,仅在科技应用进入社会后才会造成伦理影响。例如,著名技术哲学家雅克·埃吕尔(Jacques Ellul)就认为,技术具有自主性,并不受人类设定的任何技术目的所左右[25]。基于这一理念,社会只能对科技研究者提出诚实、勤勉等个人伦理层面的要求,而不能直接介入科学研究过程。

然而,科学与技术的融合已经成为难以阻挡的时代趋势,这也促使着科学研究和技术创新、社会经济的联系日益紧密[26]。研究表明,科学与社会之间的关系并非单向的,而是相互影响、连结共通的[27]。一方面,科学深度融嵌入社会结构中,新科技的出现往往会改变个体与自身、他人乃至社会的关系模式,打破既有的道德伦理规范。特别是在数字全球化时代,大数据、算法和人工智能技术的应用侵入了个人领域,为人类的隐私和自由带来了前所未有的伦理威胁,而这些伦理威胁往往源于技术自身的原理和特点[28]。例如,对等网络的架构模式意味着人工智能算法必须遵循以效率为主导的法则,这就使得算法往往从后果主义出发,注重决策结果的效率而非个体权利的保障[29]。另一方面,科技具有价值负载功能,其发展和应用往往受到社会系统的深远影响。荷兰等国也已经尝试在科技发展的早期阶段开展伦理影响评估,以规范性的伦理判断引领具体的发明设计实践,以尽可能消纳新技术对社会道德的冲击[30]。因此,割裂科技与伦理价值的“技术中立”原则已然难以应对新兴科技带来的伦理挑战,以人工智能为代表的数字科技需要得到有效的伦理引导和制度监管。

由于科技具有承载道德价值的能力,科技伦理在科技系统中的地位逐步上升,从科学体内部的自我约束演化为科技治理的重要手段。过去,对科学研究的伦理约束主要体现为科学共同体内部的自律机制和对负面风险的管控措施,监管部门处于被动地位,仅在科技成果造成严重安全风险或损害结果时才加以介入[31]。而在科技治理模式转型后,科技伦理上升为指导乃至约束科技活动的价值引领,这就需要建立完备的伦理审查制度,前瞻式地引导科技机构开展合乎道德的科研工作[32]。具体到人工智能领域,智能算法在数据收集、算法构建、应用领域等层面都被算法设计者的价值伦理所渗透,存在被滥用或误用的风险[33]。为此,有必要建立并完善人工智能伦理审查制度,对技术开发者、算法设计者提出道德层面的约束和限制,在人工智能模型的设计阶段实现价值对齐,以确保人工智能按照对人类和社会有益的方式运行。

仍需关注的是,出于人工智能技术和传统生命科学在技术原理和发展态势的差异,不应在人工智能领域照搬传统的伦理审查制度,而应创新相关审查标准和范式。其一,当前针对人体和动物的实验都具有伦理风险,审查门槛相对明确。而人工智能研发涉及多个行业场景和应用领域,其中部分研发活动并不存在严重的道德风险。如果将伦理审查的门槛设定过低,则可能对相关科技的发展造成阻碍。因此,应当合理划定伦理审查的范围[34]。其二,人工智能技术具有高度的复杂性和不确定性,隐匿于“算法黑箱”后的决策过程在技术层面难以完全公开[35],且往往涉及研发单位的商业秘密,这就需要针对人工智能技术重新设计能够平衡各方利益的程序透明规则。其三,传统伦理审查主要关注实验过程中存在的伦理风险,而人工智能相关的隐私侵害、算法歧视等风险则很大程度上来自模型数据的收集和选取[36],因此人工智能伦理审查需要涵盖数据采集、程序设计、模型训练等研究阶段。

03

人工智能伦理审查的政策逻辑

相较于医学和生命科学领域,我国人工智能伦理审查制度的建设呈现出规范化、法治化的特征。早在2017年,国务院发布的《新一代人工智能发展规划》就已经指出,到2025年,我国要初步建立人工智能法律法规、伦理规范和政策体系,并在2030年进一步完善。2019年,《新一代人工智能伦理规范》发布,结合我国国情明确了人工智能全生命周期的伦理准则。此后,深圳、上海等地先后出台专项立法,要求设立人工智能伦理委员会履行人工智能治理相关职责。《科技伦理审查办法(试行)》则在法律上为人工智能伦理审查提供了组织保障和程序框架。作为人工智能治理体系中的重要制度创新,人工智能伦理审查不仅具有道德层面的正当性,更具有深厚的政策逻辑。

首先,科学共同体的自治监督已经难以满足人工智能伦理监管的现实需求。在过去,科学共同体内部的同行评审、对话交流机制曾是管控科技伦理风险、获取监管机构和公众信任的重要途径。例如,1975年的阿西洛马会议就为通过社会参与和多学科评估应对科学变化带来的风险提供了良好的范例。在这次会议中,具有自然科学和法学背景的专业人士通过沟通和表决,确立了重组DNA实验研究的准则,并对科研机构与科学家提出了具体的行动指南[37]。然而,人工智能的技术创新与产业联系紧密,商业利益的刺激使得该领域的研究者往往并不具有伦理反思的动机,这就使得科学共同体内部的决策机制难以有效运转[38]。如果不通过国家主导的外部监管机关进行审查和约束,对人工智能的伦理治理将有可能流于形式,而难以切实应对新技术可能存在的风险和危害。

其次,伦理审查制度有助于增进社会对人工智能技术的理解和接受。前沿领域的科技突破具有带动社会变革的可能,但也会引发价值观念上的冲突和日益复杂的伦理问题[39]。人工智能所带来的就业冲击、算法偏见、决策过程不透明等问题加剧了公众对技术失控的恐惧,这种对新兴技术的信任危机对人工智能应用的推广造成了严重阻碍。通过引入伦理审查制度,监管机构可以通过前瞻性的视角评估人工智能研究的可能风险,敦促科研单位开展负责任、高质量的研发活动,进而在保障科技发展速度的同时构建大众对人工智能技术的信赖,从而促使人工智能技术最大限度造福社会。

再次,伦理审查制度也有助于提升我国在全球人工智能科研与产业领域的话语权和竞争力。当前,国际学术界和产业界已经开始自发对人工智能研究成果进行伦理上的评价和考量。如神经信息处理系统大会(NeurIPS)就发布了“伦理审查指南”,并指出极端的论文可能因伦理考量而被拒稿。Facebook、谷歌、Openai等科技企业也不断探索并实施针对人工智能应用的内部审查程序[40]。我国在前沿科技领域的发展经验表明,完善科研机构的伦理审查机制能够有效促进全球科学界对我国前沿科技成果的认可[21]。因此,伦理审查制度的引入可以扩大我国人工智能科研成果的全球影响力,并拓展我国人工智能产品的市场范围。

最后,前瞻式的伦理审查制度具有灵活性,更适应新兴科技的治理要求。人工智能的发展具有不确定性,不断产生新的人机交互形式和伦理问题。静态的法律规制滞后于科研实践,只能凭借已有的经验对暴露出来的伦理风险进行处理,导致伦理治理缺乏实效[41]。相较之下,伦理审查这一软性机制可以从道德层面增强科技治理的弹性,将可能的伦理风险扼杀在智能技术的研发阶段,有着更强的风险规避效果。

四、人工智能伦理审查的原则建构

在明晰人工智能伦理审查的理论逻辑后,有必要以此为基础构建人工智能伦理审查的原则规范。对于人工智能伦理审查的原则构建,不仅需要在坚持“以人为本”的基础上确保人工智能“向善”发展,更需要兼顾制度规范的公平公正,厘清人工智能透明度与问责制之间的因果关系,确保科技与法律之间关系的稳定性,以及监管责任的有效落实。

01

 “以人为本”基础上的“智能向善”

构建人工智能伦理审查的原则,应以“人本主义”作为制度构造的逻辑起点,并以此为基础实现科技的“智能向善”。人工智能作为科技演变的必然结果,因紧密契合经济与社会生活而极大地促进了生产力和生产关系的变革,又因人工智能的技术性风险而存在削弱甚至是威胁人权的伦理风险[42]。本质上,这种风险的产生是技术冲击“人本主义”理念的现实表现,而立足“人本主义”的思想实现人工智能的伦理审查实则是预防或规避伦理风险的原则前提。值得注意的是,人工智能无法脱离“技术工具”的属性,技术中立的本质也使得人工智能在研发与应用的过程中无法脱离以人为中心的使用目的。以“人本主义”的理念要求人工智能的发展应确保不损害人作为人的基本尊严,并以增进社会福祉为根本目的[43]。这意味着,对于人工智能的伦理审查应回归人类生产与社会生活,以“人本主义”作为判断的价值基础,不得侵犯隐私权、生命权以及平等权等个体人权或集体人权[44],确保人工智能的“向善”发展。

回归“人本主义”的逻辑基础,对于人工智能伦理审查不仅仅需要思考技术对于人类具体人权的冲击,还应客观衡量技术“智能向善”所造成的公共利益挑战。具体而言,“以人为本”的理念要求人工智能的发展不以损害基本人权为前提。对于人工智能的研发与应用,应谨慎评估技术演变所造成的伦理风险,衡量对于基本人权所造成的损害可能性。尤其是在涉及大模型算法、数据安全等领域时,更应该注重对隐私权、平等权等具体人权的冲击。此外,人本主义的“智能向善”原则也要求技术的发展应实现社会福利的最大化,在保障基本人权的同时,推动社会经济发展水平的高质量提升。对于技术的研发与应用,应兼顾公共利益的发展需求,避免私人资本的介入而违背科技“智能向善”的基本原则。需要注意的是,“以人为本”基础上的“智能向善”也暗含着技术“向上”发展的逻辑内涵。不可否认的是,技术的发展作为经济社会发展的强大驱动力,人工智能“向上”迭代已成为生产力变革的需要。因此,人本主义的“智能向善”原则并非限制技术的发展,而是通过指明技术发展的基本方向,使得技术的研发与应用贴合社会经济的发展现状,在满足人本主义基本需求的同时,推动技术的“向善、向上”发展。

02

公平公正:透明度与问责制的因果联系

基于透明度和问责制的因果关系实现人工智能伦理的有效评估,是确保人工智能技术研发与应用结果公平公正的必然要求。理想状态下,人工智能通过披露或者解释算法保障个体的知情权,并因算法决策的复杂性与自动性而导致个体权益损害的情况下承担责任。然而,人工智能所依赖的大模型训练以及算法决策不可避免地因算法的复杂性、商业主体的逐利性以及内部逻辑的模糊性[45]而存在问责困境。深究算法透明度与问责制之间的因果关系,本质在于将公平公正的价值准则融入科技与法律的关系交互之中,即避免因技术的复杂性而模糊责任主体,以此为监管人工智能伦理提供有力的问责逻辑,保障人工智能应用场景下个体的合法权益。值得注意的是,透明度本身并非人工智能伦理审查的原则,而是作为评判人工智能伦理审查的因素之一[46]。人工智能相关主体如果未能符合透明度的要求,减轻因算法的复杂性与自动性所产生的公众焦虑,则因此需要承担因算法透明度不足的责任。

通过厘清透明度与问责制之间的因果联系,将人工智能伦理审查的重点置于对算法形式与实质透明度条件的满足之中,确保算法设计的公平性与算法结果的公正性。一是形式透明作为人工智能伦理审查的基本要求。形式透明要求人工智能的研发者或部署者在人工智能设计与应用之时,披露人工智能大模型的基本内容,包括但不限于所研发的大模型算法应用机理、模型参数、数据训练来源以及其他与人工智能系统相关的标识[47]。形式透明的目的在于以一种直观、表面的方式使得公众可以快速认知人工智能的基本内容、知晓其内容生产的来源,以唤醒公众潜在的安全意识。二是实质透明要求人工智能生成内容准确、可靠,满足结果的公平公正。不同于形式透明,实质透明的重点在于深入人工智能系统内容,注重算法设计的公平公正,要求算法从实然层面满足可被感知、可被解释的需求。尤其是当人工智能系统产生损害个体权利的行为时,此时有必要就人工智能大模型的运行机理、数据输入与输出的因果关系以及算法的设计与应用性能予以解释,使得“技术中立”原则得以实现于人工智能的服务与管理之中。

此外,透明度与问责制的因果联系还要求人工智能伦理审查构建相应的问责救济原则,确保个体以及公众的合法权益得以维护。在审查人工智能伦理时,因算法黑箱效应以及人工智能大模型的复杂性所产生的权益侵害,应给予明确的责任承担机制以及权益的救济通道。具言之,人工智能伦理审查更加关注技术对基本人权的可能侵害,以及对权益受到侵害后的问责与救济规则,且此种问责与救济的程度应以公平公正为前提。因此,这要求人工智能伦理审查在回归“以人为本”的原则要求时,同样需要关注对于未能尽到透明度义务而产生的损害,以确保不因技术的发展而损害合法、正当的权益。

03

稳定性与监管责任

稳定性与监管责任作为人工智能伦理审查原则构建的另一重点,目的在于合理控制因人工智能技术发展所产生的伦理风险,确保技术的发展与应用在实然层面的稳定、和谐。不同于传统科技研发,人工智能因大模型算法的不可预测性以及较强的人机交互属性,使得人工智能的研发和应用与生产生活的联系更为紧密。这意味着,人工智能可能造成的损害风险将更加直接作用于经济社会的发展之中,更加明显损害个体的合法正当权益。稳定性原则的规定,主要是基于风险控制的考虑而进行的原则设定,而稳定性与监管责任之间的关联则在于为人工智能伦理风险合理控制设置强有力的保障。无论是从事前的制度规范、事中的风险监控以及事后的惩罚与补救,均是强化人工智能稳定性发展,落实监管责任的应有措施。进一步而言,对于因人工智能所造成的伦理风险,应确保技术发展的稳定性以及权益保障的稳定性,并基于监管责任保障稳定性的落实。

人工智能伦理审查中稳定性原则要求最明显地体现为人工智能技术的鲁棒性与安全性。技术鲁棒性与安全性要求技术系统在受到预期之外的异常数据输入以及外部干扰等异常情况时,仍能够保持系统运行功能和性能的能力。这意味着,人工智能技术的研发与设计应有足够抵御外部风险的技术稳定性,避免因系统的不稳定而造成损害。值得注意的是,技术鲁棒性和安全性的要求已经体现在相关人工智能伦理审查的规范之中,典型的如欧盟《可信赖AI的伦理准则》(ETHICS GUIDELINES FOR TRUSTWORTHY AI)便规定技术鲁棒性与安全性作为实现可信赖人工智能的关键要素之一。技术鲁棒性与安全性的要求实则与防止伤害的理念紧密结合,目的在于避免因系统的不稳定性而造成无意的损害,这便要求人工智能系统在设计阶段、运行阶段以及结果阶段确保稳定性。具体而言,设计阶段应实现大模型算法的合理规划与设计,确保所使用的算法是足够可靠、准确的。同时,对于人工智能系统的设计应尽量避免主观故意伤害因素的介入,算法的设计与部署需考虑在应用阶段可能存在的错误性偏差,减少系统出错的概率。运行阶段则应注重整体系统操作的稳定性,确保人工智能系统的运行有足够抵御外部攻击的能力。对于运行过程中可能存在的黑客攻击、病毒侵入等情况,应有足够的应急处理方案缓解系统不稳定带来的风险。结果阶段则侧重人工智能生成内容的真实性与准确性,避免因输出结果的不准确而导致伤害。

此外,人工智能伦理审查稳定性原则的实现无法脱离监管责任的保障。监管责任的保障则围绕事前制度的规范性、事中制度的可操作性以及事后监管措施的落实三个方面。在事前制度的规范层面,要求人工智能伦理审查实现制度规范的稳定性,从监管主体责任的落实、伦理监管的框架建构等方面着手确保事前人工智能技术规范与法律规范的完善[48];在事中制度实施层面,则要求在人工智能伦理审查的过程中,明确技术规范与伦理规范的落实情况,合理评估人工智能相关主体行为的伦理风险;在事后监管措施落实层面,则应加强对高风险人工智能活动的风险监督,实现对可能出现的人工智能伦理风险的动态跟踪,确保合法权益的稳定性保障。通过以上三个方面的责任保障,人工智能发展的稳定性得以落实,因人工智能不稳定所造成的伦理风险也将得到有效预防。

五、结语

人工智能作为数字化时代下的产物,其发展并未完全摆脱以“人”为核心的使用目的,人工智能并非纯粹的“智能”产物。智能时代的到来,技术以不同以往的新形态进入人们的视野,但技术始终无法脱离以人为目的的本质内涵。这意味着,对于技术的研发与应用,应以“人”为核心目的,并关注因技术所产生的伦理问题。面对因人工智能所产生的伦理问题,理应在坚持“以人为本”的核心原则下,遵守人工智能伦理审查的道德逻辑与政策逻辑,并以此理论逻辑为基础,构建人工智能伦理审查的原则。需要明确的是,无论是技术影响个体合法权益的风险,抑或技术应用对社会价值层面所产生的冲击,智能技术的发展理应回归“以人为本”的伦理关注。在推动技术深层次迭代的同时,以一种与经济、社会、人文高度融合的样态实现“人文主义”的关怀,并基于“善”的目的推动人工智能向“上”发展。

参考文献

[1]陈昌凤,李凌.算法人文主义:公众智能价值观与科技向善[M].北京:新华出版社,2021:34.

[2]张平.人工智能治理倡议,强调“人类权益”[EB/OL].(2021-06-01)[2024-06-01].https://mp.weixin.qq.com/s/PwIPEtcQzbUWlvsLVWMfzQ.

[3]甘绍平.科技伦理:一个有争议的课题[J].哲学动态,200010:67.

[4]于雪,凌昀,李伦.新兴科技伦理治理的问题及其对策[J].科学与社会,20214:53.

[5]于雪,段伟文.人工智能的伦理建构[J].理论探索,20196:44.

[6]邱仁宗.高新生命技术的伦理问题[J].自然辩证法研究,20015:2125.

[7]樊春良,张新庆,陈琦.关于我国生命科学技术伦理治理机制的探讨[J].中国软科学,20088:5960.

[8]MOOR J H.The nature,importance,and difficulty of machine ethics[J].IEEE Intelligent Systems,2006,214:1821.

[9]章文光,贾茹.人工智能的社会伦理困境:提升效率、辅助与替代决策[J].东岳论坛,20218:9396.

[10]程承坪,彭欢.人工智能影响就业的机理及中国对策[J].中国软科学,201810:64.

[11]DE RUITER A.The distinct wrong of deepfakes[J].Philosophy & Technology,2021,344:1312.

[12]CHESNEY RCITRON D K.21st century-style truthdecay:deep fakes and the challenge for privacy,free expression,and national security[J].Md.L.Rev.,201878:885886.

[13]VACCARI CCHADWICK A.Deepfakes and disinformation:exploring the impact of synthetic political video on deception,uncertainty,and trust in news[J].Social Media+ Society,2020,61:2.

[14]CHESNEY BCITRON D.Deep fakes:a looming challenge for privacy,democracy,and national security[J].Calif.L.Rev.2019107:1778.

[15]RESNIK D BFINN P R.Ethics and phishing experiments[J].Science and Engineering Ethics,2018,244:12411242.

[16]HELMUS T C.Artificial intelligence,deepfakes,anddisinformation:a primer[R].Santa Monica:RAND Corporation,2022:124.

[17]VON ESCHENBACH W J.Transparency and the blackbox problem:why we do not trust AI[J].Philosophy &Technology,2021,344:1608.

[18]BARTNECK CLÜTGE CWAGNER A,et al.An introduction to ethics in robotics and AI[M].Cham:Springer Nature,2021:63.

[19]国家人工智能标准化总体组.人工智能伦理风险分析报告[R].2019:1819.

[20]黄文龄.二十世纪三十年代美国南方黑人和“塔斯克基研究”[J].中国社会科学,2014(8):183203.

[21]滕黎,蒲川.伦理审查委员会的法律地位初探[J].医学与哲学(人文社会医学版),20098:48.

[22]李建军,王添.科研机构伦理审查机制设置的历史动因及现实运行中的问题[J].自然辩证法研究,20223:5355.

[23]赵鹏,谢尧雯.科技治理的伦理之维及其法治化路径[J].学术月刊,20228:93.

[24]陈勇川.回顾与展望:我国生物医学研究伦理审查的发展趋势[J].医学与哲学,202015:2.

[25]ELLUI J.The technological society[M].New York:John Wilkinson,Vintage Books,1964:140141.

[26]CHANNELL D F.A history of technoscience:erasingthe boundaries between science and technology[M].Milton:Routledge,2019.

[27]LATOUR B.Reassembling the social:an introduction toactor-network-theory[M].Oxford:Oxford University Press,2005.

[28]刘兴华.数字全球化时代的技术中立:幻象与现实[J].探索与争鸣,202212:4042.

[29]郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),20211:1620.

[30]谢尧雯,赵鹏.科技伦理治理机制及适度法制化发展[J].科技进步与对策,202116:110111.

[31]计海庆.论科技伦理的治理创新[J].华东师范大学学报(哲学社会科学版),20225:103104.

[32]王国豫.科技伦理治理的三重境界[J].科学学研究,2023,(11:19321937.

[33]李林.智能算法伦理审查进路的完善策略[J].学术交流,20234:7577.

[34]江琴,左晓栋.人工智能伦理审查与监管初探[J].中国信息安全,20235:3839.

[35]HUMPHREYS P.The philosophical novelty of computer simulation methods[J].Synthese,2009,169:615626.

[36]孟令宇,王迎春.探索人工智能伦理审查新范式[J].科学与社会,20234:101104.

[37]李建军,唐冠男.阿希洛马会议:以预警性思考应对重组DNA技术潜在风险[J].科学与社会,20132:98109.

[38]BODDINGTON P.Towards a code of ethics for artificialintelligence[M].Cham:Springer,2017:57.

[39]王学川.科技伦理价值冲突及其化解[M].杭州:浙江大学出版社,2016:3132.

[40]杜严勇.人工智能伦理审查:现状、挑战与出路[J/OL].东华大学学报(社会科学版),2024https://doi.org/10.19883/j.10099034.2024.0124:45.

[41]吴兴华.从“回应式”治理到“前瞻式”治理:人工智能伦理治理模式的变革[J].理论导刊,20242:6268.

[42]程新宇,杨佳.人工智能时代人权的伦理风险及其治理路径[J].湖北大学学报(哲学社会科学版),20243:160.

[43]汪鹏程.科技向善的法治保障及其德治捍卫[J].自然辩证法研究,202310:122.

[44]付姝菊.生成式人工智能视域下的人权:张力、威胁与中国因应——以ChatGPT为例[J].湖南科技大学学报(社会科学版),20233:129.

[45]BURRELL J.How the machine"thinks":understandingopacity in machine learning algorithms[J].Big Data andSociety,2016,31:112.

[46]JOHNSON D G.Algorithmic accountability in the making[J].Social Philosophy and Policy2021382:111-127.

[47]张永忠.论人工智能透明度原则的法治化实现[J].政法论丛,20242:126.

[48]赵鹏.科技治理“伦理化”的法律意涵[J].中外法学,20225:1204.