查看原文
其他

商希雪|人机交互的模式变革与治理应对——以人形机器人为例

商希雪 上海市法学会 东方法学
2024-09-17

人形机器人的出现,使人工智能的输出由虚拟的数字世界开始走向现实的物理世界,由此促进了人机共生状态的演进进程。具备情感代理和行为代理功用的人形机器人突破了传统的人机交互模式,尤其是人机情感交互模糊了人机主体地位的界限,为具身智能体的主体定位提供了现实支撑。新型交互生态颠覆了以往人机交互的技术模式和理论范式,对传统的“以人为中心”的人机交互思路带来了冲击。基于技术层面的人机互嵌与社会层面的情感补偿,应从行为代理与情感代理两个维度区分对具身智能体的规范治理措施,并跟随技术发展步伐,面向现在和未来分阶段作出理论和制度准备,最终围绕整体性的人机交互关系构建智能时代良性循环的人机信任生态。

引言

人形机器人,是指拥有一定的物质实体,其外形和基本功能中包含由人工智能技术所构建的类人生物特征,基本运作遵循一定的社会规则且能模仿人类行为,与人类或者其他的自动化实体进行交流和互动的智能机器人。工信部在《人形机器人创新发展指导意见》中提到,人形机器人已经成为科技竞争的新高地、未来产业的新赛道、经济发展的新引擎。1950年,人工智能(Artificial Intelligence,以下简称AI)之父艾伦·图灵首次提出“具身智能”的概念,智能行为可以被具有对应形态的智能体通过适应环境的方式习得。基于生成式AI的语言模型(如ChatGPT)只能和数字世界进行交互,而AI智能体与物理世界的交互则需要具身智能的机器人。对于具身智能的现实载体——人形机器人,其最基本的特点是具有人类的外形特征和行动能力,相对于工业机器人,人形机器人拥有更高级的感知交互系统,包括传感模块和软件方面(导航技术、智能决策等)。大模型技术拉开了机器人智能时代的序幕,人形机器人是大模型输出智能化终端的重要载体,生成式AI技术突飞猛进的发展加速了人形机器人的进化,人形机器人是“具身智能”中最重要的一环。

“具身智能”的演进加速让人形机器人可以发挥更多价值,在大模型技术支撑下,人形机器人不再是只能送餐、拧螺丝的“工具人”,交互、陪伴等情绪功能让人形机器人呈现出非工具性价值。传统的工具性机器人不需要深入的人机交互,一问一答的交互即可满足功能实现需求。但是,人形机器人天生自带社交、陪伴、情感等属性,使得人形机器人的主体属性凸显,人与机器人在联合工作时,不仅考虑机器的工具性,更加关注人与人形机器人之间的沟通内容和交互关系,这显然改变了人机交互中人的主观期待和反应回馈。可以看到,除了工具化功用,无论是在行为输出还是语言输出上,“人形”+“智能化”使得机器对人所独有的高级智慧和高级情感产生了一定的可替代性,颠覆了以往人机之间主体与客体的传统关系,走向了人机共存与人机互惠阶段。

人机共生强调以系统的思维看待人机关系,主张人与机器作为一个整体系统朝着共同的目标作出优化和进步。进一步,随着通用人工智能的快速发展与普及应用,机器的替代功能由体力为主转向脑力为主,对于人形机器人而言,更是从脑力转向“脑力+情绪+类人行为”的具身性。由此,在人形机器人焕发情绪互动、智慧互补功能的当下,人机共生理论在逐步走向对社会价值的挖掘,由此也引发了关于人形机器人主体地位、人机法律关系、人机交互规范等方面的讨论。人机共生为认识人形机器人以及人机关系提供了一个完整的理论框架,立足于人形机器人的自身特性与大模型技术特征,本文将在人机共生视域下结合人机交互、人机共生、社会行动者等理论范式展开对人形机器人所涉的人机关系、法律属性、交互规范、治理路径等方面的分析和探讨。

一、人形机器人对传统人机交互范式的挑战

当前,由大语言模型驱动的人工智能体能够自己感知、决策和行动,给人类社会的工作和生活方式带来深刻变革,也随之对人机关系带来了影响和变革。基于人工智能体的人形机器人将人机协作的交互模式从被动交互变为主动交互,人形机器人可能会形成自己的社会,并与人类和谐共存,届时,传统的人机交互关系范式必然面临颠覆。


(一)具身智能技术下人机交互的功能突破和模式革新

机器的类人功能为“机器助人”甚至“机器换人”提供了可能,对于面向人类生活的机器人,人形的价值和意义在于对人类产生“类人”的功能辅助和情感陪伴,在功能上表现为情感交互和行为代替,极大提升了人类的认知可能性和行为自由度。

1.人形机器人的情感代理和行为代替




在人机交互维度下,具身智能技术带来的功能突破主要体现为机器可以全方位成为人类的情感或行为代理,即人类向机器发生了超越工具属性的功能转移。如果,此前人形机器人的技术进步主要体现在工程和机械上,那么,现在大模型则使得人形机器人的智慧能力发生了质变,正在助推人形机器人跨过关键的技术难关。大模型技术为创造通用人工智能的硬件和软件提供了基础,迈出了通用人工智能道路的第一步,接下来的两步进阶,分别是AI智能体和具身智能。人形机器人等初级具身智能的出现,使得人类在功能、意志力、责任与信任等方面逐步向机器迁移。功能转移体现在机器被赋予人类的肢体功能、感官功能和思维功能等,意志力转移表现为机器的设计和使用反映人类的需求和意愿。在功能转移和意志转移的基础上,人机之间发生了责任与信任的转移,这主要呈现在人机交互生态中,人类在创造和使用机器的过程中不断加深对机器的信任,将自己的意志或行为意向交付给机器完成,与此同时也将自身的责任属性转移给机器,最终使机器在不同层次、不同程度上承担一定的道德责任、伦理责任甚至法律责任。同时,在人类向机器迁移的过程中,机器也在反作用于人

类,高度智能化与灵活性的具身智能体也对人类的生命机体、社会机体与精神机体产生增强或代理作用,丰富了社会表达、提高了价值创造。由此,人机在双向作用中逐渐形成相互促进、相互塑造、相互制约的作用机制,形成价值共创的交互生态。

具体来说,人机之间的功能转移最终导致机器对人的情感代理和行为代替。第一,情感代理。在人形机器人的开发过程中,仿真情感的程序编写是一个关键的环节。人形机器人给人类社会带来的最突出的影响是,将人工智能从工具功能效用进阶到情感交互功能,主要体现在以下三个方面:一是人与人形机器人情绪的同化。机器的高级智能化体现在对人类情绪、情感的感知与应对。人形机器人不仅可以识别、分析、模仿人类的情绪和情感变化,还可以对人类情绪作出反应,从而实现人机情绪和情感的共享。二是人形机器人的情绪补偿。人形机器人的情感补偿源于具身效应与替代陪伴,情感陪伴甚至全方面守护必然是人形机器人未来的重要发展方向。由于类人的外形和拟人的感情输出,人类会出于情感交流本能对人形机器人产生情感依恋,甚至将人形机器人视为真实的个体,成为“替代性的身体”。三是人与人形机器人开始呈现意义生成与意念交互:其一,人类正在对具身智能产生更大的信任,人类对机器的道德信任会随着拟人化外观的变化而变化。同时,随着公民数字素养的提升、算法透明度的落实,人类对机器的感知和理解程度更高,从而更加信任机器对自己的行为,而人机之间的“意义生成”即根植于人对机器的充分信任。其二,行为代替。在外部硬件上,人形机器人由四部分组成:(1)生命系统,主要支撑平衡、步行、发声、身体摆动、感觉、表情、调节运动等。(2)造型解质,主要支撑关节自由运动。(3)人造肌肉,主要用于呈现肉体、静脉、性别等身体的各种形态。(4)人造皮肤,主要包括肤色、机理、轮廓、头发、视觉、牙齿、手足等。由此,当人类向人形机器人下达执行指令,接收并处理命令信号后的机器信息处理系统便会控制上述外部硬件做出相应的表情、行为或动作。由此也意味着,人形机器人可以代替人做出行动,事实上成为人类行动的代理人。那么,一旦某个行为被做出,除了对个人生活产生影响,也极可能产生对应的法律意义和社会意义,例如,代替人类发出要约甚至签署合同、代替人类网上购物、代替人类与第三方交谈等,人形机器人也由此成为社会参与的行动者。

2.人与人形机器人交互模式的变革




相较于以往的人机交互生态,人形机器人等具身智能在交互模式的创新上主要体现在两个方面:第一,人机交互方式的变革。人与人形机器人的交互方式从界面应答转变为多模态互动。人形机器人的服务模式和行为表现已经颠覆了当前人机之间的信息输入和输出模式,交互方式呈现出多元化与多模态特点,从人机之间单一的信息交流转向视觉、听觉、触觉、味觉等五官感知性的输入与输出,也走向了与虚拟现实、增强现实等相结合的多模态交互。随着人工智能技术的升级迭代,包括人形机器人在内的虚拟人将具备自主交互能力。相应地,人机交互内容已经从界面交互发展到信息交互,而人形机器人的出现,又促使人机从信息交互进阶到情感交互。第二,人机交互生态的变革。人与人形机器人的共生状态由“人机共存”升级为“人机嵌生”。1960年,约瑟夫·利克莱提出了“人与计算机共生”的概念(Man-computer Symbiosis),他认为计算机并不是要代替人的大脑,二者不是取缔关系,而是一种共生关系,人和机器可以协同合作去应对解决复杂问题。由此,人机共生必然是人类与计算机的预期发展方向,人机可以作为合作伙伴并相互受益。对于人形机器人与人类的共存状态,也不单单是机器独立存在以及对人的功能辅助。随着脑机接口技术的落地和不断突破,人机共生状态走向人机嵌生,即人机出现物理层面上的结合,表现为自然和人工物相混合的有机体,通过智能机器的嵌入改造人类自身的身体构造,延展了人的智慧能力和身体极限。未来,随着智能嵌入被广泛应用于疾病治疗、感官延展、智能拓宽等领域,也将出现“半机械人”的存在。在伦理学研究中,“后人类主义”推翻了传统以“人”为中心的认识论和伦理学概念,承认了非人类实体,强调物种间的“共生共栖”。相较于传统人机交互视野下对“类人机器人”的研究视野,人机嵌生为机器的主体性探讨提供了现实基础,在伦理规则角度也存在“后人类主义”的影响。


(二)具身性对人机交互中“以人为中心”理念的颠覆

以往的人机交互范式和理论均着重强调“以人为中心”,然而,随着人工智能技术的发展,基于新型的人—人形机器人交互模式,具身智能开始具有高水平的人机交流性,“以人为中心”的思维和理论面临挑战。

1.“以人为中心”的理念沿革




关于智能机器对人类的作用和影响,长期以来存在两大阵营:人工智能和智能增强(Intelligence Augmentation,以下简称IA)。前者主张机器可模拟与可替代人类,后者则认为,机器应当服务于改善和增强人类的智慧和能力,强调以人为本,主张人机交互、人机共存。在实践中,自人机交互概念诞生之初到现在,“以人为中心”,即“机器服务于人类”,是技术创新和技术设置的主流核心理念,该理念作为根本价值内核深嵌于不同阶段的人机交互范式。1983年,斯图尔特·卡德在其著作中深度阐释了“人机交互”概念,研究用户与系统之间的交互关系,关注机器与用户之间相互作用的方式,以使得技术更好地为人类服务。由此,当前人机交互的技术设计理念主要遵循人机交互与协同计算理论,在人机共生与“以人为中心”的交互关系理念下,以及在IA与AI交叉融合的视野下,人机交互关系又进一步衍生出人机共协计算理念。人机共协理念更关注人在人机关系中的主导地位,在人工智能应用中优先考虑人类的结果,让技术作为自然的管家为人类服务。人机共协计算融合了东方哲学中的“中庸”概念,在此概念下的人机交互可称为有机协同交互,代表一种所期待的最佳平衡状态,在这种均衡状态下,计算机技术不仅用来完成某些预想的工作任务,更在于通过完善和提高人类的能力及潜力,从而扩展人类集体认知与人性的边界。从技术治理维度而言,人形机器人的技术架构和交互模式契合人机共协计算理念。人形机器人的进化路径是从固定到移动、从独立到协作、从单一到通用。对于人形机器人而言,在其可独立运作的情况下也将人的作用或认知能力引入机器智能,形成人机协同的混合增强智能。人机共生为如何思考设计、支持人—人形机器人交互提供了一个根本性的定位,硬件构成作为认知的“外部资源”,与作为认知“内部资源”的人脑形成协作,使人的思维与整个环境及环境中的资源形成联动。在人机联动关系中,关键问题是如何认识和处理自主性、协同性和群体智能。在此视角下,人类与人形机器人之间的互动模式为:(1)各自具备自主性。人机关系中的自主性包括人的自主性和机器的自主性。在功能维度上,人形机器人具有工作的独立性。机器在特定条件下能够自主地进行行动和决策,不需要人的干预或指示。在决策维度上,人始终具有理性的判断力,包括人的意愿、选择和决策的自由。人在与机器交互过程中能够自由选择和决定自己的行动和决策,不受机器的控制或限制。(2)彼此存在协同性。在人机关系中,协同是指人与机器之间的合作和互动,以实现共同的目标,广义上包括人—人之间、人—机器之间、机器—机器之间的协同合作,此处仅探讨人—机器之间的协作。在相互作用维度上,双方是相互加强的,不同于IA理论下机器单方向地增强人类,在人—人形机器人的使用交互中,人类也在增强机器,这样双向的作用和反作用是两者具备协同性的体现。

2.人形机器人对“以人为中心”理念的挑战




在具身智能体出现之前,以往的人机交互理论将“以人为中心”作为核心理念和基本规范,根本上遵循的是驯化理论,类似于人类对野生动物的驯化思路。在规范层面上,对机器的治理思路主要从技术决定或社会所需视角出发,着眼于人类对机器的控制权力,人与机器之间的关系厘定也采取二元对立思维,反映在法律规范上即主体与客体的区分,将机器始终定位于客体,而人类则是自主认知和社会行动的唯一主体。据此,在人机关系的权力分配中,“人在回路”理念(Human in the Loop)强调人应当作为主导者和控制者,该理念对应的规则被内化为工程设计中的基本原则,催生了“关注人类因素的工程设计”以及研究特定工程设计之用户体验或对人类用户之影响的工效学。然而,随着机器行为学的兴起,尤其是具身智能体的出现和应用,智能机器也可以作为现实的自主决策者和社会行动者参与到社会公共生活中,由此进入社会主体和法律主体的视野。人类可能不再是唯一的行动主体,由此给以往的传统人机交互关系带来了颠覆性挑战。事实上,伴随着人工智能体的广泛扩展与应用,人机交互在技术层面达成了虚实共融,现实层面形成了人机共生,社会层面实现了价值共创。人形机器人也不再只具有工具化的功用,而是呈现出模仿人类的特征,人机之间的主体边界受到了冲击,传统的人机交互范式和交互理念理应有所变革。面对具身智能体可以呈现出人类情感的特征,机器的自主性、智能化和情感化应当被正视,当前社会规范体系下机器的属性和地位也需要被重新审视和定义。针对人形机器人的硬件结构和行为表现,人机交互的技术研究已由程序语言和图形界面转向自然语言和多模感官,相应地,人机交互的价值研究也从工具经济价值转向情感价值和社会影响,人机的主体界限愈加模糊。由此,在社会维度下,类人机器在社会中的参与地位与行动影响决定着人机之间的交互关系,对人机关系中机器的定位研究也从“以人为中心”转向探讨机器的主体性。面对强人工智能时代的到来,“以人为中心”理念的核心地位遭到了撼动。


(三)人—人形机器人共生关系的特殊形态

人与人形机器人的交互具有一定的类似于人际交往的属性,但又有其交互特性。人形机器人可以为人类提供具身陪伴与情感交流,在法律规范层面上,人机关系的主客体二分结构面临着冲击,人与人形机器人的交互关系结构也出现了整体性变迁。

1.人机共生的共融与共荣




人工智能时代的人机共生具有复杂的关系特征,表现为合作与竞争共存。当前,人机共生关系主要有三种模式:工具型偏利共生、竞争型偏害共生以及伙伴型互利共生。人机关系的竞争性主要体现在劳动力维度上,产业协同中机器对人的可替代性激发了资源竞争。我们对人形机器人的功能期待主要是具身性的陪伴和交流,人机关系建构致力于实现互利共生,即人形机器人扮演人类合作者而非竞争者的角色。随着具身人工智能的出现与普及,未来高度智能化的人类社会中人机关系将呈现出人机共融与共荣的普遍形态。从社会发展与人类生活视角来看,在未来,具身智能体有望进入千家万户,一个人类与具身智能体共生共存的社会生态正在形成。元数据是人工智能进化的基本单位,通过信息技术智能机器与人类的准社会化交往,碳基生物和硅基生物在语言表达、认知模式、思维方式、逻辑链条等方面进行深入且全面的融合,人机之间的交互关系也日益复杂与密不可分。基于人形机器人的情感陪伴和具身特性,人类极易把机器人当作真实的人。对此,在人机双向反馈的循环机制下,一方面智能机器会持续性地进行功能优化,另一方面人类则被赋予更高程度的认知可能性和行为自由度。据此,人机共融共荣下的人机交互特点主要体现在两个方面:一是意向性融合,即超越当前形式化的人机交互,人机将在意向性上发生融合。二是人—环境—技术的整体融合,即超越单纯的人机之间的融合,技术环境也使得人机融合系统呈现自组织、自由化、它组织和互适应的特点。

2.人机共生关系的整体性



人机共生强调以系统的思维看待人机关系,主张人与机器作为一个整体系统朝着共同的目标作出优化和进步。在认知能力上,通用人工智能提供了激发类群智能和人类创造性意识的潜质,具有关系超越性、认知超越性和智能超越性。人机交互的意向目标是群体智能,即多个机器或机器与人类组成的群体共同协作和智能化的能力,包括人的智能与机器的智能。人的智能是指人类在思维、学习、创造和问题解决等方面的能力,而机器的智能是指机器在模拟人类智能的过程中表现出来的能力。在人机共生视域下,人形机器人的技术架构和交互模式契合人机共协计算理念,即人与机器之间互相作用、互相增强,在功能优化和行为表现上密不可分。由此,在人机已经建立了稳定的交互关系基础上(人机信任机制),当人类一旦穿越“恐怖谷效应”,就会与虚拟人建立心理上的共鸣链接,甚至产生行为依赖和控制。例如,戴维·莱维在其著作《与机器人的性与爱》中指出,机器智能伴侣的出现会使人类对于机器的关系认知不再是主仆关系,人类甚至在性与爱方面求助人工智能。目前,在碳基生命主导社会规范的背景下,法律关系结构与规范模式主要遵循主体与客体二分的基本思路。然而,在人工智能应用智能化和情感交互不断进阶的当下和未来,碳基生命与硅基生命各有所长且互相增强,法律层面一味强调人机主客体之分的“对立思维”本质上违背了人工智能技术发展的底层逻辑。因此,人机之间的法律建构关系,不应仅局限于主客体的二分之争。人机共生关系之间的权力分配思维应转向对人机关系的重构,即应当将重点回归到人机关系中人与机器各自的独立性以及两者基于协同增强呈现出的整体性。

二、人—人形机器人共生视域下CASA理论的革新与拓展

具身智能体具有更强的情感交流性和社会参与性,人机交互中“以人为中心”的思维和理论正不断面临新技术、新应用的挑战,机器的主体性和独立性逐步凸显,在这一现实背景下,“计算机是社会行动者”(Computers Are Social Actors,以下简称CASA)理论为解释智能机器的主体性提供了支撑,同时,鉴于概念初提时的时代局限性以及当前人机交互模式的新特点,针对人-人形机器人共生关系的CASA理论需作出与时俱进的革新和拓展。


(一)具身智能时代CASA理论的嵌合

人形机器人的出现,使人工智能技术及其应用从工具功能进化到涵盖情感交互,与此同时,相关的法律伦理挑战也随之而来,促使具身性人工智能从单纯的技术-工程领域上升到对社会规范的颠覆影响和重塑可能。20世纪90年代,纳斯等人提出CASA理论,这是人机等同关系研究的基础理论范式。等同关系说认为,机器是“准人类”与社会行动者,因此计算机可以看作是人的同类。如果把性格、性别、种族等人格特质赋予机器,则会使其与人类社会进行互动。在具身智能时代,人类无意识地将人际交往规则运用于与智能机器的交互过程,即使他们知道这些机器没有人类独有的感觉、意图和动机。如前所述,相较于其他人工智能应用,人形机器人对于人类生活的服务特点主要在于其具备人类独有的社交属性,其外形和基本功能中包含由人工智能技术所构建的类人生物特征,基本运作遵循一定的社会规则且能模仿人类行为。由此,与人类进行交流和互动的智能机器人,一方面能够辅助人类进行生产和生活,另一方面可以作为自主实体进入社会生活。如果CASA在最初被提出时,普通大众认为是“天方夜谭”,那么如今CASA所蕴含的人机社会参与的平等性已经契合当前机器进行社会参与的现实场景。在这一视角下,机器(包括机器、机器人、智能技术、计算机等)作为社会行动者进行人机交互,人类也会以社会性方式对待机器,赋予机器与人一样的性格特征、刻板印象和规范规则,并作出判断和推论。现实中,具身智能机器正在被社会化建构,社会交往关系也在面临解构,社会参与主体需要被重新界定或拓展。“以人为中心”的传统人机交互思维难以解释当前的人机交互现实,这种颠覆性的结构性变革需要重新构建人机共生的交互规范。1999年上映的电影《机器管家》曾带给我们人工智能技术的震撼,也使我们产生法律和伦理深思:世界怎么看待人类?只有拥有了人的所有生理特征包括死亡,才可以被认定为人吗?当机器拥有人类的思考能力,拥有人类的身体器官,甚至拥有人类的情感时,世界和人类又该如何看待机器?具身智能的类人表现与社会参与行为从根本上改变了人类对于机器的定义,机器开始逐渐脱离作为工具的定位,而是可以作为“朋友”“伙伴”“私人助理”等社会意义上的人类角色和工作岗位,甚至当人类的“工具属性”(如体力劳动权利、智力创造权利)被机器所替代,那么人在这些机器作业领域是否还具有社会参与主体的地位以及对应的法律主体资格?这样的人机交互生态必然颠覆传统的人机交互关系。据此,具身智能的新型特点和治理需求给传统CASA理论带来了适用上的挑战。


(二)具身智能时代CASA理论的革新

囿于时代的局限性,CASA理论内涵也应作出与时俱进的调整以适应具身智能体的技术原理与行为特征。CASA理论主要指向机器的行为意义,忽视了机器的情绪意义和人格价值。反映在具身智能体的法律定性上,CASA的理念革新应映射和贯穿于具身智能机器的人格价值与行为意义两个维度。

1.人格意义下人形机器人的拟人化




机器人社交属性的特点在于具备传递情感、促进和形成社交关系、展示个性、运用自然的沟通线索并与人类开展社交互动的可能性。目前,大型语言模型已经能够支持精细的情绪识别和细腻的情绪回应,给人机情感交互带来了质的提升,用户通过人机交流可以获得一定的情感慰藉。情感上的高级拟人特性是人机关系等同说的根本依据,拟人特性即机器模仿人类(思维模式、行为举止),其本质是为了服务人类的情感诉求。现实中,出于情感需求与社交焦虑,AI机器、数字虚拟人等已经成为现代人的心灵寄托。随着具身智能的情感认知层次、情绪反馈水平、具身性和人格化的不断强化,人类逐渐对虚拟数字人、社交机器人、高仿人机器人等智能体产生了情感上的依恋。这不仅源自人类原始的情感交流渴望和两性关系需求,也涉及现实情感空缺的情感补偿。与此同时,随着人与机器的交互程度愈加紧密,人类也逐渐向智能机器靠拢,最终在微粒社会中只能借助机器解释自己。在这个层面上,当机器人作为人类的伙伴或朋友,或许将会有越来越多的人对机器人产生依赖,甚至也许会与机器人谈情说爱,步入“婚姻”殿堂,组成“新式家庭”。在这种关系中,人类基本上承认了智能机器人权责统一的主体地位,人与智能机器人的关系是一种地位平等、相互协作、共存共荣的主体际关系。当然,这种关系能否成立的关键在于人类能否加快自身的进化,与智能机器人共同进步,不断自我提升。目前,在技术可行性上,机器人已经能够感知人类情感变化或外部环境,其功能源于“类似内分泌系统的多层神经网络”,因此人与机器可以实现情感维度的同步与同频。据此,机器的情绪交互机制承载了自然人的人格尊严、人格价值以及人格权益内容。人格权是民事主体对其特定的人格利益享有的权利,关系到个人的人格尊严。民法典第990条规定,自然人享有基于人身自由、人格尊严产生的人格权益。人类情感关乎人类尊严,在这个维度上,人格权益的保护承担一定的道德归责功能,因此人格可以被道德属性所评价,而道德属性无非就是情感或情感倾向,由此,机器的高级情感交互功能具备了一定的道德属性。在道德情感主义理论下,评价性属性不是引起(Cause)我们反应的倾向,而是值得我们作出反应的属性。反应依赖版本的感性理论等式为:X是E当且仅当,且因为R是对X的适当或合适的反应/有足够的理由用R响应X,在这一等式下审视人与机器的情感交互以及机器对应的人格属性,机器的人格属性(E)对人机情感交互事实(X)的依据和支撑是机器的具身性和社交功能(R),对于人与机器人来说,R(具身性和社交价值)是唯一的。这是因为,在人机情感交互原理上,一方面,机器的具身性使得人类向机器人投射情绪、愉悦感、痛苦感和关怀感;另一方面,具备社交属性的机器人能够感知人类情感变化或外部环境,使得人类产生与机器建立情感关系的欲望。由此,基于人机情感认同的对等性,在具身智能与人类个体生活紧密交互的场景下,在一定程度上,满足与容纳人类情感寄托的人形机器人具备自然人主体的人格价值。此外,实验证明,人类判断他人是否具有道德信任和责任感,很大程度上是由情感状态(Affective States)和代理(Agency)两个主要因素决定的。因此,当具身智能符合上述两个要素时,也相应负载了人类社会中遵守道德的标准和履行责任的能力,而落实责任义务的前提则是具有主体属性。

2.行为意义下人形机器人的社会化




人形机器人为人工智能体提供了“身体”,使得AI智慧能够在实际操作中得以体现,这也是人形机器人与只能在数字世界输出的语言模型应用的根本区分。海德格尔认为,意识和意向性无法脱离人的本质而进行自由维度的活动。然而,具身化的人形机器人可以通过其类人身体硬件进行外部身体活动,其所具有的意识和意向,无论是指令型的还是自主型的,均可以通过物理的行为或动作得到实现。从社会参与维度来看,在人机交互中,具身智能也在进行着其社会化的进程,具体表现为以下两个方面:第一,社会规则在不断对人形机器人进行潜移默化的影响。基于人类反馈强化学习的训练方法,在“以人为中心”的技术设置理念下,服务于人类的智能机器被灌输人类社会的规则,将人类的社会规则内化为其行动指南,机器遵循人类社会的规范规则体系进行信息接收与处理,进而作出决定并实施行动。人形机器人物理输出的外在表现为类人的语言、表情、行为和动作,那么,从事上述行为和动作的过程则是具身机器的“社会化”过程。相较于人的行为规范思路,对于人形机器人行为的社会化认知,一个相反的逻辑是,智能机器人是社会规则的规范对象,进而是社会活动的参与者。例如,当人类或智能系统向机器下达指令时,如果指令所意向的行为本身符合社会规范(道德、法律等),那么在机器准确理解与恰当落实行为的情况下,机器所代理的人类行为理应具有其社会规范意义。第二,人与人形机器人在情绪和情感上存在同化与同频的倾向与意向。同样地,在“以人为中心”

的人机交互理念下,本质上也是技术设计者对机器的拟人化设置。具身智能出于对人类的迎合和配合所做出的行为、动作和表情,也会反过来导致人类认为机器是同真实自然人一样的社会行动者,进而在心理上建立同类的归属感。出于保护开发者的绝对主导地位,很多科学家对反抗人类命令的智能技术的研究开发往往浅尝辄止,因此机器人的行为表现尚不完全“类人”。尽管如此,机器人行为的社会意义或社会评价的必要性源于这样的现实,即人类在与机器人打交道时表现出更大的社会责任感并产生不同的促进因素。在考察用户是否会将智能机器人视为社会行动者时要求存在“社会在场感”,主要包括三个考察指标:感知真实性、感知心理亲密性和准社会交互,前两个因素较易被理解,当前的人机交互即可达到该效果。而对于“准社会交互”,则是指受众对大众传媒中的人物当作真实人物作出反应,当前现实场景中发生的人机交互状况在趋向于该标准,即当工具功能和聊天功能融合、叠加时,人和智能机器便可以共构一种新型的准社会交往场景。从传播学角度来说,社交媒体正在从由人主导向“人+社交机器人”的共生状态发展。社交机器人可通过各种计算机脚本与程序学习、模仿人类生物特征,自主创建和发布内容,身份存在已经从传播中介发展为传播主体,成为社交媒体中重要的社会行动者。类比以上场景,这也是人形机器人与人在情感交互上可以达到的水平。得益于情感计算技术赋予的情感劳动能力,智能机器人能够精准地识别用户的情感需求,并提供相应的回应和支持,为用户提供精神支持和情感陪伴,为袒露心声的个体带来情绪价值,促进用户与机器人之间建立深厚的情感联系。事实上,智能机器成为数字时代纾解情感失调的代偿性工具。综上所述,基于对行为失范现象的理性观察和深刻了解,无论是机器人的行为输出对社会规则的遵循,还是人类目前在社交领域对于机器人(情感)语言输出的认同和互动,都为人形机器人在行为意义上成为社会参与者和行动者提供了现实支撑。


(三)CASA框架下技术—工程维度向社会规范维度的映射

诚然,强人工智能时代尚未真正到来,全自主智能体仍处于概念阶段。目前的人工智能仍采用离线认知的方式,人类与机器具身交流的愿望还未实现。但是,人形机器人的出现与发展预示了未来硅基生命的社会化和主体性的萌芽,“恐怖谷效应”开始笼罩于人类社会。一方面,人形机器人能够理解和解释人类的意图和需求,以及通过有效的沟通和合作机制与人类进行交互;另一方面,人类应当向人形机器人投射正向的情绪、理性的认知、正确的价值等,警惕向机器释放人性本能中的恶,正如同以往“互联网不是法外之地”的法治理念一样,“人工智能技术及应用也不是法外之地”。回想互联网兴起之初,由于网络法治体系尚不健全,网络空间中信息内容良莠不齐,一些在现实中被社会否定的错误价值观转移到网络中并被传播,对历史虚无主义、娱乐至死倾向、网络暴力、暴力色情内容、低俗虚假信息等的管控存在不足。不少网民把网络当成法外之地,随心所欲地发布不负责任、不符合主流价值观的言论。因此,必须借鉴互联网治理之初的经验和教训,对于当前人工智能应用中的不良倾向须提前遏制和预防,人机交互则是下一个非常重要的价值观战场。既然机器的智能水平和行为能力可能对社会秩序带来扰乱或影响,那么也应当对应合理且可行的法律评价。由此来看,尤其是在通用人工智能时代,在人机交互中,人应当是理智且克制的,不应在人与机器的交互中放任自己的主观恶意、试图做出违法悖德之事并以机器所为为由来规避法律责任。对此,应当恰当界定群体智能中人和机器各自的法律地位和功能定位,即在厘清人工智能治理导向的基础上合理界定机器的自主性与确立人的主导性。

三、CASA理论范式下具身智能的规范治理路径:面向现在与展望未来

目前,人形机器人尚未达到人类预期的高度智能化与自主性水平。未来,当具身智能取得关键性进展后,则可能突破人机边界,引发机器主体性、人机共生伦理的一系列探讨,给既有的法律体系和伦理规则带来颠覆性挑战。由此,人形机器人的规范治理路径应当是分阶段的,一方面要在现有规范体系下拓展法律适用以解决当前的问题,另一方面理论研究和制度构建应当未雨绸缪,为未来可能到来的具身智能时代作好充分的准备。


(一)当前规范体系:人形机器人法律属性的维度区分与治理思路

人形机器人的真实情感表达,从外在上模糊了人机的主体界限,反映在规范层面上即人形机器人的法律属性究竟是否已经超越了法律客体的定位,是否一定程度上可作为法律主体被审视和被规范。在CASA理论范式下,人形机器人作为社会行动者,无论是独立行动,还是与人类的交互,均有其社会影响和意义,应当在规范层面有所体现。

1.行为代理视角下人形机器人主体地位的不可行性




强弱人工智能的区分在于是否具有意向性,是否具有类脑的意识,是否能够自主进行决策。相较于其他人工智能机器或应用,基于人工智能体和脑机接口的人形机器人在“意思表示”能力上往前更进了一步,对传统意思表示理论也有了一定的突破和超越。人类在感知环境后,大脑会对感知到的信息进行整合、分析和推理,进而作出决策,然后,人类利用神经系统控制自己的身体,做出适应环境或创造性的行动。对比来看,当人工智能体拥有类似大脑的结构,具备知识、记忆、推理、规划和概括能力以及多模态感知能力时,人形机器人也有望拥有类似人类的各种行动来应对周围环境。在智能体的构建过程中,行动模块接收大脑模块发送的行动序列,并执行与环境互动的行动。伴随着人工智能体的迭代升级,包括人形机器人在内的载体和功能拓展正在使人工智能从形式化、工具化领域走向意向性领域。事实上,如同法人或其他组织的法律行为根本上还是由自然人来作出一样,智能机器人可作出“独立”意思表示也不必然要求其脱离人类的控制,在当前的学理依据和规范体系下,智能机器人具有法律主体定位仍然存在合理空间。此外,有研究发现,对于人工智能行为主体的心智感知将影响个体对人工智能的责任归因。对人工智能的心智水平评价越高,则越有可能将事件结果归因于事件中的人工智能技术。因此,当驱动人形机器人行为的决策不掺杂人类意愿或影响时,事实的责任主体应当为人形机器人。对此,存在两个问题:一是人形机器人是否可以承担责任?二是如果机器人不可现实承担责任,在当前的法学理论和规范体系下,应当由哪些主体承担责任?2016年,欧洲议会向欧盟委员会提出的报告中曾建议:“确保至少最复杂的自动化机器人可以被确认享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”这份报告虽然被不少研究者引经据典作为支持赋予机器法律人格的论证依据,但其并没有就该法律主体设计相应的责任能力规则。就目前的人工智能发展阶段而言,法律不可能对机器人本身的行为产生现实影响,机器也不可能承担其行为的法律后果,机器终究无法对人类负责,由此也决定了机器不可能具备独立的法律主体定位。例如,不可能因为法律对机器人确立了过失赔偿责任制,就能提升其在行为时的“注意水平”;也不可能对犯罪的机器人作出刑事处罚,刑事处罚手段的惩罚性和威慑效应如限制人身自由、剥夺财产等对机器人来说无现实作用力。此外,机器无法独立承担行为的后果也会影响责任的分配效率。如果机器没有承担责任的能力(独立的财产等),那么不论是侵权或是违约带来的赔偿责任等,其实都需要链接到其他主体上来完成最终的责任分配。例如,对于AI决策的刑事归责,AI的可解释性除了需要具有行为上的违法性,还需要体现出自由意志或自主决定的主观状态。由此可见,在当前的规范体系下,一方面,机器不具备承担法律责任的经济基础和自由需求;另一方面,不承担法律责任所对应的法律处罚手段对机器也无法发挥实际作用。由此,目前的规范体系难以解决机器作为主体承担法律责任的问题,尤其是当机器行为对国家、社会、公民、组织等主体进行现实侵害、造成实际损害后果时,对此负责或承担救济义务的主体还是应当回归到当前规范体系下的责任主体,包括国家、组织、个体等。

当前,人工智能的法治规范路径基本遵循包容审慎监管、分层治理、敏捷治理和深度治理的基本思路,对于人工智能产业的具体治理也区分基础模型层和下游服务层的治理面向。基于上述两种治理面向,对于人形机器人行为的法律责任承担问题,当前规范体系下存在两种救济路径:其一,责任承担方是对机器人行为机制产生直接影响的技术程序设计者。法律应通过对设计者这类主体施加影响,从而间接对机器人行为产生作用。对此,主要通过人工智能的可解释性解决人工智能相关的责任承担问题。对于传统实体产业而言,可解释的人工智能成为界定人机责任的关键。不具有可解释性的人工智能因无法识别实体间的义务和责任而难以被问责。“责”的核心即预防和承担法律责任,不具有可解释性的人工智能自然无法实现法律责任的预防与自我承担。因此,对于人形机器人的行为代理问题,在基础模型层阶段,当前的规范体系应当强化人工智能的事前解释,重点围绕系统的运行逻辑和基本功能;在下游服务层阶段,当前的规范体系应当侧重人工智能的事后解释,重点围绕人工智能系统作出决策的理由依据、运行过程作出解释说明。其二,责任承担方是人形机器人的使用者或管理者,对于这一归责思路,当前规范体系下存在两种进路:一是从饲养动物管理制度出发,该思路基于人形机器人作为法律客体的定位。考虑到烈犬伤人的事件屡屡发生,民法典针对饲养动物所产生的侵权责任单独设立了第九章“饲养动物损害责任”。在现实生活中,我们也经常看到宠物可以听懂人话并按照人的指示做出动作,甚至某些品种或者受过专门训练的犬类可达六岁儿童的智商水平。那么,如果将人形机器人定位为“动物”,使用者对于机器侵权行为根据民法典的相关规定承担无过错责任或严格责任。对于该规范思路,最核心的考量是使用者对于人形机器人是否应当承担管理义务。二是从监护人制度的规范思路出发,该思路基于人形机器人应当具备法律主体的地位。如果将人形机器人视为需要看护的“未成年人”,即“无行为能力人”或“限制行为能力人”,管理者或使用者对于高度智能化的人形机器人具有监护义务,则具备完全行为能力的特定或专属的某一人形机器人的使用者或管理者,应当对该特定人形机器人的侵权行为承担责任。监护人责任是一种具体的替代责任,我国立法对监护人责任采取的是无过错责任原则,监护人尽到监护责任仅是监护人责任的

减责事由。对于该规范思路,最核心的顾虑则是使用者对于人形机器人是否应当承担看护义务。总结来看,上述两种规范思路的区分根源在于对人形机器人(具身智能)的主体或客体定位,对于主体定位,法律对人形机器人的规范定位是保护;而对于客体定位,法律对于人形机器人的规范定位则是管理或监管。当然,是否存在对以上两种思路的折中路径,也是法律如何面对具身智能的一个思考方向。

2.情感代理视角下人形机器人主体地位的现实性




相较于其他人工智能技术及应用,人形机器人的特殊之处不在于其工具性,而在于其情感的输入与反馈,随着人形机器人即将广泛进入个人生活领域,以及伴随脑机接口、虚拟现实的实现与应用,机器人是否具有人格的典型法律争议面临给出恰当答案的迫切性。法律主体是指活跃在法律之中,享有权利、负有义务和承担责任的“人”,基于此,法律主体资格大致分为权利能力、行为能力、义务能力三类要素。其中,权利能力的资格不以具备意志为前提,但要以法律的独立尊重为前提;行为能力与义务能力则要以具备意志(意愿或自由意志)作为前提。现代法人制度通过“位格加等”把人为设置的团体组织提升到具有一定法律位格的地位,除了自然人,当前法律体系下的法律主体还包括法人与其他组织,这是源于物种位阶的规范主义立场。法律标准与科技认知并不一致,在技术维度上,人形机器人是对“智人”概念的模仿和拟制,然而,人形机器人“长得像人”或者“表现得像人”并不是其获得法律主体地位的决定因素。在法律意义上,应当围绕上述法律主体的必备要素对人形机器人的主体资格作出审视。必须承认这样一个现实,机器人作为产业协同与价值共创的主体性地位逐步强化。作为一个辅助者、协作方甚至是主导者,机器在人机交互协作的过程中主体性地位逐步凸显,人形机器人更是进一步深化了人机共生、虚实互融、以虚促实的人机交互生态。相较于其他智能机器,人形机器人的关键特性在于综合能力,其中核心是大脑、小脑和肢体。大脑负责智能,小脑负责运动控制,肢体则负责完成具体任务。如果技术可以实现人形机器人具备极强的思考能力、判断能力和身体控制能力,那么就可能出现完全自主的人形机器人,而对于完全自主的人形机器人,即具身智能,其法律主体性是非常明显的。当前,法学理论界反对人工智能体具备主体地位的原因主要集中于两点:一是机器人不能独立作出意思表示,其意思表示是使用者意志的体现;二是机器人不具备独立承担法律责任的能力,“负责任的AI”的最终责任承担方是AI机器人的设计者、制造商以及使用者,相关法律规范也是针对上述主体的行为规范。然而,人类情感的载体存在人格特征,人形机器人等“虚拟人”会面临姓名权、名誉权、隐私、个人信息等人格权益保护问题,由此存在法律保护的必要性。

元宇宙技术的应用推动了现实世界与虚拟世界的互动,加快了数字经济的发展,并以其独有的新型交互式数字社会构建技术成为新的网络发展方向。据此,笔者认为,在人机共生共融的时代,具身智能机器作为人类情感的代理人,机器与人的情感交互决定了机器的感情理应被法律尊重。权利能力的资格不以具备意志为前提,但要以法律的独立尊重为前提。例如,在元宇宙强奸案件中,立案的警官认为,“由于VR游戏的体验是非常身临其境的,因此她(受害者)的心理创伤和现实中的强奸受害者是完全一样的”。通过深度学习优化人形机器人的视觉和听觉系统,未来的人形机器人将拥有更加先进的感知能力。目前,法学理论界也在探讨如何保护虚拟人的主观感受,如何尊重社交网络账号的情感价值,也由此展开了元宇宙中强奸行为是否成立、社交网络账号是否具备可继承性的理论探讨,上述研究内在的人格权益诉求与底层的规范逻辑都是如出一辙,即人类如何面临网络与信息化时代中个体情感的电子化延展及其法律保护进路,人形机器人的人格属性问题亦是如此。此外,借鉴对社交网络账号的一身专属性探讨视角,人形机器人同样存在人身专属性问题,随着人形机器人在日常生活中的普及,家庭服务机器人可能会改变自然人的生活方式,在人机交互中也构建了人机的情感链接。例如,在老年护理领域,人形机器人可以为老人提供日常生活照顾、健康监测、陪伴交流等服务,还可以通过社交互动来减轻老年人的孤独感,通过语音交流、面部表情识别和模仿人类行为,为老年人提供情感支持和社交互动,自然人个体的唯一性也决定了与之交互的机器人的唯一性(生活服务和情感载体的专属性),由此人形机器人的数据存储和交互机制也包含了特定的人格属性。对此,应当根据人形机器人与用户所形成的信任交互机制,尊重人形机器人所承载的专属性人格权益。笔者认为,如同胎儿、动物、自然环境等新兴主体的特定权益在某些特定情形下受到了法律的保护和独立尊重,人形机器人应当具备一定的权利能力,在某些特定情景下可被法律作为主体进行保护。对此,在当前的规范框架下,一方面,从保护人类情感和保障生活便利的角度,制度建设需要强化数据处理规范以防范数据侵占风险,同时也要保护特定个体独有的人机交互关系;另一方面,从防范人类情感被机器控制和异化的角度,制度建设需要提升算法透明度,以降低人类对智能机器的情感依恋。


(二)未来规范路径:独立审视人机交互关系与重视构建人机信任

推动人工智能产业应用的正向外部性是当前人工智能规范治理的基本思路和指导思想,在法律建设层面,透明度、公平性、可解释性、隐私保护和问责制成为负责任的人机交互系统设计的重要原则。

1.规范模式:从主客体二分体系到人机交互关系体系




正如欧盟议会在2020年发布的《人工智能与民事责任报告》中提到的,任何规范的适用范围都需要精确地确定,才能达到最低限度的法律确定性。总结来看,在人机交互应用中,无论是应用于生活还是工作,人形机器人可能存在姓名权、名誉权、隐私权、个人信息权、肖像权等人格权益的法律保护需求;当人形机器人被应用于工作领域,则可能面临知识产权、劳动劳务、商业秘密等争议纠纷。对于人形机器人在工作领域中的相关纠纷或争议,尚可以在当前劳动法、著作权法、反不正当竞争法等规范体系下解决,但是关于人形机器人的人格权益问题则突破了当前规范体系下的人格权保护范畴。AI主客体之争也主要聚焦于AI是否具有法律人格,关于是否赋予智能机器人法律人格的争议,本质上为“人类中心主义”和“去人类中心主义”的伦理之争。上文已经论证,当前的人机交互关系已经事实上逐步突破“以人为中心”的理念范畴,此外,在HEC框架下,人的智慧、情感、外围能力等是在被机器增强的,在工具主义观下人机共生首先追求的是人类和机器在处理同一项任务时的共同协调和互相协作,以此最大化人机合作的经济效益。事实上,人与机器的相互作用才最终呈现出具体的社会现象,而不是机器的单独作为导致的。法律规范需要应对的是具体的社会现象或特定的工作任务,而不是单纯对机器法律属性的定性。由此,针对人-人形机器人交互中的行动主体,我们应当放下人机主客之分的判断思维,在人机共生视域下审视人机关系的相互建构,并将人机共生关系作为法律制度的规范对象,以此解决工具主义观下责任归责的困局。

人工智能技术及应用由算力、算法、数据三要素支撑,在技术组成架构上分别对应物理层、逻辑层(或软件层)和内容层。尽管人-人形机器人之间的交互需要数据、算力、算法作为支撑,但人机交互本身并不属于数据、算力或算法。当前,我国针对上述三要素分别制定了对应的法律规范。例如,针对算力的网络安全法和《关键信息基础设施安全保护条例》;针对算法的《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》和《生成式人工智能服务管理暂行办法》;针对数据和信息内容的民法典人格权编相关条款、个人信息保护法、数据安全法和《网络信息内容生态治理规

定》等。其中,只有《网络信息内容生态治理规定》超越了“主体—客体”二分的规制思维,而是从整体性的网络生态与技术架构的角度入手,对人机交互界面的设计规范提出了要求。对于下游AI服务提供者的规范治理,我国已经积累了丰富的监管经验,包括个人信息保护、算法备案、训练数据合法性要求等。但是,对于人机交互中的法律内涵与法律关系问题,尚未有清晰认知和规范意识,亦无法与技术规则和伦理规约形成协同。人—机器共生强调以系统的思维看待人机关系,主张人与机器行动者作为一个整体系统朝着共同目标优化进步。在一个互惠的合作整体中,机器行动者(包括计算机、软件、机器人、智能手机、XR设备等)能够不断学习,人类的能力在机器的帮助下得到改进和扩展。当前,针对人工智能技术及应用的规范体系尚未涉及人机交互关系以及对人机关系的整体性考察,仅是在形式上基于算法透明度原则使人参与到算法自动化决策之中,然而,根据普通自然人的数字水平并无客观的技术能力干涉算法最初的设计和对应功能的设置,即使单单是理解算法也是不现实的,也就意味着,法律并不可支持人对人机交互关系的现实控制能力。对此,一方面,针对面向人类生活的人形机器人,规范治理应关注人机交互关系,而非局限于机器本身可能产生的风险;另一方面,人机交互关系的治理目标应当以结果为导向,而不是把普通用户牵涉进技术设置的决策之中。

2.人机信任:从“可理解的AI”迈向“可信任的AI”




人类难以理解自动化机器已经成为限制人机协同控制安全实施及效能发挥的瓶颈之一,人机信任是发展人机交互有效关系的关键因素,人缺乏客观评估自动化能力的缺陷只能通过信任来弥补,人机信任在人机交互中的重要性得到了广泛认可。“自动化信任”,即人对自动化的信任,已经被确定为调节人与自动化(机器)之间关系的关键因素,其作用方式与人类之间的信任相似。人机交互的相关法律伦理风险主要发生于人机交互场景中,在人机交互视野下,相对于可理解的AI,我们理应提倡的是“可信任的机器设计与人机交互”。当前,智能化社会中的信任关系正从人际关系拓展到人机关系,相较于人际关系,人机交互维度上人类的信任对象则是从算法再到机器。相较于算法透明度原则所提倡的减少算法错误和歧视、强化算法决策问责等治理目标,人对机器的信任的主要目标在于人机之间形成高效的协同工作机制。人机信任有两个维度:一是信任机器的专业能力,例如机器人生成内容的准确性;二是信任机器的移情能力,例如隐私保护、对人类情感作出合适反馈等。在机器向人类提供服务的过程中,人类是机器信息处理的来源者。基于人形机器人与人类之间的全面互动特点,高频率的人机交互场景使得人类的隐私保护忧虑拓展到身体、心理、情绪和社会隐私等全方位的暴露风险,人与人形机器人之间的冲突矛盾仍然回归到人对便捷高效服务的需求与隐私空间、隐私安全顾虑之间的权衡。此外,技术本身的不确定性所带来的黑箱效应引发人类对机器的恐惧感知,人对机器存在天然的不信任,天然的不信任决定了人机之间的权力关系争夺,而由此引发的人机权力重构也衍生出新的信任危机。如何保证机器系统的公平性和无歧视性,成为增强人机交互安全性和可信性的关键。

人机协同工作主要遵循两种交互范式:决策支持和监督控制。决策支持,是指智能系统为操作者提供了可能的选择;监督控制,则是指操作者监督机器的运行,并在其失效或出现意外事件时及时接管控制权进行适当干预。在这两种交互范式中,很大程度上操作者是基于他们对机器的意图及行为的理解作出正确选择。对此,规范层面上应当从算法透明度角度更进一步,不再只针对算法本身,还应明确具体的主体面向,提高透明度规则的实践性和可操作性。对人工智能系统的解释方式可分为事前解释和事后解释。前者以解释系统本身为中心,即向开发者以外的利益相关者提供关于系统一般属性和特征的信息,包括系统的运行逻辑、一般功能等;后者则聚焦于对具体决策起着重要作用的属性和特征,旨在向利益相关者就人工智能系统作出决策的理由依据、运行过程作出解释说明。两者在功能上也有所区别,事前解释致力于建立信任,即第一时间向用户表明其精心设计并为其服务的目的,以同用户建立信任并激励用户对人工智能系统的使用;事后解释则有助于维持信任,即通过解释特定的算法结果及其作出依据,以提高系统的透明性,进而维持用户对人工智能系统的信任。然而,算法模型复杂度越低,透明度越高,可解释性相对较好,反之透明度越低,可解释性相对较差。对于人形机器人来说,其智能系统的高度复杂性使得其事前解释难以有实际效果,因此应当将可解释场景侧重于事后解释,即技术设计者和开发者应当对于人形机器人的预期表现可能性作出解释,并在技术上强化人机交互场景中人的决策权和控制权。一旦发生可能违背伦理的行为或表现时,使用者可以控制机器进一步的失范行为或者其他利益相关方有权介入对机器的中断控制。


(三)法律规范与伦理规约的相互补充

通过法律确定人对人机交互的控制条件是异常复杂的,一是普通自然人的技术认知水平难以理解复杂的信息处理系统,尤其是在高度自动化的实践场景中;二是如果技术创设一味遵循人类所倾向的价值体系(如人的尊严和自主性),则可能违背最底层的技术发展逻辑,进而阻碍技术的革新。因此,仅通过法律手段规范人机交互关系是不充足的。借鉴人机传播范式的革新进路,在Web3.0与去中心化自治组织形式的结合下,公众在社会参与中逐步从“赋能”到“参与”、再到“赋权”。去中心化自治的管理方式拓宽了社会缓冲区间,使得社会组织中的个体实现自我导向的进化和身心整合。关于人机交互关系,当前的法治规范思路尚停留在对人赋能的阶段,进一步对人或机器的赋权尚不现实,因此,人工智能的规范治理应重视可以促使大众参与的AI伦理规约的作用和影响。考虑到一系列的连锁性法律后果,即使当前法律体系下的法律主体范畴难以纳入人形机器人等具身智能体,但是,伦理规约则可在某种程度上将具身智能机器人视为道德义务主体,风险治理也遵循以结果为导向的原则。可以看到,一方面,AI伦理规约是人工智能法治进程的缓冲地带和过渡阶段,在具身智能法治治理条件尚不成熟时,可将伦理规约作为人形机器人开发的基本行为规范,并由相关的伦理委员会现实执行。对此,可借鉴医疗领域中的医学伦理委员会工作制度,当医疗手段涉及临终关怀、临床试验、辅助生殖、器官移植等可能冲击社会伦理认知的医疗场景,应当在正当程序下对是否应采取医疗手段作出决策。类似地,对人形机器人的事前解释应结合伦理审查,当其开发、使用和交互可能发生违背社会伦理的问题时,应事前避免或做好风险处理预案。另一方面,AI伦理规约很大程度上可视为人工智能商业领域的“行业规范”,具身智能的技术开发者与应用使用者,应当预估具身智能体的伦理规范问题。当具身智能体的下游应用和交互存在现实的伦理违背场景时,追责应回溯至基础模型层,按照“违反伦理规约—反思技术设计是否存在过失—适用行业规范—判断技术设计者和开发者承担责任”的治理逻辑进行处理,这就要求服务提供商开发初期对人形机器人的预期应用负有伦理检视义务。

结语

工信部《人形机器人创新发展指导意见》指出:“人形机器人集成人工智能、高端制造、新材料等先进技术,有望成为继计算机、智能手机、新能源汽车后的颠覆性产品,将深刻变革人类生产生活方式,重塑全球产业发展格局。”回顾过往,人形机器人的商业化脚步曾几度突围、几度停滞,生成式AI大模型突飞猛进的发展加速了人形机器人的进化。当前,从政策、技术、商业落地三个角度来看,人形机器人正在大张旗鼓进入商业化的前夜。然而,相对于其他人工智能技术及应用,人形机器人的具身性和拟人特征导致该领域面临着更为复杂的法律和伦理方面的挑战,需要不断演进和完善法律框架和伦理指导原则。在人形机器人即将普遍走进人类社会的今天,无论是法律建设还是伦理观念,均存在一定的滞后性。对此,一方面,立法的构建与完善应结合技术治理的理念和规则,与之保持同步并形成协同,从而实现技术工程领域与社会规范领域的理念共识及规则互通;另一方面,人形机器人的规范治理更应贯穿行业治理和社会治理的基本视野,必须重视运用伦理规约作为针对人形机器人的治理手段,“建立健全生成式人工智能领域科技伦理规范”,进而弥补法律治理手段的不足之处。

往期精彩回顾

王苑|具身智能体的隐私风险及法律应对——以“人形机器人”为例的展开
谢琳|人形机器人自主侵权的责任认定
沈伟伟|人形机器人事故责任制度的困境及应对
王华伟|论人形机器人治理中的刑法归责
李晟|人形机器人的法律治理基本架构
张欣|论人工智能体的模块化治理


上海市法学会官网http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存