现在位置:首页> 资讯八卦 > 科技资讯 > 智能机器人民法地位问题的文献综述

智能机器人民法地位问题的文献综述三篇

  随着人工智能技术的发展,传统民法人物二分的体系受到挑战,学界对是否赋予人工智能民事法律主体地位存在较大争议。第一文档网为大家带来的智能机器人民法地位问题的文献综述三篇,希望能帮助到大家!

  智能机器人民法地位问题的文献综述1

  随着举世瞩目的人机大战在2016年3月15日落下帷幕,围棋人机大战中人工智能机器人以4比1的成绩战胜围棋九段棋手,揭开了人们对人工智能讨论和联想的新.国内的一部分科技公司已经买下一些机器人公司,准备抢占人工智能的市场先机.在一些企业中已经开始大规模使用机器人代替工人.人工智能的发展必然对人们的社会生活产生深刻的影响,随之而来的是对与社会生活高度相关的民法制度的冲击.

  一、历史上的人机大战

  第一回合,发生在第一次工业革命.第一次工业革命的标志产物是珍妮纺纱机,它的产生极大提高了工作效率.一位名叫路德的纺织工人,认为是珍妮纺纱机夺走了他们的工作,带头捣毁了工厂的机器.事件的态势愈演愈烈,最后是英国的政府派出军队进行镇压才得以控制,这就是“路德事件”.

  第二回合,发生在第三次工业革命.手机产生于第三次工业革命,它的出现使传呼员的职业彻底消失,拉近了人们之间的距离,提高了工作效率与生活质量.机器又一次战胜了人类.

  第三回合,发生在第四次工业革命.智能机械手的出现可以大幅度降低产品的不良率,设备的产能效率大幅度得以提高,其工作效率大大的战胜了传统的车间工人.这也使得高危险系数以及高人工成本的工种消失.

  第四回合,就是发生在不久之前的阿尔法围棋对战围棋九段选手,最终人类以1比4的成绩败北人工智能.

  虽然,最智能的机器也需要“老师”的指引,而人类就是机器的老师,但是不容否认的是,在一些领域,人工智能和机器人技术已经代替了人类,并震颤着人类的社会生活.

  二、人工智能技术对人类的影

  人工智能产业是近三十年涌现出的高新产业.早在“七·五”时期政府就开始了对这一高新技术产业的攻关研究,并取得了有目共睹的成果,一批人工智能产品与人工智能应用工程层出不穷.[1]近些年,人工智能技术发展迅速,其应用也愈来愈广,从之前传统的工业领域扩展到军事、、医疗和服务等众多领域.

  2012年由某公司的实验室研发并推出了无人驾驶汽车,这台汽车不需要驾驶者就可以进行启动、行驶以及停止.这些车辆使用照相机、雷达感应器和激光测距机来“看”其他的交通状况,并且使用详细地图来为前方的道路导航.该公司表示,这些车辆比有人驾驶的车更安全,因为它们能更迅速、更有效地作出反应.这种人工智能汽车的出现,使得汽车的概念以及人们出行方式发生了极大的转变,同时也体现着人工智能技术和机器人技术开始真正融入到人类现实生活中.人类可以预测到,下一代智能型机器人将更加广泛的融入到社会运作中.然而这一高新技术的应用,同时也使得如何避免人工智能机器人侵权或者被侵权以及如何规范机器人的制造、使用等法律问题更加突出.

  在医疗领域,人工智能机器人在外科手术中得以应用.美国曾于2000年上市一款医疗外科手术机器人.据统计,至今为止总共2500部机器人被投入市场.这种人工智能机器人的使用,一方面对于提高医疗水平起到了积极的作用,但是也出现了人工智能机器人侵权的事件发生.自2007年至2014年,美国政府就收到了两百多件关于该人工智能机器人手术时发生烧伤或割伤以及感染等侵权事故报告,在这两百多件事故造成89名患者医治无效死亡.

  基于人工智能机器人在社会生活中产生的问题,一些国家如日本、韩国以及欧共体,已经开始着手制定规章或制度以确保社会稳定以及人工智能技术的可持续发展.日本公布了《下一代机器人安全问题指导方针(草案)》,用于调整人工智能技术的研发与应用.[2]欧洲共同体在2012年推出了欧盟第七框架计划项目,即机器人法研究,聚集了各个相关领域的专家学者,包括法学、哲学、仿生神经工学等专业,讨论并草拟机器人立法政策白皮书.韩国已经拟定了机器人法,专门规定了人与机器人的关系.

  除了对人工智能机器人的安全应用进行必要的法律规范以外,同时也应对与人工智能机器人的应用相关的法律,如民法制度进行一定程度上的变革.例如,法律该怎样认定人工智能机器人的法律地位,如若发生侵权事故时该怎样认定相应的法律责任以及适用怎样的归责原则等法律问题.若无人驾驶汽车发生交通事故该怎样认定事故责任.许多相关法律问题都随着人工智能机器人广泛而深入的进入人类社会生活而变得更加凸显,然而相关规章制度仍处于空白阶段.因此,变革相关的法律制度对于平衡人工智能技术与社会的稳定和谐具有重要的意义.

  三、人工智能技术与民法

  人工智能机器人在社会生活中的广泛应用,更加深刻的影响着人类文明,同时伴随而来的是大量法律问题逐渐涌现.

  2006年美国一个名叫《未来学家》的杂志曾这样报道:2016年至2020年,人工智能实体可能会当选为“国会议员”;2020年后,转基因技术加上机器人技术,将制造出“有机机器人”.虽然这些设想都尚未实现,但是在社会生活中人工智能技术是确确实实得以广泛应用的.许多人工智能机器人已经代替人类走向工作岗位,如迎宾机器人、送餐机器人,甚至在日本一款机器人可以向顾客提供推销手机、签订合同等服务.

  (一)人工智能技术与婚姻法律制度

  2016年在某电视台的明星喜剧真人秀中,某团队以一部讲述主人公用人工智能机器人做女朋友来应付父母的催婚,最后发现连主人公的父母都是人工智能机器人的喜剧作品参加比赛,其作品以夸张的手法描绘了人工智能技术对人类社会生活的巨大影响.但是不能说小品中的事情不会在现实生活中发生,英国人工智能学者戴维·莱维曾推测:人类将和机器人结婚,这一切大约会在2050年实现.

  人类与人工智能机器人的结婚能够得到法律的认可,就需要对我国民法制度中的婚姻法律规范进行调整,目前婚姻只能是自然人的行为,而人工智能机器人目前在法律上不是民事主体,但这并不能阻挡人类与人工智能机器人结婚的情况发生.因此,人工智能技术的发展会对婚姻法律制度造成一定程度上的冲击.

  (二)人工智能技术与侵权责任法律制度

  人工智能技术的发展赋予了机器人更加类似于人类行为的功能.在2004年的伊拉克战场上,美军仅仅使用了一架由人工智能机器人操作的军用飞机将一个连的兵力瞬间消灭.美国科学家在2006年曾宣称,新研发并投入军用的机器人能够自我检测损伤并独立思考出修复方法.如若这样的机器人太过于像人,而且拥有智慧,很有可能“造反”,对人类造成侵害.这就需要对侵权法律制度进行完善以维护社会稳定.

  早在1978年人工智能机器人侵权的事件事实上早已存在.在日本广岛一间工厂里,机器人正切割钢板,但突然转身将其背后正在休息的工人抓住并当做钢板进行切割,这是世界上第一起机器人侵权事件.[3]无独有偶,在1989年,全苏国际象棋象棋冠军对战早期的人工智能机器人,终以3比1的成绩打败机器人,但机器人恼羞成怒,在众目睽睽下向对手释放强电流,这位国际象棋大师最终并没用抢救过来.

  因此,随着人工智能技术的日益精湛,人类不得不考虑机器人侵权的归责原则、责任分配等一系列法律问题,更需要对侵权责任法律制度进行一定的调整以适应高科技时代的大背景.

  四、结语

  人工智能技术的发展对与人们联系紧密的民法制度提出了挑战.如果民法不能适应时代的要求,将无法使社会得以稳定运作.因此对相关的民事法律规范进行调整,适应人工智能技术的发展要求,已经是新世纪大势所趋。

  智能机器人民法地位问题的文献综述2

  一、人工智能技术的发展与民法的关系

  最近这些年来,人工智能突飞猛进,这些方面,大概最集中反映到了就是关于机器人的问题,我们现在看到很多涉及到高科技的会议,一些比较高级的会议,去报道的时候门口都会有一个机器人在那里,也会管一些事情,你问他什么会议议程他会告诉你,这是一种。

  再往后大家都知道有了沙特的索非亚,到了沙特以后给公民的资格。这一下子提出问题了,人工智能机器人到底是人还是物?就提出这个问题来,这是真正的机器人,它什么都给你讲,还有各种各样的表情和语言能力,如果大家都喜欢机器人,不喜欢真人的话,恐怕得立法,再怎么喜欢机器人也得要有一个真人,这些问题都会引起法律上的问题。最后发展到比较高级的这种,大家看到就是AlphaGo,现在已经看到了,所有的围棋高手谁也下不过它,机器人自我学习的功能,使它变得智能无比,将来会超过人类的智能。在这种情况下我们怎么对待它?

  大家也提到人工智能发展到更高级阶段的时候,会不会出现人类无法控制的时候?然后就提到杀人机器人,把杀人机器人做的跟蚊子一样,你只要给它一个指令,不把人杀掉不罢休,一旦出现这种情况,会不会带来人类灾难?这样的问题都涉及到法律的问题,就是怎么样进行规制。对于这样一个问题,人工智能发展下去,会不会出现人类无法控制的后果?很多人都在担心,但是也有人提出来,也可能这是一个伪命题,也可能它根本就不是一个问题。说人工智能再怎么样还是人工的问题,既然人能把它造出来就能够把它控制住。

  我们成立了一个未来法治研究院,曾经和北京理工大学的计算机系的教授搞过一次联席会议,大家一起来讨论这个问题,在人工智能发展上,北京理工大学的计算机学院是比较厉害的一个机构,是不是最前沿我不知道。他们现在能达到什么程度?他们的几百架无人机可以变换队形等等,人工智能他们正在研究过程当中。他们院长给我们讲课的过程当中提到一点,人工智能技术向前发展,也可能带来更多的好处,也可能带来危险。但是会不会有这样的时候?也不好说,也可能真的有问题,也可能是一个假的问题。比方说我们在科学技术发展的过程中,一直会出现这样的问题。当然有一个比较新的科学技术发生的时候,就会带来很多很多的忧虑,但是最后其实都没有发生太大的事情。

  前一段我们一直在讨论这个问题,是不是要适当的放开人工代孕的要求,我们不可以进行商业的人工代孕,但是对于确有必要的,从情理上都应该给机会的,这样是不是可以放开,就可以满足人的要求,我觉得这个案件是特别重要的一个案子。

  我说这个意思,当某一种很先进的科学技术出现的时候,都会带来它的发展,发展带来的风险,法律怎么样规范它。我们看到它的危险以后,用法制防治解决好以后,大概不会发生严重的后果,不会说最后人自己就控制不了的地步。所以我想人工智能今后发展的过程,只要在我们现行的法律规范当中去补充新的规范,然后去进一步规制人工智能技术发展的情况,一个是促进它发展,另外一方面,防止人工智能出现危害人类后果的情况。

  在这样的时候,我觉得人工智能就会给我们人类带来更多的好处,不会给人类带来太大的灾难。所以我觉得应该是这样的。在这种情况下,民法和人工智能的发展,它们之间应该怎么去做?我觉得大概最重要的一个问题,就是在人工智能发展当中最具典型意义的就是高端智能机器人,它在民法上怎么去定位,去定位就确定了它在民法上是一个人还是一个物?像沙特给了公民资格的索非亚,它到底是人还是什么?按说是公民了当然是人,假如说中国有一个索非亚,我们会给它一个公民资格吗?我们会给它一个公民待遇吗?我们会给它一个自然人的身份吗?应该不会。所以我觉得在人工智能发展过程当中民法想要解决的第一个问题就是它的民法地位问题。

  接下来的机器人的民法问题,就是它的行为,它的行为是人的行为还是支配物的行为,它如果是一个人,它的行为就是自己的行为,就跟今天所有自然人的行为一样的,它的行为就要受到民事法行为的要求,但有可能是这样吗?大概不太够。一个机器人总有人控制它,有人支配它,虽然机器人带有一些自主的行为,它仍然是人的行为,我觉得这是第二个问题。

  第三个问题是什么?就是这些人工智能的机器人,它们在它们的行为当中造成了人的损害的结果,究竟怎么去承担责任?在这个问题上,好像我们看到普通的人工智能机器人没有这样的责任,但是在一些特别人工智能方面的技术应用方面,它要造成损害后果呢?比方说自动驾驶汽车,当前自动驾驶汽车发生交通事故已经不是一起了,已经有十余起,对于这样一些问题应该怎么样去规制,怎么样去承担责任?这是必须要研究的问题。

  这是就我从民法的角度上来讲,我想关于人工智能的发展和它的规范,它和民法的关系,最起码要解决问题,地位问题,属性问题,还有责任,造成损害的责任。自动驾驶汽车会发生交通事故,其实你看到现在一些智能机器人,好像索非亚那种比较理智,也没有太大的危害,但是你知道好几个电视台,当他们用人工智能在电视台进行服务的时候,在网络上进行服务的时候,它发生了诽谤的事情,因为它自己的判断能力还是不够,把什么人叫什么人,这样就涉及到人格损害的问题,然后投诉他们,这个事情已经存在了,这也是责任的问题。所以这部分真的是可以很好的研究,在民法领域当中,把这些问题都考虑到了,然后做好了充分的规制,就保证人工智能技术向对人类有益的方面去发展,怎么控制它造成的损害,一旦发生损害以后怎么样解决责任承担的问题。这一部分是人工智能发展和民法之间的问题,这是讲的第一个问题。

  二、人工智能机器人的民法地位

  对于这样一些问题,现在学界都在讨论,很多在研究法律的这些前沿认识,对于人工智能对民法带来的问题都在进行讨论,当然比较热,但是说全面普遍的解决这些问题还正在探讨过程当中。

  去年11月份,世界侵权法学会在美国开会,用了很长时间是在讨论人工智能问题,讨论自动驾驶汽车的问题。也可以这样讲,关于人工智能民法的问题,其实全世界都在同一个起跑线上,在这样的情况下,谁向前使的劲大一点,谁就在前面。所以在这部分,我觉得加强对人工智能法律规制,特别是民法方面的问题,我觉得是很重要很重要的事情,也标志着中国法学在世界领域当中地位的问题。

  关于智能机器人在民法当中的地位问题,就是刚才说在民法当中的第一个问题,它到底是人还是物?在这个问题上,面对智能机器人技术的迅猛发展,可以预见到在不远的将来,在交通运输、医疗、看护、工业、服务业等等领域当中,智能机器人在人类社会当中应该是司空见惯的。北京理工大学的院长他讲现在人工智能技术,机器人的技术大概应用最好的领域应该是医疗,当对人做外科手术的时候,人的操作总有可能会发生失误,手一抖就可以发生失误,机器人只要设定好了就会按程序做,这部分具有最好发展前景,就能够代替外科医生去做手术。这样一种情况下,我们在生活当中会面临越来越的机器人,甚至将来会出现很多很多和我们长的一模一样,大家一起交流、一起工作的机器人,就是完全具有人形的机器人。在这样一种情况下,它到底是人还是物?这是一个最大的问题。

  刚才我已经列举了例子,比如沙特的索非亚,围棋的AlphaGo,还有现在性爱的机器人,还有保险公司和律师事务所大量应用的代替秘书的那些机器人。面对这样一些情况我们怎么去对待它?现在在研究人工智能,研究智能机器人的时候我也是在学习过程当中,觉得有一个词特别重要,也是人工智能不断向前发展,人工智能机器人层次越来越高,将来甚至会超过人的思维、超过人的智慧,最关键的东西就叫机器学习。就是通过人的智能建立起这样一种机器,这种机器自己可以在你给它提供智慧的基础上再进一步整理,自己去提高,这就是我们说的机器学习,它自己一边总结、一边提高,然后逐渐逐渐超过了人类。就像围棋技术,现在可能是所有的自然人的棋手也玩儿不过AlphaGo。将来这样一种情况下,智能机器人我们怎么对待它,这是一个最大的问题。

  我们怎么去看待人工智能机器人民法地位,它是人还是物?关键的一个问题,它有没有人格?就是智能机器人有没有人格,在这个问题上大概有这么一些观点。

  一个观点,智能机器人没有人格,这就是人格否定说,很多人认为智能机器人尽管叫人,它仍然是一种工具,这种工具比其他的工具更先进而已。在这个问题上可能会出现这样的问题,比如说简单的智能机器人,就说我家里那个扫地机器人,面对它的时候,你不会想到它会有人格,因为它根本就不像一个人,就像我一开始人家给我的机器人这么高,我得把它请进来,打开一看就是一个盒子,不会认为它有人格,这种情况把它认定为工具一点都没错。但是面对那些自己有人形,还有它自己的思维,它自己可能做一些行为的机器人,你要说它完全是工具,可能就会有疑问,这是一个问题。

  除了这些否定说以外,很多肯定说。肯定说就认为它有人格,所以在法律系统的发展史上,他们认为这个主体是从自然人逐渐发展。大家看到一个最基本的事实,我们最早时候说民法的主体其实讲的就是自然人,人,才有人格,不是人就没有人格。但是后来发展到法人了,法人是一个组织,是一个团体,民法上怎么去规制它?认为它也有人格,毕竟法律承认它有人格。再结合我们中国的民法来说,我们现在不仅仅存在自然人有主体资格,不仅仅承认法人有主体资格,也承认非法人组织也有主体资格,自去年3月15号开始,我国的民事主体就变成了三种主体,都有人格。有些人认为从这样一个过程当中,预测有一种规律,就是说人格的问题是从狭小的自然人身上逐渐发展,逐渐扩大。我们现在从自然人发展到法人,从法人发展到非法人组织,将来就会发展到智能机器人身上,所以认定智能机器人它也有人格是迟早的事情,甚至说索非亚不就是一个有人格的机器人吗?这就是讲的这种肯定说。

  还有折中说,不全部承认它有人格,也不全部否认它有人格,而是有几种说法。有人说智能机器人就是电子奴隶,这个奴隶说的是罗马法上的奴隶,大家知道罗马法上人是分两种,一种是市民,有人格的,还有一种是奴隶,奴隶没有人格,他是财产,一个人家里多富有,要看他养了多少奴隶,奴隶是没有人格的。电子奴隶说认为我们所说的智能机器人其实就相当于过去的奴隶,它是一个电子的奴隶,它像人,但是它又不是人,但是它实质上又是人,就是这样一个逻辑,所以把它叫做电子奴隶说。也有人把它叫做电子人格,它虽然不是自然人的人格,但是它是一个电子人格。就有点像今天说的虚拟财产,说我们财产有时在的,就是现实当中的物,这是财产,虚拟的财产,网络当中虚拟的财产不是财产吗?比特币现在多值钱,昨天有人还问我,说杨老师,比如说两个人有一批比特币,我现在要向去申请公证,说是我们夫妻两个人共同财产,你说公证不公证?我说你可以做公证,因为我们《民法总则》第127条已经规定了数据和网络信息财产应该保护,应当依照法律规定,既然民法总则说了,你怎么说没有法律依据吗?他说他没有说清楚它是什么财产,这倒是真的。

  一个现实的物,一个虚拟的物,现实大家能看到的,还有在网络虚拟空间当中存在的虚拟的物。我说电子人格其实说的就是可不可以讲现实生活当中的人就是我们自然人团体,还有一种,其实就是人工合成带有电子特点的人格,讲的是这种。

  欧盟曾经有一个文件当中提到有限人格,它不是完全的人格,它是有限的人格,在这些方面当中带有人格的特点。现在肯定说和折中说应该是多数,否定说应该是少数。在这样一种情况下,我们应该怎么去考虑对智能机器人民法地位的界定?这个东西不界定好的话,我们民法没有办法对它进行规制,你到底是人还是物?我们今天说民法上对于市民社会的认识,是人就用主体的规则,是物就要用客体的规则。我今天讲人工智能机器人的时候,也必须面临这样一个问题,要界定它是人还是物,你界定它是人,我们就要用主体的法,要界定它是物,我们使用客体的法。这里面有一个可以借鉴的说法,我觉得它是不成立的,在刚才我介绍人体冷冻胚胎的案件当中,一审法院把这个冷冻胚胎界定叫做具有人格因素的物,说它脱离了人体,它本来应该是人体的组成部分,但是它脱离了人体以后就不是人了,它不是人,它应该是一个物的属性,它是物的属性的时候,它还有人格的要素里面。所以把它界定具有人格因素的物,或者叫做人格物,它毕竟就是一个物,要对它适用法律的时候应该适用物的规则。到二审法院,就是无锡市中级人民法院审理的时候,院长亲自审这个案件,院长他比较人性,他说人体冷冻胚胎既不是人也不是物,是基于人与物之间的过渡存在,后来我看这个判决书好有文化。客观描述的对不对?真的是对的,但是在民法领域当中,你必须界定它人还是物这边的,过渡存在这个中间状态,法律没有办法界定。最后判决书把它界定成人与物过渡的存在,它就没有设定什么权利了,最后院长界定了两个权利出来,说双方父母争议的是什么,他们争议的是胚胎的监管权和管理权。我看到这个权利一愣,这个判决书在理论上说起来我是觉得有点荒唐,但是最终结果是好的,他把监管权和管理权界定给双方四个当事人,归他们所有,然后他就可以拿回来。最终结果是好的,所以我写这个文章的时候,说一份标志着人伦与情理胜诉的终审判决。

  在这样情况下,它是属于人这边,还是属于物这边?一定要界定清楚才有办法适用法律。涉及到人体冷冻胚胎的案件,也是我跟办案的法官两个人一人写一篇文章,结果都一样的,但是中间有不同看法。说是两个人结婚了,男的在美国,后来女的也去了,两个人生活一段时间不是很快乐,在美国期间说现在不想生孩子,先弄个冷冻胚胎,在美国医院冻起来了,等着以后愿意生的时候再生,把冷冻胚胎放医院的两个人后来离婚了,女的跑回中国了。男的一想都离婚了,冷冻胚胎还在医院,它是半年一续费,不续费医院就废弃了。后来这个男的就没交费,医院就给废弃了。这个女的后来想想孩子还得生,找医院,医院说销毁了,最后女的就开始告他老公。

  这就涉及到这个问题,冷冻胚胎是什么?一审认定是有人格的,但是在判决里面说你没有经过对方同意把冷冻胚胎废弃了,造成了它人格的损害,然后要承担精神损害赔偿责任。我说这个有点奇怪,判决结果承担1万块钱的精神损害赔偿,一方面你说他侵害的是物,另一方面说直接侵害了人格的损害,这个道理讲不通。我说有一个正确的裁判思维,首先界定它是物,双方共同享有这个物的物权,共同享有的物权应该是共有权,这个案件为什么说是侵权呢?因为一个共有的物,你没有经过共有人的同意就单方废弃了,那当然就是侵权。这个侵权不是侵害了一个普通主体的权利,而是侵害了一个共有人的权利。这个物当中又包含精神利益的因素,包括人格的利益因素,当然得赔偿精神损害。从这样一个角度论述,可能论述的更清楚。

  这里仍然也有一个问题,对这样一个东西,今天发生争议的东西,你要对它适用民法的时候,首先第一件事情是界定它是属于人这部分还是物的这部分。我拿冷冻胚胎来说明,同时我们在人工智能机器人定性的时候定性人还是物,这是非常重要的。你说它是什么样的东西?我们界定人格的时候有一些说法,一个是自然人格,每个自然人享有的人格,这是自然人格,自然人格,身体要健康,还有法人人格,还有非法人组织的人格。

  有人还提出一种人格,叫做虚拟人格,这个虚拟人格说的最响的就是我一个学生,他就认为这个虚拟人格也是人格。虚拟人格指的是什么?就是我们在网络活动当中的网民,比方我在现实生活当中叫杨立新,网络活动的时候我也叫杨立新,大丈夫坐不改名,立不改姓。如果我在网络上起一个“会飞的鱼”,那是网络上的名,把真名隐去了,现在主张虚拟人格的说法,说那个也是人格,网络隐藏的人就叫虚拟人格。但是要看到一点,我们虚拟人格和自然人格是统一的。就是我在现实生活当中叫杨立新,是我的人格,叫会飞的鱼的时候,我也是杨立新,这两个人格是统一起来。欧盟管它叫做电子人格,还有说叫有限人格,这都是我们在说人格的时候。

  我们在民法上到底给它叫什么?一方面叫机器人,有人赞同有人不赞同,我说了一个词,叫人工类人格,它带有一点人格外观的表现,其实它是人工的人格,说到底它不是人格,我想提出这么一个概念。

  确定一个人有人格还是没人格,我原来写连体人文章的时候,不知道同学们看过没有,确定连体人到底是几个人格,它是一个人格还是两个人格。这一部分,我们在确定一个人是不是有独立人格时,有三方面的判断标准,一是生理学的要素,从生理学层面观察,人有独立的姿态和善于思维的大脑、具有独特的人类基因组成、独特的人类基因结构,按照这样的说法去判断人工智能机器人,其实就是没有机,外型好像什么都有,但不是自然的,这是一个标准。还有一个标准,从心理学层面观察,心理学作为人格的重要标准,就是要有独立的意志,就是他自己能够思考,从这个角度来说,人工智能机器人真的有点像。三是社会学的要素,作为一个人他有独立人格的时候,他在社会上要有独立的角色,当他有一个独立角色的时候他也是一个人。我们要看智能机器人,以它的代表看,看沙特的索非亚,人家真有独立的社会角色,还可以教你怎么样,人家就是独立人,还有公民资格。

  根据这三个方面来判断,人工智能机器人有一部分人格的要素,它最重要最缺乏的是自然人当中自然结构的人体,自然的大脑,人的基因结构,这些它是没有的。这三个标准当中,这个标准是最重要的,所以把这三个标准都结合起来,是不是应该这样,它外观看起来是具有人格,但是这个人格是一个类人格,是类似于人格的表象。说到底,类人格就不是人格,它仍然是物的属性,所以我论证这些问题的结论,就是我们民法在对待人工智能机器人的时候,要界定它是物的属性,它并不是人的属性,尽管它有人的外观形象,它有人的一些功能、人的一些行为,甚至有一定自主性的行为,但是它仍然还是物。

  它是物,接下来还有进一步的问题,它是物当中的哪种东西?我说再进一步界定的时候它就是产品,它仍然是产品。我们看到沙特的索非亚,它不是人造出来的吗?它是人造出来的,它是人结合以后生出来的人吗?不是,它不具有自然人的人格,也没有理智的人格,它仍然是一个产品,它是物当中的产品,能够把它界定下来以后,我们在民法上对它适用法律的时候就必须清晰了。

  这么长时间给大家论证这个问题,我想说明一个问题,人工智能机器人有再了不起的技术,将来做的跟人完全一模一样,看都看不出来,可以做很多很多人的事情但仍然不是人,它的人格就是类人格,它仍然是机器,仍然是产品。

  第二个问题它的行为是谁的行为,它的行为就是所有者的行为,这个人做出一个机器人送给他哥了,它给他哥服务,仍然是人的行为,它自然承担责任吗?好像也不行。假如说这个机器人疯狂了,出去以后把人打伤了,打死了,打残了,如果说它有人格,先抓这个机器人,判了刑,你送到监狱里以后还得通电,不通电,他就还是物。这部分给大家讲第二个问题就是人工智能机器人到底是什么东西,它是物还是产品,这是我想说的第二个问题的内容。

  三、自动驾驶汽车的交通事故责任

  自动驾驶汽车的交通事故责任,这是现在全世界都特别关注的一个问题。我们看到今天中国在这个问题上也在探索当中,春节前北京市下了文件,可以在北京进行自动驾驶汽车的测试,接下来又划了一定的区域,在这个区域里面自动驾驶汽车是合法行为。针对的问题是什么?去年还是前年的时候有一个网络公司的老板开了自动驾驶汽车上了五环被处罚了,你这种违法了。有了测试的规定以后,你在测试的范围之内可以开,有了自动驾驶准入的规则。

  自动驾驶汽车首先一点,这个技术发展非常快,现在最典型的是特斯拉,还有谷歌,还有很多厂商做出很先进的自动驾驶汽车,我们现在也在做,但是达不达到人家那个程度难说。

  最近一个案件我一直在关注,讲的是这个,讲自动驾驶汽车的时候,首先是要讲自动驾驶汽车的分级。自动驾驶汽车的分级,按照现在的情况,基本上用的是美国的标准,把自动驾驶汽车分成五级或者六级的,是美国的自动驾驶汽车标准分成两个标准。这两个标准大体相似,但是不完全一样,现在通常用的是六级标准。

  2013年美国国家公路交通安全管理局发布了汽车自动化的标准,将自动驾驶功能分为五个级别,就是零到四级,零级就是无自动化,就是现在的汽车是无自动化的,没有任何自动驾驶功能和技术,驾驶人对汽车所有功能拥有绝对的控制权,就是现在的零级别。一级为单一功能的自动化,驾驶人仍然对行车安全负责,不过可以放弃部分控制权给管理,比如常见的自动巡航。在高速公路达到一定条件的时候,把汽车做成自动的时候,你脚放到刹车上不用动,自己就走了,交通部认为这是一级。二级部分自动化,司机和汽车分享控制权,驾驶员在某些道路和环境下可以不操作汽车,手脚同时离开控制,随时准备在短时间内接管汽车驾驶权。一级是要求打开自动巡航的时候,双手必须在方向盘上,脚在刹车的位置上,一旦出现问题马上就能够把汽车控制起来。到了二级的时候,部分自动化,你手脚可以离开,暂时离开,但是你必须全面的关注,随时准备出现问题接管汽车的控制权。三级是有条件的自动化,有条件的情况下实现自动控制,预设的路段,当遇到紧急情况,驾驶员仍需要接管汽车,但有足够的预警时间,在这个时间里面你必须要接管汽车。三级自动驾驶汽车将解放驾驶员,对整个行车安全不再负责,也不必监视道路状况。四级是完全自动化,变成完全无人驾驶,无须人进行协助,由出发地驶向目的地,仅需起点和终点的信息,完全不需要驾驶员,行车时可以没有人,按照交通完全自动化,车里的所有人变成了乘客,汽车里面没有方向盘和驾驶器,这就是自动机器人了。比方汽车里面全都是乘客的座,从郑州到北京,你该笑就笑,该说就说,到北京自己停到那里你就下车,这就是完全自动化。

  另外一个标准,是美国机动车工程公司协会,前边那个有点官方性质,这是协会制定的。为零到五级,分别强调的是无自动化驾驶、部分自动化和有条件的自动化,区别是对完全自动化做了进一步细分,强调行车和环境道路的要求,五级标准当中,四级标准在特定条件下进行,比如封闭的园区和固定的通车路线。通常说自动车,你看到视频上,到家以后,把他一按你就回家了,车自己回车库了,这就是预定的路线,完全无人驾驶,不用你管。早上到门口一按汽车自己来了,这是讲的四级,把完全自动化分成区域的自动化和没有区域限制的自动化。

  现在世界各国关于自动驾驶汽车的分级标准大概都是零到五级的标准,就是美国协会的标准。目前在自动驾驶汽车当中,发生交通事故的基本上是属于一级或者二级的状态,现在发生的几个自动驾驶汽车交通事故的,大体是在自动巡航期间,达到了预设的高速公路符合条件的,你打上自动巡航系统,双手放到双向盘,脚放刹车上,还得注视路面,前面出现车辆的时候,它就可以自动的去规避,比如前面有车它可以慢慢停下来,然后还可以自动转向,如果需要往这边拐可以拐。

  它的标准相当于现在我们说的一级,就是自动循环系统。在这样一种情况下,交通事故责任到底怎么认定?这里涉及一个问题,开始说到的,前面说的问题,首先我们必须给自动驾驶一个定性,对它定性了以后,才能对它进行适用法律。当一个自动驾驶汽车完全达到了自动驾驶的时候,到了四级、五级状态的时候,它就和人没有关系了,因为人不用操作它,人在自动驾驶汽车以后是没有任何作为的,跟着走就可以了,就是乘客。在这样一种情况下,汽车造成的损害,我们界定它,首先自动驾驶汽车是人工智能的一种表现成果,自动驾驶汽车既然是人工智能发展到这种情况,它有自己的自动化,它其实就是一个行走的机器人,可以运载的机器人。它是机器人,是人工造出来的,就具有人工类人,接下来它一定是一个产品,当四级和五级自动驾驶发生交通事故的时候,你觉得是人的责任还是车的责任?它就不再是人的责任。但是看到今天传统汽车的交通事故责任,只要发生交通事故,一定是人的责任。人的责任包括驾驶人的责任,汽车道路人的责任,他们之间怎么区别?就是现在侵权责任法第六章机动车交通事故责任要解决的问题,除了解决所有人和驾驶人之间的关系,还要解决使用人的,我们看一看,关于驾驶人和所有人的关系,基本上是在道路交通安全法76条规定,那里面规定了交通事故基本的规则。侵权责任法用了第48条,就讲的76条的规定。

  侵权责任法第六章第49条到最后一条,关于交通事故责任,都是在处理机动车使用人和所有人之间的关系,比如借车给人家开,偷盗抢机动车发生交通事故应该怎么样,报废车、拼装车造成交通事故以后怎么承担责任,解决的都是这样的问题。不管道路交通安全法也好,还是侵权责任法也好,它们在解决交通事故责任的时候,都是这三个人的责任问题,所有人、驾驶人和使用人这三个人的责任。一个交通事故发生了,造成他人伤害和死亡,财产损害,我们就在这三种人去承担。概括一下,在传统的机动车交通事故责任当中,它解决的是人的责任,就是这些人谁去承担责任。但是一旦到了自动驾驶状态的时候,自动驾驶达到四级、五级的时候,和人就没有关系了,和这三种人一个都没有关系,完全是车的责任。车的责任是什么责任?就是产品责任。我们说当传统的交通事故责任适用侵权责任法第六章,自动驾驶汽车的责任就是产品责任,就是第五章。这样一分清以后,其实自动驾驶汽车交通事故责任一点都不难。

  去年我们在美国讨论好几天,我就开始下决心要把自动驾驶汽车交通事故责任研究清楚,自动驾驶责任就是产品责任,产品责任就是生产者、消费者责任,再加一个人就是设计者。因为自动驾驶就是人工智能,设计它就是人工智能的科学家,他在设计自动驾驶系统的时候,他是设计缺陷还是制造缺陷,设计缺陷就是设计者要承担责任,制造缺陷就是生产者的责任。这样分析以后,其实自动驾驶的问题比较容易解决,我建议人大法工委能不能在侵权责任编的草案当中,民法分则的侵权责任编当中加进去自动驾驶这一条。我们要在立法当中加自动驾驶的条款,我们这个立法就走到了全世界的最前面,现在要论证我提出的规则到底行不行。

  这一部分仍然不是这样简单,我们说传统汽车就是人的责任,自动驾驶汽车就是车的责任,现在很大一部分是介于两者之间。我们在一级、二级、三级的情况下,区分它是人的责任还是车的责任。就像刚才我给大家分析的案件,你们可以讨论一下,考虑一下,当自动驾驶汽车从一级到三级的时候,它都要求驾驶员时刻不可以放松警惕,对汽车的接管,他的操控,从一级、二级、三级逐渐减轻,但是都没有说驾驶员没有任何义务了,只有到第四级、第五级的时候才有。

  现在看发生交通事故的车,这样的车,就是我们说在自动巡航过程中发生的交通事故,驾驶人打瞌睡的时候,双手离开方向盘,在这当中有一个汽车进来了,自动驾驶汽车识别了,又进来一个它又识别了,但是在以后的数秒钟发生了交通事故,与前边的清扫车碰撞,自动巡航的汽车不能识别出前面行使缓慢的清扫车,这部分如果说它是缺陷的话,是产品责任的话,这个汽车是不是有缺陷?人有没有责任?我们就要看产品的说明书,就是在这个级别的自动驾驶汽车都会给你一个非常重要的警告,他会告诉你,当你在自动巡航系统的时候,你在用自动巡航系统的时候,自动巡航的时候,你的双手不可以离开方向盘,脚不可以离开刹车,不可以放弃观察行使环境,如果不这样做会发生严重的人身伤害,甚至死亡的后果,这是警示。然后告诉你,自动巡航的过程中,跟汽车相似的物体都能分清,但是对于行使缓慢的物品和一些人的行为它分不清楚,所以你要特别特别警惕不能够放弃驾驶的警惕性。这部分就会看,让你不可以怎么样,你开车的时候睡着了,发生重大事故,这一点完全确定,损害的发生,是驾驶人的重大过失所致。

  接下来判断车的问题,这种情况算不算缺陷?我们在产品责任当中确定缺陷,我们现在界定的是四种缺陷,一是设计缺陷,设计的时候就是有问题的。二是制造缺陷,设计没有问题,生产出现问题。三是这种产品投入生产的时候本身就包含危险,这个危险是合理的危险,这时候要给个充分的警示说明,只要你按照这个警示说明的时候危险就不会发生,就不认为是缺陷。但是你要没有充分的警示说明,就是缺陷。这种叫什么?有的叫经营缺陷,有的叫警示说明缺陷。四是跟踪观察缺陷,说什么?当一个产品生产出来的时候,当时的科学技术发展水平无法判断它有没有缺陷,就是有没有我不知道,看不出来,这种情况下也可以把这个产品投放市场,但是你要进行跟踪观察,一旦发现有缺陷的时候,立刻要进行警示或者说明,或者召回。前面这个情况,当时的科学技术发展不能够识别它有没有缺陷的时候,你可以投放市场,这个就叫发展风险规则。这是可以免责的,但是一旦发现问题以后,必须马上进行警示,要召回。这部分规定在侵权责任法第46条。

  这四种缺陷当中,自动巡航过程当中,汽车的智能系统没有发现前面行使缓慢的物体,最后发生车祸,这个自动驾驶系统算不算有缺陷?有人认为有缺陷,有人认为没有缺陷。我们按照缺陷的标准看,这不是设计缺陷,也不是生产缺陷,它应该是属于产品中包含的合理危险。这样一个合理危险,它只要经过充分的警示说明,它就可以不认为它是缺陷了。最典型的合理危险需要警示说明的事例,北京现在是完全禁止放鞭炮,哪一个鞭炮没有危险?哪一个都有危险,但是这个危险是人工可以接受的危险,只要说的充分,造成损害跟生产没有关系。比如大家说的二踢脚,要求竖放,他非要横放,结果把你们炸伤了,谁的责任?如果拿在手里竖放把我手炸掉了,这是缺陷。因为二踢脚放在手里是没有危险的,不太可能放在手里爆炸,如果放在手里爆炸就一定是缺陷,一定要赔偿。说一个二踢脚放在地上,我去点的时候药捻燃烧的比较慢,再蹲下去看的时候,爆炸了,造成伤害,这个如果没有警示、说明的话,就是一个缺陷,如果有充分的警示、说明,就不是缺陷,因为它有可能是慢的,它要安全,让你跑到一定程度才能响,避免造成危险。

  一个产品当中有一个合理的危险,这个合理的危险经过充分的警示说明,按照正确方法做的时候,就不会发生危险,用这样一个规则看我们自动巡航过程当中的汽车发生交通事故是不是这样?对识别慢的物体,自动驾驶汽车在巡航的时候,一级的情况下,它无法识别,现在技术也做不出来这样的,有这样一种危险它就告诉你这个危险是可以避免的,你双手放到方向盘上,发现问题你及时转弯,驾驶人直接控制汽车,一点问题都不会有。所以这样的案件在美国发生,最后判决厂商没有罪的,是受害人自己造成重大过失。

  从这一点上说,传统汽车是人的责任,自动驾驶汽车,完全自动驾驶的状态是车的责任,是产品的责任。当处于一级到三级这个过程当中有部分自动驾驶功能汽车的时候,这时候应当判断是人的责任为主,然后看产品是不是有缺陷,如果真的有缺陷,它应该是产品责任,人要有过失是人的责任,那边有缺陷,那边有过失,最后构成过失相抵。自动驾驶汽车交通事故说到底,其实最后最后把它分析清楚的时候,不过就是三个层次,人的责任,车的责任,人和车责任结合一起的时候,看看是以哪个责任为主,这样就可以了。所以我觉得这个问题虽然说是世界性的难题,其实规则应该比较清楚的。

  上一次在美国讨论这个问题的时候,美国有好多方面的专家参加讨论,有汽车制造商,有自动驾驶的设计者,还有公路交通管理部门,还有法学家,还有保险公司,从不同的角度来讨论这个问题,大家都觉得极其艰难。如果我们把规则限制过严的时候,会限制自动驾驶汽车的技术发展;限制过宽的时候,会造成人的利益的损害,所以必须找一个合适的规则。

  这个问题说到最后,我想可不可以这样,大家都是学法律的,我们在学习法律、研究法律问题的时候,可不可以有两种思维,一种思维是把简单的事情搞复杂,另一种思维是把复杂的事情搞简单,把这两个部分都结合起来的时候,你就会在法学研究上会有新的发现,并且有新的解决办法,而且这个解决办法会比较恰如其分。

  我原来写过一篇杂文叫简单与复杂,我说的是这样一个故事,我们搞法律的人有两种人,两种思维,第一种人是法官,法官的基本技能是把复杂的事情搞简单。比方说双方当事人争议的事情,极其复杂,脑袋都大了,法官听了好几天,审判一拍桌子说不过就是这么一件事情,然后找到法律适用的方法,其实法官最大的方式是这样的,找到适用的法律就完事。法学家不是,法学家是要把简单的事情搞复杂,我现在研究民法差不多40年了,我得出一个最基本的结论,我说民法就是人法。我这个结论重不重要?重要,但我把这个结论放到刊物他会给我多少钱?一个字十块钱!但是,我要把这个事情详细论证出来,写出几十万字,稿费可能值几万元。当然这是开玩笑,说我们怎样把一个问题分析清楚是需要论证,这个论证做的越详细、越周密,最后得出的真论就越扎实。别人看不到的东西法学家看到了,把它写出来,这就是创造。法学和法官的思维区别在这里,但是我们要把这两种方法都结合到一起的时候,那才是真正的法学家的思维,把问题看的很复杂,然后又能理清,最后得出一个结论,比如我用一百万字证明民法就是人法,最后得出一个结论,民法就是人法。我也想把这个想法推荐给每一位同学,你们都面临着写毕业论文的问题,如果要有兴趣的话,也要进行科研,要写科研的论文,还要大创、小创的写作,这些问题其实思维的方法都是一样的。你要借鉴我研究这个问题的方法,应该对你们的科研有很大的帮助。

  智能机器人民法地位问题的文献综述3

  通过梳理国内外有关强人工智能刑事责任主体的研究,发现刑法学者们大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等方面展开说理和探究。

  (一)强人工智能刑事责任主体设立的必要性之对立

  强人工智能刑事责任主体的设立是否必要,是展开强人工智能刑事责任主体研究的逻辑起点,是肯定论者与否定论者的第一次正面交锋,也是两派学者对于该问题的不同世界观的最初体现。

  1.强人工智能刑事责任主体设立必要性之肯定

  刘宪权教授在对强人工智能时代刑事责任的规制具有必要性的论述时提出了两点理由:其一,作为法学研究者应该相信霍金等科学家的论断,认为人工智能会毁灭人类,而不是相信李彦宏等经营者的说法,认为人工智能不可能威胁到人类的安全。应秉持宁可信其有,不可信其无的立场。其二,面对强人工智能的出现可能会给人类带来威胁,我们需要未雨绸缪,防患于未然。[1]

  陈叙言在论及承认人工智能刑事责任主体地位之必要性时指出,承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。[2]

  王耀彬认为现行刑法主体概念对于人工智能法律主体规制的缺位,无形中增加了人们对于智能风险的恐惧。当下,各部门法在人工智能领域的探索已显雏形,刑事法的规制却略显保守。类人型人工智能实体与自然人的相似程度比动物、单位更高,包含法律设定主体的本质要素——理性,并具备侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性。[3]

  2. 强人工智能刑事责任主体设立必要性之否定

  黄云波认为,不论是库茨维尔的奇点理论,还是霍金关于人工智能发展完全将是人类末日的警告,都还只是一种假想与猜测。对人工智能未来情境的预见, 专家较之常人并没有太大优势,大家都只能是盲人摸象或信口开河。[4]

  周铭川认为,强人工智能犯罪的刑事责任问题是一种假设性命题,现阶段来探讨它能否被证明为真没有多大意义,正如无法通过逻辑推理去证明任何一个宗教命题的真伪一样。[5]

  (二)强人工智能承担刑事责任的可能性之纷争

  对于未来性的命题,在未经科学研究充分证实的情况下,刑法学者对于该可能出现的新事物的探讨都只是基于自身的世界观出发来考虑问题。无论是对强人工智能刑事责任主体设立的必要性持肯定的态度还是否定的态度,两派所提出的理由都不能完全的使对方信服。因而,对于强人工智能刑事责任主体的论证,肯定论者与否定论者更多的是把争论的重心放在强人工智能承担刑事责任的可能性上。

  1.强人工智能成为犯罪主体可能性之肯定

  Gabriel Hallevy认为,“只要符合刑法的所有相关要求,一种新型的主体可以被添加到现有的刑法大家庭中,除了人类个体和法人之外。”[6]此处“符合刑法所有的相关要求”指的是符合犯罪的构成要件,通说认为强人工智能可以实施构成要件该当性的行为,在没有违法阻却事由的前提下,凭借其自身的刑事责任能力承担刑事责任。承担刑事责任的基础是责任主体的意志自由,具体表现为责任主体具有辨认能力和控制能力,而辨认能力和控制能力的基础是思维能力。[7]

  刘宪权教授指出,自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。[8]科技的发展是呈爆炸式的,随着深度学习技术、神经网络技术、类脑智能技术等的发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。并进一步指出,强智能机器人比单位更接近自然人,域外有关的立法例对我们承认强智能机器人的刑事责任主体具有一定的借鉴意义。[9]

  陈叙言认为,不应过多的关注自然人与人工智能的不同点,将自然人人的属性与人工智能机器的属性相比较时,应重视两者之间的共同点。人工智能能够理解自身行为的意义,做出适法的行为。[10]

  孙占利认为,从当前的法律来看,自主意识是智能机器人取得法律人格的主观条件,能够进行独立的意思表示并进而形成社会关系是客观条件。是否属于社会关系是由人来作概念上的设定,意思表示能力对现在的智能机器人而言已无技术障碍。完全用人类的自主意识作为强人工智能意识判断标准的科学性和合理性是值得商榷的。[11]

  卢勤忠认为,尽管人的智能以意识、思维、感觉和知觉等为基础条件,但智能机器人实现分析判断、推理等能力并不一定需要具有和人一样的主客观条件,其意识以及意志自由的表现形式也可能与人类有所差异。应当明确强人工智能机器人在刑事责任与刑罚根据上与人存在差异,需要对刑法理论做出符合强人工智能机器人特征的重新解读。[12]

  王耀彬在论及类人型人工智能实体成为刑事主体的可能性时提出如下理由:认识上的理性能力与在实践中的自主行为能力是法律主体的必备要素,而类人型人工智能实体依靠编程与系统具备这两项能力,也为其刑事责任主体的塑造提供了必要条件。类人型人工智能实体具备刑法上的认知与意志控制能力。[13]

  2. 强人工智能成为犯罪主体可能性之否定

  叶良芳指出,尽管具有自主决定能力的人工智能,在某种程度上具有与人类相似的辨认和控制自身引发的客观状态的能力,但是这并不是刑法将人工智能拟制为犯罪主体的充分条件。人工智能不具备独立于人类的权利和价值,在善恶观和伦理观上不具备与人类相当的认知水平,将人工智能拟制为犯罪主体的设想不具有合理性。[14]

  时方认为,意志自由是认定刑事主体地位的关键要素,包括认识要素与意志要素,强人工智能与法人虽然都不具有人类肉体与意识的生理构造,但法人特殊的运作机理符合刑事主体地位认定的实质要求,强人工智能并不具备。强人工智能运行机理与人的意志自由进行形式匹配过于机械,强人工智能不具有理解并遵从法规范的能力,其行为属性判断无客观标准。[15]

  储陈城认为强人工智能独立承担刑事责任不具有理论自洽性,理由是:要承认AI 的“行为”满足刑法上的行为的要素,就必须要在AI 自身当中找到和人类意思完全相当的意思;AI 不具备与人类等同评价的自由意思;对AI 施加刑罚不具备可行性。[16]

  王志祥认为,虽然强人工智能机器人拥有独立的意志以及辨认能力、控制能力,但同样也不能成为犯罪主体,不承担刑事责任。将强人工智能机器人作为犯罪主体的观点忽视了自然人与智能机器人的区别,缺乏相应的刑罚措施且无法实现刑罚的机能。[17]

  周铭川认为,由于电子机械运动与人的生理运动之间存在不可逾越的鸿沟,从金属和塑料和指示电极开与关的程序组合中无法产生人的意识。在对人类意识的本质及生成机制缺乏透彻理解的情况下,无论是符号主义还是联结主义,都不可能模拟出人的意识。即使假设强人工智能已经到来,考虑对其增设刑罚种类也意义不大。[18]

  (三)强人工智能刑罚处罚设置的可行性与科学性之审视

  在承认强人工智能刑事责任主体设立具有必要性和承担刑事责任的可能性的前提下,再来探究对强人工智能犯罪如何施加刑罚处罚的问题。

  1.强人工智能刑罚体系重构之提倡与根据

  刘宪权教授认为,如果强智能机器人在自主意识和意志的支配下独立作出决策并实施了严重危害社会的行为,应将其作为刑事责任主体,对于无法通过现行刑法中的刑罚种类对其进行处罚的问题的解决路径则应该是重构我国的刑罚体系,增设能够适用于强智能机器人的刑罚处罚方式,比如删除数据、修改程序和永久销毁。[19]

  黄云波认为,我们研究人工智能的刑事责任主体地位,目的在于保护人类免受人工智能的侵害,即为了社会防卫。鉴于此,我们应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“科技责任论”,将人工智能作为独立的责任主体,对具有实施危害社会行为的人工智能施以技术危险消除。[20]

  卢勤忠认为,在强人工智能机器人承受刑罚的基础上,预防主义刑罚目的论成为主流观点。在强人工智能时代的刑罚功能上,对强人工智能机器人适用刑罚能够实现刑罚的威慑功能和教育改造功能。删除数据、修改程序和永久销毁契合强人工智能机器人的特征,能够实现刑罚的功能与目的。[21]

  王耀彬认为,类人型人工智能实体的刑罚体系设计困难并不意味着设计上的否定,没有任何事物是一成不变的,我们的刑罚体系也应如此。智能时代背景下对于刑罚体系的改造不可或缺,也是预防类人型人工智能实体犯罪的必行举措。当然,针对刑罚体系的改造应当遵循罪刑法定、罪刑相适应、以刑罚目的为导向等原则。[22]

  2. 强人工智能刑罚处罚设置之质疑与理由

  周铭川认为,如果假设智能机器人不再是主人的财产,而是与人类完全平等的新人类,则必然要同时假设其在本能、直觉、技能、情感、欲望等方面完全与人类相同,则对其适用与人类完全相同的生命刑、自由刑、财产刑甚至剥夺政治权利刑,就完全合乎逻辑,因此也没有必要提出所谓删除数据、修改程序、永久销毁等所谓新的刑罚种类。进而,如果假设人工智能已经发展到所谓超人工智能阶段,则由于超人工智能具有远远超过人类的能力,到时将存在由超人工智能统治人类并为人类立法甚至消灭人类的问题,提出为超人工智能增设新的刑罚种类也意义不大。[23]

  皮勇认为,如果未来人工智能系统不受人类控制、自主进化,极可能不具备成立犯罪的主观条件,不能适用刑法规定的刑事责任和刑罚相关规定;不受人类控制的未来人工智能系统不可能接受刑法的规制,也就无从适用刑罚处罚,其制造的危机需要以其他直接、有效的技术手段应对。[24]

  时方认为,从刑罚惩治与安抚功能、刑罚预防功能、刑罚矫正功能来看,肯定论者所提出的设想难以实现以上功能。一是,刑罚的威慑力是实现预防犯罪目的的重要基础,但机器人缺乏感知喜怒哀乐的能力,因而刑罚对于缺乏趋利避害本性的机器人不能发挥威慑效应。二是,刑罚只能施加于具有意志自由的主体,因为不通过主观恶性判断其社会危险性及再犯可能性,教育改造目标将无从谈起。[25]

  赵秉志认为,即使承认智能机器人能够独立承担刑事责任,但是对于智能机器人适用刑罚的合理性与必要性问题仍需进一步探讨。肯定论者将智能机器人等同于活生生的自然人,但是,在确定其刑事责任的实现形式时,却又承认了其作为机器的本质属性,因此相当于又否定了其作为人的资格。[26]

  结论与建议

  3

  (一)结论

  近年来,刑法学者们对人工智能的研究大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等角度展开。通过总结学者们的研究观点,得出以下结论:

  1. 推理思路与价值选择导致两派立场上的鸿沟

  肯定论者与否定论者在阐释强人工智能刑事责任主体设立是否必要时,往往是从自身对于该问题的价值判断出发作出的价值选择。对于该问题的阐释更多的是停留在“立场选择”而不是方法与过程的论证。肯定论者通过假设结果的发生来说明强人工智能刑事责任主体设立的必要性,进而在该一假定的前提下探究主体设立的可能性与刑罚重构的可行性,体现的是一种“由果索因”的逻辑思路。相反,否定论者更多的体现“由因导果”的推理思路,从根本上否定产生结果的原因,不接受没有被证明的“原因”,认为现阶段研究强人工智能刑事责任主体的设立没有合理的依据也无必要性。

  2.自由意志的产生与机能是两派争论的焦点

  强人工智能承担刑事责任的前提是能够成为刑事责任的主体,根据人类现有的刑法理论知识与刑事立法例,自主意识、自由意志则顺理成章地成为强人工智能必备的要素。肯定论者在论述强人工智能自主意识的产生时,做出了与人类意识产生方式不同的解释,在意志的机能上又做出同人脑具有类似机能的解释。否定论者立足于既存人类知识的基础上,指出强人工智能无法像人类一样产生出意识,也不具备人脑如此复杂的思维机能。前者实质上是从矛盾的特殊性与普遍性的两个角度分析问题,既认为强人工智能与人类存在不同之处,也强调两者之间存在共性;后者是立足于矛盾的特殊性分析问题,看到强人工智能与人类的不同点。但肯定论者面临一个巨大的难题,即在论证强人工智能自主意识的产生时,绕不过哲学上关于唯物论与认识论的先验结论:“究竟什么是思维和意识,它们从哪里来的,那么就会发现,它们都是人脑的产物,而人本身是自然界的产物,是在自己所处的环境中并且和这个环境一起发展起来的。”[27]“实践是人的有意识的生命活动”,“有意识的生命活动把人同动物的生命活动直接区别开来。”[28]

  3.强人工智能受到人类社会的管控是施加刑罚的前提

  即便强人工智能能够成为刑事责任的主体,如果不能对其施加有效的刑罚措施,则将其纳入刑法范围内进行规制也没有任何意义。因此,对强人工智能科处刑罚的前提是受到人类社会的管控。肯定论者一边假设人类将不再有能力去规制强智能机器人的行为,人工智能可能毁灭人类,另一边又主张通过刑事立法对强人工智能的犯罪行为科处刑罚,逻辑上难以自洽。

  4.强人工智能呈现出的特征是刑罚设置科学性的基础性条件

  正所谓“对症下药”,既要使患者得到好的疗效,而且该“药”的社会口碑也要良好。就如同我们现在的司法活动一样,强调法律效果和社会效果的统一。对症下药的前提是要清楚病因和症结所在,在病因不明的情况下给出的药方难言是科学的,甚至是非常危险的。对强人工智能设置刑罚处罚也是如此,在对强人工智能自身呈现出来的特征缺乏充足的了解和掌握的情况下,来谈刑罚种类的设置,仅仅是一种“为了设置而设置”。虽然肯定论者假设的情况具有一定的可能性与可行性,但是也不能完全排除否定论者所提出的情形。我们大致可以假设以下三种情形:若强人工智能与人类运作机理相同,则适用与自然人相同的刑罚种类;若强人工智能与人类运作机理不同,因强人工智能自身的特殊性则可设置相应的刑罚种类,比如肯定论所主张的删除数据、修改程序等;若强人工智能与人类运作机理既有共性也有特殊性,则应综合设置刑罚的种类。

  (二)建议

  1. 人工智能时代刑法应秉持的立场

  正如埃里克·希尔根多夫所指出,“数字化革命尤其是人工智能的广泛应用不仅引发了人类工作生活的巨大变革,也对法律职业以及刑法学工作产生了跨时代的影响。鲍纳塔尔案、阿沙芬堡案、自动驾驶的悖论问题和“Tay”案已经预示着人工智能并不是百分之百的安全,人类在未来遭受其损害的概率会显著提升。即使如此,法律的演进仍应谨慎、适度,尝试以现有的法律教义学方法解决人工智能所带来的新的法律问题”,“具有自我学习能力的系统对法律构成了特别的挑战。在民法上应扩大严格责任,在刑法上可考虑引入新的危险犯构成要件。当然前提是从实证角度对风险情势进行更强有力的解释。”[29]本文认为,不应随便突破或者否定现存的法律框架和刑法理论,“在讨论智能主体是否具备刑法中的主体资格问题时,仍需要回归到规范刑法学层面,尝试探讨智能主体的刑事责任能力等规范要素。尽管其可能不是最好的办法,但它目前是适当的权宜之计”。[30]对风险形势在未经科学实证研究的前提下,我们更不应该让刑法“打头阵”。若人工智能的研究“完全指向技术的促进,刑法则不加干涉。单纯强调风险防范,则刑法将严密法网”。

  同时,“我们不应将立法条件和研究条件混为一谈。即使立法条件不成熟,只要存在现实问题或预见到问题的现实发生可能性,就应当积极投入研究。”[32]在刑法上进行理论上的前瞻性探讨和研究无可厚非,也是必要的。但是法律的本质、内容和发展方向是由特定的社会物质生活条件和生产方式决定的。在现阶段讨论强人工智能刑事立法既缺乏实践基础,也与当下中国刑事立法的趋势不相符合。

  2. 人工智能时代刑法学者应具备的研究方法

  刑法学者对于人工智能刑事责任主体相关研究的论证过度集中于刑法理论方面,跨学科、跨领域的研究成果亦较少,这受制于刑法学者的个人的知识结构、认识能力和认识水平。而人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。就学科范畴而言,人工智能是一门边沿学科,属于自然科学、社会科学、技术科学三向交叉学科。“智能主体的首要特征是技术问题,其次是与之高度关联的智能程度问题。在考察智能主体的法律资格及其行为能力时,也需要立足于智能技术这一首要因素,围绕智能程度这一关键问题,展开相应的讨论,否则有可能偏离问题的实质。”

  笔者无意让刑法学研究者承担如此多领域与学科的研究负担,这也不现实,但是最基本的应该了解和掌握这些学科的一般性原理和结论。在对强人工智能进行刑法上的规制时,绕不过对些学科现有知识的辩证否定,乃至对传统认知的颠覆。刑法学者未来应加强跨学科视角的研究,为其立场与结论提供充分的论证。因为人类在改造客观世界的同时,也改造着自己的主观世界,提高自己判断和推理能力,从而推动认识的不断深化。