人工智能的法律责任问题探析

(整期优先)网络出版时间:2019-12-16
/ 3

人工智能的法律责任问题探析

李泽兵

四川省社会科学院研究生学院 四川省成都市 610000

摘 要:人工智能的技术已经应用到各领域,人工智能处理某些事物的能力已经展现出智能化,且远超人类的大脑。与此同时人工智能给现如今的法律及监管指标体系增添了新的挑战,本文在介绍人工智能技术手段的根底上,简要地介绍了人工智能增添的法律责任及监管关键问题的处理方法。

关键词:法律;人工智能;监管

人工智能可定义为模拟人脑思维认知功能的活动,能够像大脑一样思考问题,但并不是通过生物技术再去造一个人脑,如果完全的模仿人脑可能会出现瓶颈,就像飞机制造成功开始于从研究鸟的形体到研究流体力学。人工智能带来的伦理、法律和社会影响等问题人类应当做出必要的应对。应该创建人工智能在法律及监管方面的深入研究,先确立人工智能法律方面的伦理根底建立伦理构架。

一、人工智能概述

() 人工智能简介

在20世纪五六十年代以前人工智能(一般是人型机器人)的概念停留在幻想与科幻小说中,随着人工智能的相关理论、各学科理论发展和计算机技术的突飞猛进,在制造、金融、医疗甚至是社会科学领域等“弱人工智能”方面广泛的应用。包括如下:十九世纪九十年代,IBM研发的国际象棋对战系统“深蓝”战胜当时的世界冠军加里•卡斯帕罗夫;IBM的人工智能医疗系统“Watson系统”的广泛应用;美国国防高级研究计划局在2004年举办的自动驾驶汽车挑战赛获得惊人成功。

人类的智力能力应是通过阅读与沟通来获得,以完备自己在妥善处理社会关系的实际能力,而是人工智能的智力进步应是建立在大量的数据资料训练之上,通过数理统计分析才能不断完善输出结果的工程质量。人工智能的高速发展得益于专门机构化数据的大量产生,通过处理过程能够得到新的数据结果,而这些结果因存在或然性,所以即使是人工智能的开发者也无法预测得出的结果。[1]

() 人工智能发展

20世纪六七十年代在制造工业中“体力人工智能”开始出现,第一台工业机器人用于生产现场已经有50多年的历史,机器人最初用来完成一些肮脏、枯燥以及危险性任务。

人工智能在法律方面的的发展。判例法系成熟的欧美,法律文书数据库建立完善,因此法律服务行业推出的Westlaw、Lexis、Nexis、Wolters Kluwer等系统为法律、金融和商业人士提供法律信息查询、检索、信息与数据服务、定制资讯服务等;2)“法律智库”将专业人士经验和人工智能技术极大融合:IBM Watson已尝试将人工智能与法律结合,与Legal On Ramp在企业法律实务进行合作;辅助律师展开法律检索的ROSS子系统可以提供匹配的法律索引以及文献。华宇元典业务队伍主要由法律研究团队和大数据技术团队构成。[2]人工智能在中国法律领域的前沿产品,理脉智能、上海刑事案件智能辅助办案系统、南宁刑期预测系统、菜鸟智能配送机器人小G。

二 人工智能法律和监管

人工智能技术手段的一直发展,牵扯人工智能相关法规、伦理标准相对较少,及时建立完善的人工智能安全评估质量标准以及监管指标体系应是人工智能行业健康发展的确保。

(一)法律法规方面

人工智能的民事和刑事主体资格、隐私和产权保护、信息安全利用等等法律关键问题研究,创建溯源和问责制度,明确人工智能法律主体以及相关基本权利、权利和法律责任等等。 [3]如无人驾驶在社会的应用,需要国家地方制定相关的法律法规,加快研究制定相关安全管理法规,确保无人车与有人驾驶能够在道路上一起安全地行驶,明确无人驾驶相关的民事法律和刑事法律责任,为新技术的快速应用奠定法律基础。

在对人工智能法律人格的确定。否定的观点,周玲敏[4]通过人格需要社会属性和法律确认,认为不具有承担责任的社会属性,认定诸如陪伴型机器人不具有法律人格。只有人类可以理解权力与法律责任的含义,因而法律法规能力或是人格应是与人类相关联的;将机器人当做人类一样对待将能促使人类非人化。肯定的观点[5],在特定的场景下可以对人工智能富有法律人格,1)在某些领域(如无人车、医疗和法律)人工智能表现出比人类更优的表现;2)人工智能的“输入-运算法则-做出回应”,组成像人类的“感应-思考-行为”;3)“社交机器人”与人类的互动具有部分“社会性”。

人工智能的刑事责任能力。在现代社会人们使用大量的工具来进行生产生活,如书、笔、机床和工业生产线等等,随着计算机技术的发展越来越多的人工智能软件系统变得复杂,人们觉得它们有思考的能力。[6]以知识产权的侵犯为例为,对知识产权的犯罪,首先应该考虑知识产权犯罪的客观因素及主观前提。客观因素包括犯罪的行为(当作或者不太当作)、因果关系、危害结果等等。主观条件包括对犯罪行为的认识,是直接或是间接。犯罪时有意识的行为,单纯的重复是否可能形成犯罪,就像一只学人说话的鹦鹉一样,它有能力重复听到的话,但是没有能力承担通过对话的重复而产生的侮辱诽谤罪。那么怎样对人工智能的犯罪构成要件进行分析?

那么现代人选用人工智能冒犯了法律的规定,所负的民事责任应当应由使用者承当,还是人工智能的开发商承当,亦或是由人工智能承担(因为人工智能的算法决定了有的决策,就连开发者都不能确定人工智能的决策。)销售商没有理由承当刑事责任,选用在没有能力承当法律责任,而是人工智能更是没有相关的法律责任能力。那么对于人工智能所产生的法律问题是否需要修改刑法或者民法等法律的相关规定,如对非自然法人进行扩展,对人工智能进行拟人化处理。

人们对于人工智能的恐惧一方面不知道人工智能到底有多大的能力来改变你如今的社会生活状况,此外应是即使人工智能产生的法律责任到底由谁来担负亦没能明确的规定。我们要对人工智能所犯的罪定死刑吗?对人工进行囚禁吗?对人工智能进行财产上的处罚吗?对人工智能使用者进行处罚吗?

Gabriel Hallevy对人工智能人工智能的定义,提出了三种形式刑事责任承担方式。分别是Perpetration-by-Another 责任, Natural-Probable-Consequence 责任,Direct 责任。[7]监护责任模式(Perpetration-by-Another)。这种模式是把人工智能认为是没有意识的智能或使用工具,他完成的工作都是人类设定而产生的,工具就是工具,并不是具有完全民事或刑事责任能力的人。虽然其有一定的思考能力,经由以上的观点可以看出人工智能可能作出设计者均无法设定的事情,可把它当成是无民事或无刑事责任能力的人,它所产生的相关责任由其监护人(使用者)承担相应的法律责任。而另一个人承担,包括它的使用者或者是软件的设计者来承担。

自然事件(Natural-Probable-Consequence model)。此种形式是在应用人工智能的时,它们的设计师或使用者没认识到人工智能可能产生犯罪的可能。设计这样的一个情景,一个AI设计出在Internet上收集信息内容解决问题或是创建数据库系统时,它可能收集到别人的专利相关的信息内容或者应是别人的个人隐私信息内容等等,把这些信息内容自动的存放在自身的数据库系统展开刊发或者出卖。参考我国关于个人信息侵害相关的法律,这种状况下设计者或者使用者对侵害别的主体的相关教学信息不是其原本的意图,在我国可能产生鉴于过失的犯罪。

直接责任模式(Direct model)。这种犯罪模式中设计者和使用者都不承担相关的法律责任。把这种责任归于人工智能本身。参考人类犯罪所必须要的因素进行论证人工智能应当承担相应的法律责任。一个人工智能所拥有的遗传算法在特质和能力方面远远的高于人类的平均水平。例如超高的运算速度(思考能力),大原始数据为依托的数据库系统(知识储备)等等,所以在智力方面应是远高于人类的认知和处理能力。那么在客观方面和主观方面又该如何考虑?从客观方面,如人工智能技术应用到无人车上,当人工智能本身存在漏洞时,人工智能完全可以控制汽车撞向周围的人或者事物,人工智能控制的电能或工厂中的机械臂等完全可以伤害到周围的工作人员。从主观方面,考虑到认知能力方面的问题,或者是考虑人工智能的创造性。

(二)人工智能的监管

人工智能产品的监管问题。法律规范不了其制定前先用者的行为,而用占者又利用积累的优势来抢占法律未规定的领域。[8] 人工智能技术发展的监管问题。工智能的所留下的潜在影响有好有坏,假如能在精确及时地监控下或是预判发展人工智能技术手段,才像是对自动武器的限制等。在根据人工智能方面的法律拟定或是适用,创办相关领域的专业人士和法律职业业务人员组成人工智能伦理理事会或是“人工智能法院”。

三、结语

人工智能带来的伦理、法律和社会影响等问题人类应当做出必要的应对。应该创建人工智能在法律及监管方面的深入研究,先确立人工智能法律方面的伦理根底建立伦理构架。拟定人工智能开发的根底游戏规则,防止对于人类有害的人工智能商品的研发,强化人工智能建设项目开发之后的预评估程序,此外创建人工智能突发关键问题的根底解决方案。

1.对于算法的设计是否公道、公正、透明并且有责任意识,对于研究业务人员的要求应是使得人工智能作出的行为和结果能够被人类理解和认同。

2.人工智能子系统的安全性问题,鉴于人工智能本身和应用环境的动态性,造成的财产损失都应是当前难于估量,所以人工智能应当新的认证质量标准以及监管指标体系。

3.人工智能设计者科研自由的权利和法律监管的矛盾。人工智能是把双刃剑,如果设计真按照符合人类利益的标准来设计人工智能当然最好。但如果设计者的错误或者故意设计对人类有害的程序。怎样平衡设计者科研自由的权利和法律监管问题。怎样平衡设计者科研自由权和大部分人类利用的权利。

参考文献

[1]参见《中国人工智能未来之路》,载《中国发展高层论坛》,2017年.

[2]阳嘉嘉:《“人工智能+法律”空间巨大》,投资基金关注前瞻产业,2016,

[3]转引自郑戈:《人工智能与法律的未来》,《探索与争鸣》,2017年,第80页。

[4]参见周玲敏:《关于人工智能及其法律问题的思考》,载于《法制博览》,2016年,第231页。

[5]参见[德]霍斯特·艾丹米勒著,李飞译:<机器人的崛起与人类的法律》,载于《法制现代化研究》,2017年4期,第63-65页

[6]Gabriel Hallevy:AI v IP-Criminal Liability for IP Offenses of AI Entities.8。https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2691923

[7]转引Gabriel Hallevy:AI v IP-Criminal Liability for IP Offenses of AI Entities.5 https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2691923

[8]郑戈:《人工智能与法律的未来》,《探索与争鸣》,2017年,第80页。

作者简介:李泽兵(1988-05),男,汉族,四川成都人,四川省社会科学院研究生学院,硕士研究生,主要从事民事诉讼方面研究。