医疗人工智能法律风险及对策探析——以患者角度出发

(整期优先)网络出版时间:2021-04-02
/ 4

医疗人工智能法律风险及对策探析——以患者角度出发

张博妮 1,陈昱洁 1,毛湛 2,邓川弘 1

1 南京审计大学,法学院, 211815 2南京审计大学,金融学院, 211815

【基金项目】本文属于国家级大学生创新训练项目《疫情背景下人工智能医疗应用风险法律防范机制研究》(项目编号:202011287028Z)研究成果。

作者简介:

张博妮,女,生于2000年9月,汉族,浙江宁波人,南京审计大学,本科在读,法学(法务会计方向)专业


摘要:医疗人工智能的发展正逐步推动着传统医疗行业的升级与转型,当然它在带来机遇的同时,其背后也隐藏着不少技术伦理法律上的风险,值得我们警惕。本文将从法律层面探讨医疗人工智能相关风险,医疗人工智能最终服务于患者的健康,针对患者的法律风险需要引起格外重视。与患者合法权益密切相关的法律风险中,主要有医疗人工智能事故归责难度大、患者寻求救济难、医患伦理冲突加剧等问题。患者对医疗人工智能的充分信任,是医疗人工智能最终落地的关键因素。故本文从患者的视角,进一步探讨医疗人工智能背后的法律风险及相关解决路径。

关键词:医疗人工智能 患者 法律风险



近年来,随着《“互联网+”人工智能三年行动实施方案》等文件的出台,医疗人工智能逐渐成为人工智能应用范围内最具前景的方向之一。医疗人工智能技术在电子病历、影像诊断、健康管理、药物研发和医疗机器人等方面进展迅速,对我国经济的发展、社会接受度的提升有重大推动力。但因考虑到人工智能本身与人类思维在多方面的高度重合却也有多处不一的情况下,因而医疗人工智能的发展机遇与挑战并存。

虽然人工智能在个性化医疗诊断,提高医生出诊效率,帮助患者自我监测等方面取得了较为明显的进步,但是人工智能的存在与既有规则体系产生冲突,即人工智能本身所存在的“技术黑箱”及“自主化学习”使临床诊断面临一定的风险。一旦发生医疗人工智能诊断失误或手术损害事件,对于处于弱势地位的患者来说,需要如何解决此类问题以及更好地规避风险,都是亟需讨论的重点。

  1. 医疗人工智能实施背景

  1. 政策支持

根据国家科技管理信息系统公共服务平台于2016年发布的《关于对国家重点研发计划“精准医学研究”2016年度项目安排进行公示的通知》,“精准医学研究”重点专项被拟入为年度项目且实行公示。同年10月,中共中央、国务院印发并实施《“健康中国2030”规划纲要》,纲要旨在推进健康中国建设,提高人民健康水平。2018年,国务院办公厅发布《关于促进“互联网+医疗健康”发展的意见》,提出关于健全服务体系、完善支撑体系和加强行业监管的意见。

传统医学的弊端正在随着时间不断显露,无论是“精准医学研究”“健康中国”还是“互联网+医疗健康”,这些政策都指向了一个新的发展方向——医疗人工智能(AI)。2017年7月,国务院印发并实施《新一代人工智能发展规划》,紧握机遇,寻找发展新优势,加速科技强国的建设。

  1. 经济投入

自从相关政策出台以来,中国医疗AI市场发展迅速。据有关数据,2013- 2017四年间,中国医疗AI行业共获融资241笔。其中2017年尤为突出,医疗机器人行业市场规模达到了24.8亿元。据中国电子学会与前瞻产业研究院的统计整理:2018医疗机器人行业市场年较上年上长约30%,2019年同比上长34.2%。有数据科学显示2019年中国服务型机器人市场规模约为150亿元,其中医疗机器人市场规模占比超过了总市场的四分之一,未来发展极其可观。

2020岁首,疫情蔓延。医疗AI在战疫中表现出色:体温快速检测、大数据实时防控、无接触机器人接待、医学影像判读……就目前来看,未来国家将继续加大经济投入鼓励对医疗人工智能行业发展。

6066dbbaefce7_html_a3533b49cc5166d5.gif1

  1. 社会调查

项目团队开展问卷调查,进一步了解了作为患者角色的社会大众对医疗人工智能的态度。研究显示:在245份有效问卷中,对医疗AI有了解的人仅有10人,占总人数的4%,比重较低。大多群众可能只是听过但没有去了解过,“不了解”和“完全不了解”的人数占比达62.45%,对医疗人工智能的宣传普及有待加强。

在受访的调查者中,对医疗人工智能的接受程度比较乐观。其中40%的受访者对其表示接受认同,33.9%的受访者持观望态度。从中可以看出有较大一部分社会大众并不排斥医疗人工智能。对了解程度和接受程度两者进行置信度为0.05的双侧检验,设原假设H0;两组数据不相关,备择假设H1:两组数据相关。由分析结果可知,双侧检验的显著性为0.159,大于0.05的置信度。所以不拒绝原假设,即认为人们对医疗人工智能的了解程度和接受程度之间不存在相关关系。医疗人工智能的了解程度虽然不尽如人意,但是这并不影响人们对它的接受。相信,通过加大对医疗人工智能的普及,会有更多“中立”的人选择“接受”。

6066dbbaefce7_html_b7e110ed6959a2e5.gif6066dbbaefce7_html_742b36874ad5b618.gif

相关性


了解程度

接受程度

了解程度

Pearson 相关性

1

.090

显著性 (双尾)


.159

N

245

245

Bootstrapc

偏差

0

.000

标准错误

0

.068

95% 的置信区间

下限

1

-.045

上限

1

.223

接受程度

Pearson 相关性

.090

1

显著性 (双尾)

.159


N

245

245

Bootstrapc

偏差

.000

0

标准错误

.068

0

95% 的置信区间

下限

-.045

1

上限

.223

1





  1. 技术支撑

医疗人工智能的应用可以分为五个场景:电子病历、影像诊断、健康管理、药物研发和医疗机器人。这些场景对应的技术有:自然语言处理、语音识别、图像识别、大数据分析、文献搜集整理等等,这些技术在我们日常生活场景中就有着大量的运用,例如手机的语音录入以及图像识别功能。相信在未来这些技术的发展会更加精进,能更好的运用到医疗人工智能中去。

  1. 医疗人工智能事故中患者面临的法律风险

我们在肯定医疗人工智能的同时仍须面对医疗人工智能带来的法律风险,虽然国家有政策、经济与技术上的支持,但是目前缺少规制其法律风险的完备对策。医疗人工智能风险主要涉及到四类主体:患者、医生、医疗机构以及医疗AI设备的制造/研发商。关于医疗人工智能的社会调查显示出作为其服务对象的大众群体对医疗人工智能的态度仍有所保留,以下围绕患者将面临的法律风险展开分析,突破这些限制因素才能使医疗人工智能正真为全人类的谋福祉。

  1. 医疗事故归责难

医疗人工智能一定的缺乏可解释性,医疗人工智能算法透明度不高,其内部决策逻辑并不总是能够理解的,较多因素可能影响医疗人工智能最终的服务质量,比如设计缺陷,设计时不同因素的排序先后,然而设计缺陷后期是很难追踪的,再如采样的医疗数据本身存在偏倚问题等。况且,传统医疗领域本身就存在许多无法解释的情况,患者身上发生医疗事故后,事故归责难度较大。

另外,医疗人工智能事故因果关系认定难度较大,已研发的医疗人工智能种类颇多,由于不同的功能,在为患者诊疗过程中起着程度不一的辅助作用,法律风险和责任的分配也难以统一,在认定因果关系时需差别对待,但人工智能医疗行业至今尚未有行业标准,如何界定因果关系,由什么主体来判定,界定后对应的归责体系如何构建都是当前亟需解决的难题。

  1. 患者寻求救济难

人工智能在赋能医疗行业的同时,也会成为诱发医疗事故的原因,即便人工智能的引入会降低事故的发生,却无法杜绝,故仍需相应的救济路径来进一步保障患者权益。

鉴于与传统医疗事故有较大区别,医疗人工智能产生的法律问题更为复杂,医疗AI本身的法律地位也尚未明晰。欧盟在2016年曾抛出:将智能机器人拟人化并赋予之权利与义务使之成为法律主体的观点。但具体问题必然要具体分析,有学者认为应将医疗AI进行精准的分类:具备辅助性工具特点的医疗AI仍属于“物”归属特殊医疗器械按规章制度进行管理;而对于通过“图灵测试”的具有一定自我意识的医疗AI应赋予一定权利与义务,使其具有人格甚至成为“公民”。但是这种精准的分类方法目前难以实现,故传统侵权法、合同法等民事规则的适用局限性凸显,相应保险制度也未完善,比如面对一定程度上由于人工智能技术漏洞造成的患者信息泄露,没有明确的法律制度管控相关风险。

另外,即便创制专门的法律也未能彻底解决救济问题。由于人工智能技术的先进性及大众对人工智能认知水平的局限性,司法实践过程中对法律从业者也构成较大的挑战,有时需要专业机构或专业人才的辅助,也不可避免的增加患者救济成本,致使处于弱势地位的患者寻求医疗侵权的救济困难重重。

  1. 医患伦理冲突加剧

医疗人工智能的服务形式主要是以患者为中心的人机交互,因此传统的医患关系及医疗决策过程发生较大变化。首先是医患之间情感交流及关怀的缺失。当下,在相同的时间内为更多的病人诊疗和能与病人进行相对深入的沟通的矛盾通常让医生两难,医生的言语神情上的关怀及宽慰能在较大程度上影响患者的治疗心态,面对较为冰冷的机器,患者或许会产生一定的心理障碍,也可能进一步导致对医疗人工智能的不信任。其次,在医疗事故中人工智能容易成为医生失误的挡箭牌,出现责任推托的现象。对比前者患者诊疗体验感的下降,后者导致的法律风险更需引起我们的重视,这可能导致医疗事故责任主体的模糊化处理,对患者来说是极为不公的,同时也不利于医疗人工智能行业的长足发展。疾病诊断及医疗决策的主体责任认定方式及医生在使用医疗人工智能设备时的权利义务的界定,是当前医疗人工智能在各类医疗机构落地前须首先厘清的。

  1. 管控医疗人工智能事故法律风险相关对策

(一) 完善相应侵权责任认定制度

《民法典》规定,因医疗器械的缺陷造成医疗事故,可由上市许可持有人、生产者、医疗机构承担连带责任。2当前对医疗人工智能设备仍未作出明确的法律定位,法律定位不同,则责任承担不同。如今的我们处于弱人工智能时代,市场上多数医疗人工智能设备倾向于器械工具类产品,可适当借鉴传统法律对医疗事故处理的相关规定,可将责任主体范围延伸至医疗人工智能设备研发方及生产方,设计者常常处于风险源头而易被忽略。但随着技术不断发展,可充当医生角色的医疗人工智能设备逐渐创制及使用,一旦发生医疗事故,其中的因果关系及责任认定将会更加艰难,笔者认为另设立专门的负责辅助处理人工智能相关事件的官方中介机构则为十分必要,引入专业群体,根据不同情形合理构建过错推定及无过错责任认定制度,有效保护患者的相关权益,减轻传统司法的对相关案件的责任认定负担。

(二) 完善医疗人工智能事故法律救济路径及相关保险制度

目前我国现行法律规定中,没有适用医疗人工智能事故处理的明确规定,导致患者的合法权益在医疗人工智能事故中无法得到有效保护,面临寻求救济难的问题。鉴于此,首先明确医疗人工智能的法律属性及地位,不至于其在未来的发展中因部分未知情况而导致出现难以控制的后果,给患者等相关人员带来不可估量的损失。明确了其基本的法律属性,可适用或借鉴现行法律法规中部分明确规定来处理相关事故,是当下切实保障患者的基本权益最高效的解决方式。当然,创制专门法律更能为该类事故的处理方式作出规范仍是必要的,在根本上为患者提供明确的法律救济路径。

不过责任若由医疗AI的操作者(医生)、医疗机构或者是研发制造者承担,势必会很大程度上增加他们的责任负担与精神压力,从而间接阻碍医疗人工智能正常发展。因此十分有必要出台针对这上述主体的责任保险制度,推出相关的人工智能医疗责任商业险和人工智能安全生产责任险等产品。

对于保险合同主体中的投保人到底是医生还是医疗机构,《民法典》中明确规定:“患者在诊疗活动中受到损害,医疗机构或者其医务人员有过错的,由医疗机构承担赔偿责任。”3故投保人应为各个医疗机构,保险标的即为侵权或者医疗事故所致的损害赔偿责任。一般而言,责任保险的保险合同中不会出现确切的保险金额而规定损害的赔偿限额。有学者认为该种保险的赔付具有很大程度上的公益性,保险所带来的正向外部效应很大,不仅能解决切手的医疗AI问题的赔付,还能缓解医闹等不良事件,稳定社会,促进和谐发展。对于医疗AI的研发制造者亦是同理。

当前我国的医疗责任保险尚处在起步阶段,为了以后更好的发展,商业保险公司也因该有所注意:第一,“保险姓保不姓资”。虽然保险公司主要是以盈利为目的,但是不能一味追求利益而将保险产品作为投资工具,违背了保障的初衷。第二,保险保费的拟定仍应基于大数定律与实际情况。对于医疗AI所暴露出来的风险不能盲目估算,需要科学的正确的拟定相关责任保险的保费。第三,避免保险歧视。由于我国地方发展尚存在不平衡的情况,各地医院的医疗水平势必也会不平衡。不能因为某医疗机构事故发生率较高就大幅上涨其保费甚至拒绝其投保,可以采取差额保费并将差额控制在一个合理的范围内,因此加强监管十分必要。

(三) 明确医务人员权限

医患关系早在医疗人工智能的推行之前就已是社会生活之中横梗于医患之间,而且医疗人工智能在使用过程中存在一系列更多的未知性,这将导致医患关系冲突加剧,故需采取有效的方法来缓解紧张的医患关系。《民法典》对医务人员说明义务与患者知情同意有明确规定,医务人员在诊疗活动中应当向患者或者其近亲属说明病情和医疗措施并取得明确同意。4但由于人工智能技术的先进性,大多数患者理解起来可能有较大难度。因此制定行业标准与规范,界定医务人员相关的权利义务,确保有序使用医疗人工智能设备将会是更有力的保障。但要强调的是,无论何时一定要坚持以人为本的基本原则,选择在最大程度上去考虑和保护患者的相关权益,

医疗人工智能设备往往不仅是依靠主治医生一人便可以正常实行的,还需其他医务人员在各个环节上共同操作。由此表明,需要法律约束的相关人员远不止表面上那么单一。伴随着医疗人工智能包含着极大的不可预测性,同时它也可能受到来自外界暗藏的不定性因素的干扰,这就更加突出了亟需仔细考虑医疗人工智能在未来发展过程中将会面临的未知风险,就目前能够提前发现的问题,结合现有的科技和相关法规政策,防止医疗人工智能成为医生躲避责任的挡箭牌,防止其成为其他医务人员逃避罪责的空白领域,防止其让本就处于弱势一方的患者雪上加霜,这对未来医患和谐共生发展极为不利。因此我们需坚持以人为本,以照顾弱势群体一方为基础出发,同时考虑到三方当事人主体所涉及的利益问题,制定更为严格且完善的法律体系来规制医疗人工智能存在的风险隐患。


结语

医疗人工智能的发展带给人类的机遇与挑战。一方面,人工智能与医疗在诊断、治疗、医疗护理等多方面有所应用,另一方面医疗事故的发生对于法律分析与判断提出了重大的挑战。尤其是在面对患者所面临的医疗事故归责难、救济难等多个问题时,法律应充分考虑患者所面临的风险与困难,从根本上落实规避风险的各项措施和方法。不同的法律处理方式会造成截然不同的影响。目前我国对于医疗人工智能的风险存在尚未形成完整且体系化的法制框架,因此,我国应采取相关措施,尽快完善、补充或修改相关法律法规体系,建立完善的技术规范和归责体系,平衡伦理与法律的关系。

总之,医疗人工智能对于人类健康及人类社会结构变革有重大影响。面对着医疗人工智能这一拥有着重大应用前景的新兴科技,我们应以审慎的态度、包容的心态以及体系化的法律结构去应对前所未有的风险与挑战,使得医疗人工智能朝着有利于全人类的健康福祉的方向稳步前进。


参考文献:

[1]李润生,史飚.人工智能视野下医疗损害责任规则的适用和嬗变[J].深圳大学学报(人文社会科学版),2019,36(06):91-99.

[2]王玥,戴海洋.医疗AI安全风险的伦理与法律保障机制研究[J].工程研究-跨学科视野中的工程,2020,12(03):241-251.

[3] 郭一帆.医疗领域人工智能的应用、风险及对策[J].西华大学学报(哲学社会科学版),2021,40(01):44-51.
[4] 衡敬之,何琪,钟楠鹏,徐容.我国智能医疗的发展困境与对策研究[J].医学与法学,2020,12(06):47-52.
[5] 邓智勇.人工智能背景下保险法律研究[J].合作经济与科技,2020(22):186-187.
[6] 张安成.民法视域下的精准医疗风险及防范措施研究[J].法制博览,2020(12):56-58+73.
[7] 范辉.医疗责任商业保险制度构建路径探究[J].安徽警官职业学院学报,2020,19(04):16-20.


1 数据来源:中国电子学会、前瞻产业研究院

2 《民法典》第1223条

3 《民法典》第1218条

4 《民法典》第1219条