华东交通大学马克思主义学院(江西南昌 330013)
摘要:人工智能在推动全球经济社会发展进步、增添公众现代生活巨大便利之时,也使人类面临着算法歧视、隐私保护忧虑、安全隐患犹存与责任主体不清、机器人之“人”权问题等伦理风险。开展立法研究,构建适配法律法规体系;拟设伦理准则,规范人工智能技术研发;加快科技创新,优化人工智能学习模型;提升安全标准,力推人工智能产品认证;加强伦理宣教,拓展人工智能可接受度;促推全球共治,应对人工智能伦理挑战,是有效防范治理人工智能伦理挑战的积极选择。
关键词:人工智能;伦理风险;防范治理
随着大数据、物联网、云计算等现代科技不断发展,人们所获取的信息和知识量与日俱增。面对庞杂的天量信息,仅仅依靠人力,显然事倍功半。为了提高效率,人工智能(Artifical Intelligence,简称AI)技术应运而生。人类迈入21世纪以来,以AI为核心的信息技术迅猛发展,这势必改变社会各行各业传统的运行态势,对劳动生产方式、财富分配方式、社会功能职能划分等方面带来颠覆性影响。随之而来,会引发一些全新的伦理问题。有效化解人工智能引发的伦理风险,才能积极引导和规范AI技术的趋利避害和向善发展。
一、人工智能界定及应用
1、人工智能
所谓人工智能,是指研究开发用于模拟、延伸与拓展人的智能之理论、方法和技术应用系统的一种崭新技术科学。从学科属性看,人工智能乃是计算机科学衍生出来的一个旁支。它试图解析智能之特质,并研究发明一种全新的类似人类智能方式可做出反应的智能机器,涵盖机器人、语言与图像识别、自然语言处理和专家系统等等。通俗地说,人工智能作为计算机学科的一大分支,通过设计算法对人的思维及行为开展模拟,凭依丰富的数据样本和高效的计算机运行速度来提升某一特定工作的办事效率及工作质量。斯坦福大学著名学者尼尔逊指出:“人工智能是关于怎样表示知识、以及怎样获得知识并使用知识的科学”。这个表述高度概括了人工智能学科的核心思想与主要内容,即人工智能是通过多个学科的交叉应用,探究人类智能活动(包括逻辑推理、归纳总结、思考学习等)之规律,并利用计算机软硬件创造出具备人类智能才能完成事项的机器或者人工智能系统。简而言之,人工智能是一门利用计算机研发模拟或者效仿人类智能行为的技术科学。
2、人工智能应用
当今,人工智能应用非常普遍,涉及公众日常生活诸多方面。医学领域,人工智能常用于辅助性诊断治疗、药物研发利用、影像图片智能识别辨认等。以辅助诊疗为例,使用能识别判读人体神经信号并容易穿戴的机器人来制造智能假肢体、外骨骼及辅助性设备,以此修补人类病患者受损身躯;使用医疗保健机器人辅助医护人员承担手术或进行医疗保健,美国直觉外科公司(Intuitive Surgical)研发达·芬奇外科手术机器智能系统即为典型,能够提升手术成功率。交通领域,人工智能常用于智能收费(ETC)、城市智能交通控制、自动驾驶等。以城市智能交通控制为例,通过引入人工智能技术,记录不同路口的车辆流动数量,设计最优算法,随时随地根据实际需要来控制信号灯颜色变化时间,提高信号灯转换的灵活性和准确性,减少每辆汽车等待时间,从而有效缩短所有车辆通过指示灯的总时间,大大改善交通拥堵问题。教育领域,人工智能可运用于拍照搜题、辅助教学、开展远程教育。以辅助教学为例,教学过程中,使用人工智能技术对试卷进行智能批改,可以减轻教师负担,使教师能够专注于教学设计、学生互动、专业发展,从而提高教育质量。
二、人工智能引发的伦理风险
人工智能和大数据的广泛运用,对人类社会有着多元影响。既可以拉动经济发展、为人民造福、推动社会进步,亦或能导致安全失控、法律失准、道德失范、伦理失常以及隐私失密等问题出现。区别于其他科技革命仅仅牵涉到法律与经济问题之争,人工智能发展则自始至终缠绕着伦理层面的博弈与思辨。
首先、算法歧视。2018年,IG(Invictus Gaming)电子竞技俱乐部夺冠后,IG战队老板王思聪通过微博进行抽奖,随机抽出113个用户,每人颁发一万元奖金。在参与用户男女比例相近情况下,获奖比率,女性远超于男性。算法(Algorithm)是指一系列准确完整的解题方案或精确处理问题的清晰指令。算法可谓是用系统方法优化解题之策略机制,其设计方式方法、目标宗旨、成功标准、样本采集、数据运用、运算结果等,均由设计者或开发者主观遴选抉择。设计者、开发者可以随心所意地把自身喜好偏见,代入算法系统之中。在全程运算时,通过大量数据的采集与筛选,造成偏差值鲜明的算法歧视。算法歧视产生的危害显而易见。若把算法应用于同人身切实利益紧密相关之处,诸如犯罪评价、信用贷款、能力评估等方面,一旦形成歧视,势必伤害个人权益。
其次、隐私保护忧虑。在日常生活中,人们用手机在某一APP里主动搜索的关键词,都将成为其他APP的推送事项,不禁让人产生自身数据泄露之担忧。这与AI系统需要海量数据来训练学习算法相关,因为在AI深度学习过程中,所用数据或许会在后续被披露出来,从而导致个人隐私泄露。另外,数据在各类服务之间频繁流动,削弱了个人对自身数据的控制与管理,大大增添了被攻击的风险和路径。以人脸识别技术为例,通过人脸识别,人们的面部信息均被AI完整记录下来。该项技术能够帮助警察快速锁定犯罪人员,然而,当人们的面部信息被非法采集后,使用方式却无法保证完全受控或者依法有序运用。
再次、安全隐患犹存与责任主体不清。英国著名物理学家史蒂芬•霍金、美国特斯拉公司总裁埃隆•马斯克等人,均发表人工智能或许会威胁人类生存之告诫。从美国科幻小说作家艾萨克·阿西莫夫提出“机器人学三定律”,至2017年美国加州召开阿西洛马会议制定“人工智能原则二十三条”,再到2018年北京举办第七届世界和平论坛提出“人工智能六点原则”,人工智能安全是人们自始至终关注的焦点话题。与此同时,自动驾驶技术进入测试阶段以后,曾出现交通事故,甚至导致人员伤亡。由此可见,人工智能本身仍然存在着安全隐患。
最后、机器人之“人”权问题。人工智能未来发展的重大趋向是深度学习能力,将来或能产生具备自我意识的超级人工智能。随着自主智能机器人日愈强大、越来越接近真人,甚至具备人类的思维以后,如何看待“它”们?“它”们是否具有相应的权利?“它”们与使用者之间的关系又将变成什么样?乃至“它”们是否愿意继续为人类服务?“它”们是否会挤占属于人类本身的工作机会?如何应对超级人工智能可能失控所导致的风险?诸如此类问题,均需人们大费周章、深入思考、精准应对。
三、有效防治人工智能伦理风险的积极选择
1、开展立法研究,构建适配法律法规体系
欧盟为有效应对人工智能伦理挑战,率先加强立法研究,着重明晰关键领域人工智能应用过程中的法律主体和相关权益与责任,在创设适配智能时代法律法规体系方面进行了有益探索。2016年5月,欧盟议会颁布《就机器人民事法律规则向欧盟委员会提出立法建议》草案,要求欧盟评判人工智能导致的重大影响。2019年4月,欧盟又出台《可信AI伦理指南》和《算法责任与透明治理框架》等文件,既为欧盟人工智能战略“构建恰当的伦理和法律框架”,也为后续完善法规奠定基础,这凸显了欧盟促推AI治理之最新努力。我国针对人工智能伦理风险,未雨绸缪,建章立制工作业已展开。2020年7月,国家标准化管委会、中共中央网信办、国家发改委、科学技术部、工业和信息化部联署颁发《国家新一代人工智能标准体系建设指南》,将人工智能安全/伦理标准列入其中,这为积极应对人工智能伦理问题具有指导性意义。此外,许多国家也倡议对人工智能进行立法。然而,迄今为止,国际社会针对人工智能的立法规范,虽已初备纲领性意见,但立法纲领、量化标准、惩处具体措施尚欠完善。目前,人工智能领域只具备行业标准,仍未形成完整成型的法律体系。人工智能立法任重而道远,不仅要制定以人为本的纲领性法规,而且仍需针对不同领域的人工智能,进一步细化法律规范。以无人驾驶汽车为例,交通事故肇发后,该怎样判断主体责任、如何定责?都需要相应的人工智能法律法规体系来加以规范。
2、拟设伦理准则,规范人工智能技术研发
2019年“两会”期间,腾讯公司总裁马化腾就科技伦理建设强调,要“进一步加强科技伦理对科技活动的引导和规范”,力促科技活动发展更加利国利民。人工智能在设计初始,理应遵循人类社会的基本道德伦理标准,即在系统研发阶段,必须设计合理算法,把合符人类道德标准的核心代码嵌入人工智能系统之中。那么,什么样的算法,才真正符合人类道德标准?这需要依靠艾萨克·阿西莫夫的“机器人学三定律”来衡量:“机器人不可危害人类个体或坐视人类个体受伤;在同第一定律不冲突前提下,机器人必须听从人类的指令;在不违反第一和第二定律条件下,机器人可以履行自我保护之义务”。人工智能最基本的伦理标准,即人工智能的权益不得高于人权,无论人工智能是否能衍生出自我意识。研发人工智能,究其本质,就是为了推动经济社会健康发展,大大便利人民生活。因此,人工智能技术开发,必须以实现人类根本利益作为最终目标,即遵循人类根本利益原则。如果赋予人工智能高于人类之权益,则与研发其初心完全相悖。人工智能伦理困境的治理,一方面,必须以技术发展与规制作为主题主线,打造涵盖技术、政策、道德、法律等多层次的伦理治理体系。另一方面,需要建构人工智能技术研发的伦理防范机制:一是加强开发者思想道德教育,提升其道德素养,使科研人员在研发中自觉遵守必要的伦理规则,避免怀抱损害人权之目的进行工作。二是完善人工智能技术研发规范,进一步打破人工智能涉及学科之间的隔离墙,制定多学科交叉研究及成果应用的伦理规范,便于评判机器人的道德风险。三是组建人工智能监管委员会,对人工智能系统行为是否逾越人类社会伦理道德规范进行有效监督管理,严肃处理不合规、不达标的研发主体。
3、加快科技创新,优化人工智能学习模型
现有的人工智能学习模型,仍处在一种暗箱作业模式状态。因为人工智能系统运行过程中发生变异,人们难以诠释其原因,即人们很难控制人工智能自我学习的方向。复旦大学哲学教授徐英瑾强调:“深度学习并非人工智能研究的康庄大道”。复杂的学习模型产生错误的几率越高,寻找生错缘由的概率就越低。所以,要推动人工智能自主选择向善发展,就必须提升科技水平,优化人工智能学习模型:其一,亟需开发一种工作模式更透明、产生结果诠释性更强的智能计算模型,创新一类可判读、可理解、可预测、可稳靠的智能系统,大大降减人工智能系统行为的不可预知性及不确定性。其二,对于新研发的人工智能算法,尽量使其研发过程逐步透明化,并在投入使用之前进行必要的风险评估,避免“技术先行”。然后,制定专业完整的测试链,依据用户测试结果,不断修正人工智能产品。其三,创建严格的监管体系,加强对人工智能产品生产全过程的管控监督,以确保产业链的完整与安全。
4、提升安全标准,力推人工智能产品认证
稳妥可靠的人工智能系统,理应具有高标准的安全性能,不仅能适用于复杂环境,易于理解、操作、使用,而且可有效防范抵御各类蓄意侵袭和攻击,积极排除因异常操作或恶毒破坏而产生的安全事故。设计研发新型人工智能系统,必须力推产品安全认证:一要制定应急预案,防范化解人工智能产品生产、使用过程中可能存在的风险。二要提升人工智能产品开发安全标准,并强化产品安全认证,从技术维度扩增人工智能系统的安全性、稳靠性、强健性,例如升级芯片设计安全标准,严控组成零部件质量,提高质检标准等。三要严格把关产品使用安全性能,并实施专业化运行维护,实时监测人工智能系统运行的各环节、全过程。对于产品使用中的误操作,需预设一定的容错率;对于肆意破坏的恶行为,可通过专业监测,及时通报厂商或有关监督机构。
5、加强伦理宣教,拓展人工智能可接受度
伦理风险之所以列入风险的重要议题,这是主观认知同客观实际紧密结合之结果。当风险因素通过各种中介传递以后,公众个体能从价值、心理和文化等方面来感知,并形成风险判断,放大或缩减伦理风险,最终形成公众伦理风险感知。目前,普通公众对人工智能引发的伦理风险知之不多,甚至对人工智能技术产生误解、担忧其抢占人类本身的工作职位,质疑人工智能系统的安全性与稳定性等,从而造成心理恐慌。为了提升人工智能可接受度,务必增强伦理宣传教育:其一,开展人工智能技术科普工作,强化公众的基本认知。可以把人工智能伦理课程纳入学校教育,让人工智能伦理规则深入学子之心;可以举办人工智能伦理科普宣传活动,引导公众关注其基本伦理规则、了解设计研发人工智能应遵循的规范条件。其二,唤起公众监管人工智能产品的自觉意识。公众作为人工智能技术产品的直接使用者和受益者,可以不断收集其消费意见,既能用以引导和监管人工智能技术向善发展,又能拓增公众对人工智能产品的可接受度。其三,公开透明人工智能伦理政务信息,增强公众对人工智能产品发生事故的知情权和敏感性,允许公众针对特定事件可以提出合理解决的意见与建议。
6、促推全球共治,应对人工智能伦理挑战
如何回应人工智能迅猛发展所引发的风险与挑战,这是整个人类社会共同面临的问题。世界各国应当在构建人类命运共同体的理念指导下,携起手来,深化人工智能伦理风险全球治理:厘清研发主体、政府机构、国际组织三者的相关职责,引领各国有序参加人工智能的伦理研究及顶层设计;大力开展机器人伦理与安全风险等问题研究的国际性合作,增强人工智能领域法律体系、伦理规范、行业监管等方面的互动交流与国际协作;发挥各国合力,确立人类公认的、国际统一的人工智能技术与安全标准,让人工智能技术更好地为全人类造福。
四、结语
伴随着现代科技的巨大进步,人工智能日益契进人类的正常生活、学习、工作当中,影响将愈来愈大,这正是公众未来智能化生活大势所趋。我们在充裕享用人工智能巨大便利之际,应该理性思索人类社会同人工智能的辩证关系,积极规避人工智能的伦理风险,使其更加安全、高效地为人类服务。
参考文献:
[1]周苏,王文.人工智能概论[M].北京:中国铁道出版社,2020.
[3]王东,张振.人工智能伦理风险的镜像、透视及其规避[J].伦理学研究,2021(01):109-115.
[3]谭九生,杨建武.人工智能嵌入政府治理的伦理风险及其防控[J].探索,2021(02):126-138.
[4]郭锐.人工智能的伦理风险及其治理[J].北京航空航天大学学报(社会科学版),2020,(06),18-23.
[5]陈磊,王柏村,黄思翰,张吉豫,郭锐,鲁俊群.人工智能伦理准则与治理体系:发展现状和战略建议[J].科技管理研究,2021,(06):193-200.
[6]季凌斌,周苏.AI伦理与职业素养[M].北京:中国铁道出版社,2020.
【作者简介】万佳馨(1994.09-),女,汉族,江西南昌市人,华东交通大学马克思主义学院硕士研究生在读,主要研究方向:马克思主义中国化。