研究者希望能给人工智能加上安全装置,让它真正行稳致远
人工智能用于医疗出现误诊谁担责,是提供技术的公司,还是医院、或者是医生?
自动驾驶汽车上路发生交通事故,责任在车主还是车辆生产方?
并非所有人都有能力迈过技术性和社会性壁垒,未来会否出现“无用人群”?
……
人工智能浪潮方兴未艾,正带来知识生产和利用方式的深刻变革。不过,对研究者来说,还有一件更重要的事儿——人工智能的伦理道德问题。
当地时间4月8日,欧盟委员会发布了一份人工智能(AI)道德准则。
据外媒报道,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现“可信赖人工智能”的7个要素。
此前的草案为“可信赖人工智能”提出了一个官方解释:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”;其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。
加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”
欧盟出台准则的背后,是人工智能不可忽视的挑战。
比如,在社交媒体中,人工智能将观点相近的人相互聚拢,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。这时候,人工智能就可能造成偏见强化,加剧社会分化与撕裂。
再比如,人工智能的发展,让技术的垄断越来越严重。一方面这些技术给生活带来便利,另一方面也在某种程度上控制着人类的生活。
在科学家看来,人工智能和其他技术特点不一样,很多人工智能技术具有自主性,如果没有适当的防范措施,一旦失控就不堪想象。“这就像在盖房子之前要先打好地基。不能等到出现了严重的问题,再制定措施去防止。”
此前,研究人员一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。
大家所熟知的最早关于机器人的伦理规定,是著名科幻作家阿西莫夫上世纪设计的防止机器人失控的“机器人三定律”:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来又加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。
但是随着人工智能不断发展,“机器人三定律”已经远不能适应时代。
新的伦理原则制定也正提上各国政府的议事日程。综合看来,尽管新原则各有不同,但突出以人为本的理念始终不变。百度公司创始人李彦宏在2018年中国国际大数据产业博览会上提出了“人工智能伦理四原则”,首要原则就是安全可控。
显然,人工智能正帮助人类社会向充满不确定性的未来疾驰。在冲进未知之门前,需要给它装上安全装置,让它真正能行稳致远。
去年,中国发展研究基金会发布报告《未来基石——人工智能的社会角色与伦理》中,就建议各国政府促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通;并加强国际合作,建立多层次的国际人工智能治理机制。
欧盟委员会也表示,提出人工智能道德准则只是第一步,未来他们还将邀请工业界、研究机构和政府机构对该准则进行测试和补充,最终制定以人为本的人工智能共识。