分享到: | 更多 |
人工智能和包括机器人在内的智能化自动系统的普遍应用,不仅仅是一场结果未知的开放性的科技创新,更将是人类文明史上影响甚为深远的社会伦理试验。诚如霍金所言,人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。
人工智能体的拟主体性与人工伦理智能体
人工智能的伦理问题之所以受到前所未有的关注,关键原因在于其能实现某种可计算的感知、认知和行为,从而在功能上模拟人的智能和行动。在人工智能创立之初,英国科学家图灵、美国科学家明斯基等先驱的初衷是运用计算机制造能实现人类所有认知功能的通用人工智能或强人工智能。但科学家们不久就发现,要使机器像人一样理解语言和抽象概念,通过学习全面达到人类智能的水平,并非一日之功。迄今为止,应用日益广泛的各种人工智能和机器人尚属狭义人工智能或弱人工智能,只能简单地执行人交给它们的任务。
一般地,人工智能及智能自动系统能根据人的设计自动地感知或认知环境(包括人)并执行某些行动,还可能具备一定的人机交互功能甚至可以与人“对话”,常常被看作具有一定自主性和交互性的实体。有鉴于此,人工智能学家引入了智能体(agents,又称智能主体)的概念来定义人工智能:对能够从环境中获取感知并执行行动的智能体的描述和构建。于是,可将各种人工智能系统称为人工智能体或智能体。从技术上讲,智能体的功能是智能算法赋予的:智能体运用智能算法对环境中的数据进行自动感知和认知,并使其映射到自动行为与决策之中,以达成人为其设定的目标和任务。可以说,智能体与智能算法实为一体两面,智能算法是智能体的功能内核,智能体是智能算法的具体体现。
从智能体概念出发,使人工智能系统更为明晰地呈现为可以模拟和替代人类的理性行为,因可与人类相比拟乃至比肩的存在,故可视之为“拟主体”,或者说智能体具有某种“拟主体性”。如果仅将智能体看作一般的技术人造物,其研究进路与其他科技伦理类似,主要包括面向应用场景的描述性研究、凸显主体责任的责任伦理研究以及基于主体权利的权利伦理研究。但在人们赋予智能体以拟主体性的同时,会自然地联想到,不论智能体是否像主体那样具有道德意识,它们的行为可以看作是与主体伦理行为类似的拟伦理行为。进而可追问:能不能运用智能算法对人工智能体的拟伦理行为进行伦理设计,即用代码编写的算法使人所倡导的价值取向与伦理规范得以嵌入到各种智能体之中,令其成为遵守道德规范乃至具有自主伦理抉择能力的人工伦理智能体?
机器人三定律与嵌入式的机器伦理调节器
其实,这一思路并不新鲜,早在70多年前,美国人阿西莫夫在对机器人三定律的科学幻想中,就提出了通过内置的“机器伦理调节器”使机器人成为服从道德律令的类似构想。在短篇科幻小说《转圈圈》(1942)中,阿西莫夫提出了按优先顺序排列的机器人三定律:第一定律,机器人不得伤害人类或坐视人类受到伤害;第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。此后,为了克服第一定律的局限性,他还提出了优先级更高的机器人第零定律:机器人不得危害人类整体或坐视人类整体受到危害。
从内涵上讲,机器人定律是一种康德式的道德律令,更确切地讲是人为机器人确立的普遍道德法则,以确保其成为遵守绝对道德律令的群体。而更耐人寻味的是,机器人三定律是通过技术实现的。在《转圈圈》中,三定律是根深蒂固地嵌入到机器人的“正电子”大脑中的运行指令:每个定律一旦在特定场景中得到触发,都会在机器人大脑中自动产生相应的电位,最为优先的第一定律产生的电位最高;若不同法则之间发生冲突,则由它们的大脑中自动产生的不同电位相互消长以达成均衡。这表明,机器人定律并不全然是道德律令,也符合其技术实现背后的自然律。换言之,机器人定律所采取的方法论是自然主义的,它们是人以技术为尺度给机器人确立的行为法则,既体现道德法则又合乎自然规律。
历史地看,这些富有电气化时代色彩的机器人伦理设计实际上是一种科技文化创新。自英国作家雪莱夫人创作《弗兰肯斯坦》(1818)到捷克的恰佩克发表《罗素姆万能机器人》(1921),不论是前者呈现的科学怪人的形象,还是后者昭示的机器人造反,都体现了人对其创造物可能招致毁灭性风险与失控的疑惧。机器人定律则为摆脱这种情结提供了可操作性的方案——通过工程上的伦理设计调节机器人的行为,使其成为可教化的道德的机器人——合伦理的创造物。但从自然主义的方法论来看,这一构想又似乎明显超前。在提出第零定律时,阿西莫夫也意识到,机器人可能无法理解人类整体及人性等抽象概念。或许是这些困难令他转而畅想,一旦机器人灵活自主到可以选择其行为,机器人定律将是人类理性地对待机器人或其他智能体的唯一方式。这似乎是在暗示,使人工智能体成为可以自主作出伦理抉择的人工伦理智能体的前提是其可与人的智能媲美。
走向可计算的机器伦理与智能体伦理嵌入
回到人工智能的现实发展,随着无人机、自动驾驶、社会化机器人、致命性自律武器等应用的发展,涌现出大量人可能处于决策圈外的智能化自主认知、决策与执行系统,这迫使人们在实现强人工智能之前,就不得不考虑如何让人工智能体自主地做出恰当的伦理抉择,试图将人工智能体构造为人工伦理智能体。从技术人工物所扮演的伦理角色来看,包括一般的智能工具和智能辅助环境在内的大多数人工物自身往往不需要做出价值审度与道德决策,其所承担的只是操作性或简单的功能性的伦理角色:由人操作和控制的数据画像等智能工具,具有反映主体价值与伦理诉求的操作性道德;高速公路上的智能交通管理系统所涉及的决策一般不存在价值争议和伦理冲突,可以通过伦理设计植入简单的功能性道德。反观自动驾驶等涉及复杂的价值伦理权衡的人工智能应用,其所面对的挑战是:它们能否为人类所接受,在很大程度上取决于其能否从技术上嵌入复杂的功能性道德,将其构造为人工伦理智能体。
让智能机器具有复杂的功能性道德,就是要构建一种可执行的机器伦理机制,使其能实时地自行做出伦理抉择。鉴于通用人工智能或强人工智能在技术上并未实现,要在智能体中嵌入其可执行的机器伦理,只能诉诸目前的智能机器可以操作和执行的技术方式——基于数据和逻辑的机器代码——就像机器人三定律所对应的电位一样,并由此将人类所倡导或可接受的伦理理论和规范转换为机器可以运算和执行的伦理算法和操作规程。机器伦理的理论预设是可以用数量、概率和逻辑等描述和计算各种价值与伦理范畴,进而用负载价值内涵的道德代码为智能机器编写伦理算法。论及伦理的可计算性,古典哲学家边沁和密尔早就探讨过快乐与痛苦的计算,而数量、概率、归纳逻辑和道义逻辑等都已是当代伦理研究的重要方法,机器伦理研究的新需求则力图将“可计算的伦理”的思想和方法付诸实践,如将效益论、道义论、生命伦理原则等转换为伦理算法和逻辑程序。不得不指出的是,用数量、概率和逻辑来表达和定义善、恶、权利、义务、公正等伦理范畴固然有失片面与偏颇,但目前只能通过这种代码转换才能使人的伦理变成程序化的机器伦理。
在实践层面,机器伦理构建的具体策略有三:其一是自上而下,即在智能体中预设一套可操作的伦理规范,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。其二是自下而上,即让智能体运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。其三是人机交互,即让智能体用自然语言解释其决策,使人类能把握其复杂的逻辑并及时纠正其中可能存在的问题。但这些策略都有其显见的困难:如何在量化和计算中准确和不走样地表达与定义伦理范畴?如何使智能体准确地理解自然语言并与人进行深度沟通?
鉴于机器伦理在实践中的困难,人工智能体的伦理嵌入不能局限于智能体,而须将人的主导作用纳入其中。可行的人工伦理智能体或道德的智能机器的构造应该包括伦理调节器、伦理评估工具、人机接口和伦理督导者等四个环节。伦理调节器就是上述机器伦理程序和算法。伦理评估工具旨在对智能体是否应该以及是否恰当地代理了相关主体的伦理决策做出评估,并对机器伦理的道德理论(如效益论、道义论等)和伦理立场(如个性化立场、多数人立场、随机性选择等)等元伦理预设做出评价和选择。人机接口旨在使人与智能体广泛借助肢体语言、结构化语言、简单指令乃至神经传导信号加强相互沟通,使机器更有效地理解人的意图,并对人的行为做出更好的预判。伦理督导者则旨在全盘考量相关伦理冲突、责任担当和权利诉求,致力于厘清由人类操控不当或智能体自主抉择不当所造成的不良后果,进而追溯相关责任,寻求修正措施。
对人类文明而言,人工智能将是一个好消息还是坏消息,最终取决于我们的伦理智慧。在中国推出新一代人工智能发展规划的今天,我们更要悉心体味孕育了巧夺天工精神和天工开物情怀的中国思想,审天人之性,度万物之势,以探求人机和谐、文明通达之道。
(作者:段伟文,系中国社会科学院哲学所研究员)
机器人需要“守法”吗? | 2014-07-21 |
技术之上的伦理困境 | 2014-07-21 |
下围棋输给机器该担忧吗 | 2014-07-21 |
如何理解人工智能 | 2014-07-21 |
网络时代的规则改变 | 2014-07-21 |
发展有助于人类的人工智能 | 2014-07-21 |
人工智能不应人为炒作 | 2014-07-21 |
为人工智能发展“定规立矩” | 2014-07-21 |
Master终于引起人类对于未来的担忧 | 2014-07-21 |
人工智能会否带来失控未来? | 2014-07-21 |