来自:《新政治家》 作者:Charlotte Kilpatrick
编程无法使计算机质疑它自己的道德准则
喜欢上世纪90年代早期的科幻小说爱好者们将会熟悉戴达(Data),一个可爱的机器人,在《星际迷航: 下一代》中,他是皮卡德(Picard)船长在企业号航空母舰上的二副。
这部剧的编剧把戴达描述成一个功能齐全的男性机器人。虽然他有“自我意识”和“智慧”,但是他不能像他的人类同伴那样感受情感。戴达没有真正的童年可言,所以他不会做出以下这些事:恨他的父亲,长大后加入一个嬉皮士社团, 心碎后酗一个星期的酒,或者感受到让他写这篇文章的灵感火花。他确实有能力做出决定,但这些决定不是基于直觉和过去的情感经历。更确切地说,它们是对确凿事实的冷酷无情的计算。
如果戴达不是一个虚构的人物,科学界就会有一些人说,他即使不比人类聪明,也和人类一样聪明。它的出现如同一个黄金里程碑,计算机科学家可以指着它明确地说,“上帝时刻”已经发生——人类创造的机器比他们自己更聪明。目前,戴达和其他像他一样的机器人只存在于想象的领域,但是关于机器人是否已经具有智能或感知能力,或者是否智能意味着机器必须具有感知能力的讨论,计算机科学家们正在进行激烈的辩论。问题在于,尽管科学可以创造出让机器人描述情感的算法,但它无法明白人之所以为人的原因。为此,我们需要转向哲学。
问一个机器人是否会像人类一样聪明的问题在于我们如何定义这个问题。对于初学者来说,智力有很多种形式,哲学试图回答我们在谈论智力和自我意识时所指的问题。在回答人类是否完全控制自己的思想时,笛卡尔有句名言: “我思故我在”。尽管机器可以在镜子中认出自己的存在,但它不能感觉到死亡是不可避免的存在恐惧。虽然机器可以互相交流,但它们永远不会感受到情感上的挫折,正是这种挫折让让-保罗·萨特得出结论:他人即地狱。
一些计算机科学家认为,机器永远无法达到人类的智能。1976年,麻省理工学院信息学教授约瑟夫 · 维森鲍姆(Joseph Wiezenbaum)对计算机能力和人类推理能力进行了区分。他认为,计算机永远不可能发展出人类的理性,因为这两者是根本不同的东西。亚里士多德对审慎的解释称为做出正确决定的能力,即人类理性。计算机可以用道德代码编程,但它总是缺乏根据自己对是非的解释自发做出决定的能力。魏岑鲍姆认为,人类的理性永远不可能是算法,因此计算机的力量不能取代人类的理性。
在《星际迷航》中,戴达角色发展的一个核心情节是他对人类情感体验的渴望增强。在一集中,他从他的创造者那里得到了一个“情感芯片”,这个芯片可以让他感受到人类所有情感的深度。这个芯片组成了戴达的灵魂,它不是一个程序员可以创造出来的东西,相反,几个世纪以来人们一直探寻的“人类何以胜过机器”才是它的核心。