设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

机器人应该拥有权利吗?

2019/6/14 18:01:46 来源:猎云网 作者:让妲己看看你的心 责编:骑士

试想有这样的一个世界,在这个世界中,我们人类可以同那些与我们一样的“生物”共存,这些“生物”有思想、有情感、有自我意识,同样也有执行行为的能力,但与我们不同的是,这些“人”还有一个可以随时打开或关闭的人造机械身体。

当我们人类把机器人作为日常生活的一部分来对待时,这个美丽的新世界也会带来很多的问题。我们应该如何对待它们?我们有怎样的伦理道德责任呢?这些非人类应该拥有什么样的伦理道德权利?试图阻止它们的出现在伦理道德上是被允许的吗?或者我们有责任促进和培养他们的存在吗?

Ian McEwan在其最近的小说《Machines Like Me》中提出了一些有趣的伦理问题,在这部小说中,阿兰·图灵拥有成功的长寿人生,并有力地推动了人工智能的发展,从而创造了“一个拥有合理智能的人造人”。这一人造人拥有类似人类的注意力和外表,且能够表现出与人类类似的行为动作和表情变化。

人类作为理性思辨的存在,思考伦理对理性、感性机器的处理是有趣的。但有两个常见的论点可能表明,这件事没有实际意义,因为任何伦理问题都不需要被认真对待。

首先,这样的人造人不可能存在。第二个观点则经常在堕胎辩论中被反复提及,即只有那些拥有活的、独立的、充满生命力的人体的人,才应得到应有的道德尊重,并得到伦理上的考虑。当然了,正如我们经常看到的那样,这些论点也是有争议的。

此外早在1942年的短篇小说中,科幻作家Isaac Asimov就提出了机器人的3条准则,以保证机器人会友善对待人类并使人们免于机器末日。这些准则一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须保护自身,但这些保护不能与第一和第二条准则相违背。

思想、物质与自然属性

我们可能会认为精神现象——意识、思想、情感等等——在某种程度上不同于构成计算机和其他人类制造的机器的东西。我们可能会认为物质性的大脑和物质机器与有意识的大脑有着根本的不同。但是,不管这些假设是真是假——我个人认为它们是正确的——并不意味着有知觉的、有意识的、人为产生的人是不可能存在的。

法国社会学家Emile Durkheim曾非常有说服力地指出,我们应该警惕社会科学中过于简单化的论点。社会现象,例如语言,如果没有具有其特殊心理和生物学特征的个人之间的相互作用,就不可能存在。但这并不意味着由此产生的社会现象或“新兴属性”就可以完全正确地解释这些特征。

关于“新兴属性”的可能性,同样的的观点也适用于所有的科学。例如,如果没有构成这台机器的塑料、电线、硅芯片等部件,就不可能有人类现在工作的这类计算机。然而,计算机的操作不能仅仅用这些单独部件的特性来解释。一旦这些部件以特定的方式与电结合并相互作用,一种新的现象就出现了:计算机。同样,一旦计算机以特定的方式组合和交互,互联网就诞生了。但是很明显,互联网是一种与有形的物理计算机不同的现象。

同样地,我们也不需要假设思维可以简化为大脑、分子、原子或任何其他运作所必需的物理元素。它们可能是不同类型的实体,来自于它们之间的特定交互和组合。目前的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。

没有明显的逻辑原因可以解释,为什么人类拥有的思考和决策能力在未来的某一天不会出现在机器人身上。当然了,这一观点在物理层面是否可行,能否真正地发生,还有待商榷。

机器值得我们为之考虑吗?

有一种观点认为:我们人类不应该诽谤死去的人或肆意破坏地球,使未出生的后代无法像我们一样享受它,这一观点的正确性似乎没有争议。这两个群体都应该得到应有的道德尊重和体谅,它们应该被视为我们伦理道德义务的潜在对象和我们仁慈的潜在接受者。

但是,无论是自然的还是人造的,死者和尚未出生的人都没有任何形式的可存活的身体。以这一考虑为理由而拒绝给予它们道德上的尊重和考虑,似乎过分武断且异想天开。这需要一个理由,但究竟是何种理由可能并不明显。

也许有一天,或许比我们想象的更早,对理性、有知觉的机器人的伦理思考可能会被证明不仅仅是一个抽象的学术活动。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知