能够自我复制的就是生命吗?
这里的复制指的是以物质为基础的复制。
以人为例,人的意识由大脑产生,而大脑是由物质(原子(或场?)等)组成的,因此从可行性来讲,能够通过对物质的排列组合,使其产生意识,并进行学习行为。比如电影Autómata(机器纪元)中的机器人Cleo。
有些生命是拥有意识的,那么拥有意识的“物体”能否称之为“生命体”呢?比如电影Transcendence(超验骇客)中的威尔·卡斯特和上条中的Cleo。
若能把人类大脑从身体中取出而不损害哪怕一个细胞,并把大脑放置在一个人造机器中,以维持大脑的存活、运转和向外界表达思想,这个“人造机器”是否等同于大脑原本的主人?比如电影RoboCop(机械战警2014)中Alex Murphy。如果能够制造出如同大脑一般的物体,未激活时如同尚未出生的婴儿,激活后如同刚从子宫里产出的婴儿;那么把这个刚激活的物体安置在另一个能够支持其长期处于激活状态的机器中,这是不是创造了生命?一方面,很显然这个“婴儿”能够学习;另一方面,去除支持机器是否等于谋杀?
人类对于自己能够轻易且大量“生产”的生命没有太多的关于生死的道德感,最典型的就是动物养殖场里的家畜家禽;这些物种还有一个共同点就是智力较人类相差很大。那么如果人类能够制造——比如——有意识的机器人,但是由于人类能力有限,尽管他们有自我意识并能够进行学习,但这些机器人的智力上限只有鸡的平均智力那么高;在这个前提下,人类对于这种只有家禽一般的智力的“人形机器人”会是怎样的态度?
另一种说法,对于:
- 智力远高于人类的“人形机器人”,
- 智力和人类相近的“人形机器人”,
- 智力远低于人类的“人形机器人”;
人类会有怎样不同的态度?
- 按照目前的情况,人类在创造“有意识的机器”的路上并没有硬件的上的进步:目前的计算机在硬件上大多只是量的提升,并没有突破性的质的改变;目前的具有学习能力的“机器人”也是由特殊的软件驱动的。这也引出了另一问题:人类创造出“有意识的机器”的突破点是硬件上制造出如同大脑一样复杂的结构还是算法的极度发展?如果硬件上无法模拟真实大脑(无论是人类、昆虫还是鲸鱼等的大脑)的工作机理,那么仅仅通过“软件”创造出的能够“自主思考”、“自主判断”的极度近似于“拥有独立意识”的机器是不是永远都算不上生命?也就是说,人工创造拥有意识的生命体的突破点只能是在硬件上,即对物质的排列组合。
因此,有必要在技术真正发展到那种水平的之前,深入探讨“机器人意识”的问题,寻找定义机器人具备独立意识的“方法”。需要建立一整套系统的判定方法。这个工作类似于之前对动物意识及权利问题的探讨《动物权利研究》(汤姆·雷根)