先说几个现象。你在电脑A上玩我的世界(游戏),在里面用元器件搭建了一台电脑B,那么在电脑B里能不能玩我的世界这个游戏,如果能的话,就会出现:电脑A里的我的世界里的电脑B里的我的世界里的……电脑Z可以玩我的世界。盗梦空间里也是这样,在梦里做梦,然后在梦里的梦里做梦……上面那个图片也是这样的。暂且称之为视角循环。
前些天读《自私的基因》,读的时候很不耐烦,感觉里面的观点很牵强,对高中学理科的人来讲,里面好多都是“常识”,看到一半时看不下去了。这几天又看了马东对《自私的基因》的解读版,才感觉有点意思,书中最核心的观点是:生物体(老虎、狮子和人等)是基因制造出来的生存机器,目的是为了更好地实现基因寿命和拷贝数的最大化。
联想到最近大热的人工智能,发现了一个视角循环。
在生命初期,海洋里有很多大分子物质,其中就有基因(就是那个双螺旋结构的大分子),而且这种分子可以进行复制,拷贝出一个和自己一模一样的基因,它们的目的就是尽可能延长自己的寿命并且增加拷贝数。各品种基因间竞争激烈,逐渐地它们开始武装自己,把身上裹上蛋白质盔甲,和其他基因、大分子结盟,建造细胞装甲车(单细胞生物出现),接着把细胞装甲车编成编队(多细胞生物出现),接着发展各种高端探测器(眼、耳朵等)。我们现在看到的生物体都是基因经过几十亿年的“军备竞赛”发展出来的生存机器,然而机器高度复杂以后,基因对生存机器的控制就会出现迟滞,所以基因会提前给机器编上程序,比如生下来后自己就会吃奶,但编程毕竟不可能把生存机器可能遇到的所有情况都包含进去,所以基因只能列一些原则(底线),比如要奋力争夺配偶,但不能因此而丧命。所以大多数情况下生存机器是在这些原则下做出自己的抉择。(发现我要说什么了吗) 但当人进化出自我意识,出现了宗教、道德和伦理等的时候,人的主观目的有时候会和基因的目的相反:出现利他行为。书中说的是:在这个世界上,只有我们,我们人类,能够反抗自私的复制基因的暴政。
基因为了自己的目的制造了生存机器,人类为了自己的目的制造了人工智能。
突然感觉霍金、马斯克他们说的不是危言耸听(对人类来讲),也许人工智能短期内能很好地服务人类,但当其知识与思维水平远远高于人类时(就像《三体》中歌者文明与地球文明),即使有机器人三大定律又如何,正如人类经常做违背基因目的的事情一样,根本不考虑基因在体内编的程序。人类不把基因当做自己的创造者,甚至不把它当做生物来看。而人与人工智能的关系不会像电影《终结者》描述的一般,因为导演小看了天网的能力。
在这个视角循环中,人与基因的关系是人离不开基因而单独生存,而在人与人工智能的关系中强大的人工智能是不需要依赖人而存在的。
我是不反对发展人工智能的,而且也没人能阻挡人工智能的发展,毕竟人在这个视角循环的初期是受益者,最终也未必是受害者。就像《三体》中,因害怕光速航天器暴露地球位置而不发展,错失唯一的自保机会。
怎样做到让人工智能对人类的依赖就像人类对基因的依赖?
下一个视角循环中人工智能会搞出什么东西?