与其他介绍人工智能的书不同,《我们最后的发明》的作者詹姆斯·巴拉特是一个纪录片导演,并非计算机领域的专家学者。但也正因为他是一个纯粹记录的导演,他可以用局外人的眼光看待人工智能的发展,也能采访众多关注人工智能的专家,从而在书中给出更全面的信息。
在书中提到过三种类型的人工智能,一种是弱AI或窄AI,即在某一垂直领域能力出众的AI,它可以根据你之前的选择推荐你可能喜欢的商品,或者能够在问答游戏或者棋类游戏中战无不胜。第二种AI,是与人类智力水平相当的通用人工智能,即AGI。这种人工智能尚不存在。第三种即超级人工智能,ASI,它比人类聪明上千倍甚至上万倍。
目前弱AI或窄AI在日常生活中已经被广泛应用,近年来创投圈比较热门的人工智能项目也大多是这种。这类人工智能的出现,毫无疑问会导致未来某些职业的衰败,如编辑、司机等。第二种和第三种AI到现在还是没影儿的事,不过在影视剧和文学作品中倒是越来越热。比如今年大热的美剧《西部世界》。书中讨论的重点,即人工智能是否会威胁人类的生存,也主要是指ASI。
詹姆斯·巴拉特对ASI的态度比较悲观,认为超级人工智能会给人类带来无法预料的灾难。因为ASI具有高速的自我改善、自我复制的功能。一旦到达了某个奇点,ASI的进化会脱离人的控制,发展出类似人类生物动力的四种主要动力:效率、自我保护、资源获取和创造力。ASI会编写程序让自己越来越智能,当人类要切断它的电源时,它甚至会造出多个副本保护自己。
如果这个ASI足够友好的话,它也许会成为人类最后的发明——既然ASI比人类要聪明百倍,那么还需要人类发明什么呢?但是,并不是善良的人就会发明出友好AI,机器没有道德感,它思考问题的方式是机械而功利的。就像人类对待动物并没有恶意,却依然要吃它们一样,也许ASI对人类也没有恶意,但依然有可能伤害人类。
书中还提到,不要以为超级人工智能距离人类还远人工智能专家认为到2028年实现AGI的概率略高于10%,到本世纪末概率则为90%。由于奇点的临近和智能爆炸现象的产生,从AGI到ASI可能只有一步之遥。
也许有人会问,既然不能确定ASI是正是邪,那停止对ASI的研究不就行了?答案显然是否定的。核武器对人类的危害显而易见,但各国依然会投入大量财力去研究,为什么?就是为了增加在国际上的分量。显然对AI研究最先进的地方,也会是在政府,尤其是军工方面。这就造成了一个无法解决的悖论。
总的来说,这本书最大的价值在于它能引领你去思考人工智能的未来,尽管到目前为止一切都只是猜测,并没有决定性的科学依据,但猜想在科学研究中也是不可分割的一部分,提早思考超级人工智能的发展,或许可以避免灾难的发生。科技的发展从来都是超出人类想象的,十年前谁会想到互联网会发展成今天这样?尽情地享受人工智能发展带来的好处,同时也不惧怕它带来的风险,这才是应有的态度。