人和所有其他动物都不一样,只有人脱离了生而交配的低级趣味。用进化论思想揣测一下其中过程,应该会很有意思。
最初有出生就是为了交配以及出生不是为了交配的两种人(也许这个阶段是猩猩甚至海里的生物),不为了交配的生物生育率逐渐降低最终基因被淘汰,也因此地球上的物种一出生基因里就写着交配。在交配之上,各物种都演化出各自得以存续的本领,小的生物靠节能有些小本领就能生存,大的生物消耗很大,也必须进化出更具优势的本领。这是一种 tradeoff。一棵树没有大脑不能运动,换来的是依靠一些非生物资源就足够给自身提供能量。哺乳动物消耗则大的惊人,也只有进化出跑得快,咬得狠,脑子好使等技能才能生存。
人显然是因为脑子好使才生存了下来。不过进化这种大自然算法有漏洞,它只能筛选出能够生存的生物特征。大自然只是肯定了大脑发达可以提高存活概率,智力可以避免被冻死被烧死被淹死被咬死,但不代表在人的大脑在其他方面的功能也完全正确。举个例子,所以人除了交配欲望之外,还有很多乱七八糟和交配联系不甚紧密的欲望。进化的过程还在继续,我们形态肯定也不是几万年后后代的样子。所以人有些没有被进化算法淘汰掉的 bug 其实再正常不过。
人脑所使用的是个十分复杂的神经网络,通过输入信息,训练,得出函数来建立自己的认知。当然别的物种的大脑也是这样,然而人脑更高级的地方它实现了 API 接口,让大脑之间可以传递训练到各种程度的 pretrained model ,这种 API 的协议叫做语言,这种 model 就是各种技术和方法。进入这种视角,就很好解释很多关于人的现象。
比如人倾向于把 model 简单化,以降低功耗。“日本人都应该死”->这是一个在计算力较低的人群中很常见的 model,如果输入为日本人,输出为他去死。他们当然知道日本不全是右翼,但是如果把“政治倾向”作为模型参数,数据多了一维,他们的运算力将会不适应。至于为什么会产生这样有问题的 model,一是因为算力问题比如 loss 函数没有收敛就被拿来使用,二是训练数据有问题,这又是另一方面的问题了。
事实上大部分模型没有对错之分,同样也是一种 tradeoff。在倾向于将 model 简单化方面有个典型的例子。在计算机界经常有人采用“数学是决定计算机水平的决定因素”这一 model。这是个可爱又可叹的 model。作为一个非常简单低功耗的布尔模型,它的 accurancy 却不是特别低,所以不少性能还行的人也愿意用这套 model。很显然,根据经验这套模型的 score 肯定不是特别高的。能影响“计算机水平的高低”的 feature 可能有经验、工程理解程度、自信程度、英语熟练程度甚至是否抽烟、打字速度、有没有女朋友,这其中一定会有 weight 非常高的 feature 对 accurancy 可以造成很大的影响。如果判断一个人计算机水平高低对我很重要,我一定不会用简单的那种 model。但谈到这个简单模型是对的还是错的,其实没啥意义,简单的容易判断,复杂的更准确,只有合适没有对错。直接给事物贴上绝对对或绝对错的二值标签而不考虑环境等因素,事实上又是性能不足的人在试图使用运算量低的 model。
回到为什么会生成“日本人都应该死”这个典型 model 上来,训练数据上也会存在问题。在国内环境,特别是社会底层,受人际信息圈的影响,训练数据大多有浓厚民粹倾向。label 就有问题,model 自然会有问题。
事实证明能接触越随机并且越大量训练数据的精英阶层,往往更少受民族主义甚至爱国主义等能影响 label 个体利益最大化趋向的干扰。闭关锁国建新长城能有效控制臣民训练数据里的 label,继而产生比接受大量训练数据的人群表现差很多的model。
因此,任何思想被说太多遍就会变得可疑。除了明显受政治控制的思想外,其中典型是工匠精神、爱岗敬业、安逸稳定。同样这些观念没有对错,但是选择性的大加推崇这些思想进而影响底层人民的 label,背后很可能是上层阶级在试图固化阶级优势。
所以到这里,关于如何进入上流社会以更好地交配,我不知道。但人脑的特性决定做好3方面,就可以在人类进化的进程里,走梯度方向。
一是利用人脑神经网络模型的误差。这种误差来源于训练数据的不一致,即信息不对等。比如在 Hackathon 中给评委放视频,评委预设的 model 是视频中的画面是真正做出了的东西。这个 model 的漏洞就不多说了。
二是影响训练数据,给出有利于己方的 label。比如利用爬虫控制微博舆论。
三是扩展己方运算力,使之产出更精确的模型,拉大 model 与目标 model 的精度差,并在差值区间制造信息不对等。比如利用硅基神经网络。这也是我认为 AI 真正可怕的应用。
人占有了世界上所有的资源,控制人是最终极的事情,而计算机会是最重要的工具。