当目标是规定现实并不存在的技术时候,我们必须不惜任何代价避免这个方式。基于我们个人的想法限制住发展中的科技,这种方法也许确实会帮助我们避免被“邪恶机器人”之手消灭,但也许会由于自然原因引起我们的灭绝,比如通过让人类更困难使用技术去适应的进化。
基于伊隆马斯克,斯蒂芬或兹尼亚克,比尔盖茨,比利乔,史蒂芬霍金和FIL的公开信陈述,很明确他们害怕的是一个“不友好的人工智能”并且简而言之他们所想要的是一个“友好的人工智能”。
“友好”与“不友好”的词汇并不指的是一个人工智能系统的个人特性。这些词汇指的是一个人工智能的行动是否将会有一个积极或者消极的影响。这是因为人工智能是电脑并且他们不想要有人的价值。我们试着拟人化人工智能并归因这些于我们的道德价值比如由我们的意识形成的“好和邪恶”,“道德与非道德”。这些归因仅仅在成千上万年的社会交际中得以发展。人工智能将不会分享人类的特性,除非我们非要创造他们,让他们去做。他们的行为基于旨在完成一个任务和目标。为了达到这个目的,比如,那里有一个AGI,他们的主要任务是保证树木在一个确定的松树种植区被保护免于外来物种的侵入,来保证DNA的纯净。我们应该不会惊奇当这样一个AGI选择奇特的方式比如毁掉整个地区的飞虫数量。没有意识到这个AGI的一个人的目的也许会轻易地给他们贴上“邪恶”的标签以及一个“对人类危险”因为他们无法预测AGI的动机和目标是什么。相似的一个大猩猩会惧怕切洋葱,因为这是一个进攻信号。毫无疑问,这很像那些支持早产的人工智能规则。
这个目标为准的方法应用到法律和合法研究会。Ryan Calo争论