作者:李珂 班级:通院7班 学号:1601120536
【嵌牛导读】:去年,围棋程序阿尔法狗(AlphaGo)与韩国国手李世石的“人机大战”让人工智能成了人们关注的焦点。至今,阿尔法狗横扫人类高手,所向披靡。这难免引发人们对这近在身边又显得“神秘莫测”的“人工智能”产生好奇与想象。那么人工智能真的会超越人类吗?
【嵌牛鼻子】:人工智能
【嵌牛提问】:人工智能是如何发展起来的?人工智能真的会超越人类吗?
【嵌牛正文】:
1人工智能是如何发展起来的
1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。IBM公司“深蓝”电脑击败了人类的世界国际象棋冠军更是人工智能技术的一个完美表现。
从1956年正式提出人工智能学科算起,50多年来,取得长足的发展,成为一门广泛的交叉和前沿科学。总的说来,人工智能的目的就是让计算机这台机器能够像人一样思考。如果希望做出一台能够思考的机器,那就必须知道什么是思考,更进一步讲就是什么是智慧。什么样的机器才是智慧的呢?科学家已经作出了汽车,火车,飞机,收音机等等,它们模仿我们身体器官的功能,但是能不能模仿人类大脑的功能呢?到目前为止,我们也仅仅知道这个装在我们天灵盖里面的东西是由数十亿个神经细胞组成的器官,我们对这个东西知之甚少,模仿它或许是天下最困难的事情了。
当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具,在以后的岁月中,无数科学家为这个目标努力着。如今人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科。
2人工智能正在改变我们的生活
人工智能除了会下棋,还可以做什么呢?以最简单的iPhone手机中Siri语音智能识别功能为例,很多人会觉得Siri属于语音识别的范畴而已,并不属于人工智能。但这里要明确一点,Siri的本质上并不是纯粹语音识别与信息检索调用回答,而是在原有语音识别的基础上加入了语义识别,而两者的结合本身就成为了人工智能领域的范畴。
Siri的革命性创新在于它不再简单的回答用户索要期待的答案。而是对提问产生自己理解的回答。普通语音识别软件,对于用户的提问时固定的,重复的且乏味的。机械化的回答虽然在结果上给予了用户精确答案,但是在感情上却让人冷冰冰的。举个例子,假如你问普通语音识别软件,现在是几点钟,它会告诉你现在是九点钟。假如你同样问Siri这个问题,它会告诉你现在是晚上九点钟有点晚。这就是Siri与一般语音识别软件的区别,Siri会尝试性的理解你的意图。你向你的手机Siri提出古怪的问题:“你爱我吗?”手机会回答你:“这个问题不能说,只能感受!”你再提问:“你能借我些钱吗?”它答复:“我的所有东西都是你的!”这些都是人工智能在起作用。
自动驾驶已经为人们所熟知,在2016年10月20日,马斯克宣布所有特斯拉新车将装备具有全自动驾驶功能的硬件系统——Autopilot
2.0,这套系统包括了8个摄像机、12个超声波传感器以及一个前向探测雷达。摄像机将提供360度的视角,最大识别距离250米,其中三个将观察前方,提供冗余以确保安全;超声波传感器能够探测软性和硬性的物体;而雷达则可以确保在雨天、雾天、沙尘和雾霾天气中正常工作。。去年,在美国佛罗里达发生了一起自动驾驶撞到大卡车的车祸。尽管如此,自动驾驶依旧比人工驾驶出错概率要低。
机器人和集群机器人是应用非常广泛的领域。例如在特斯拉工厂有150个机器人,里面几乎没有工作人员,机器人全面、自动地利用机器人工作。在2017年美国“超级碗”上,使用了300个机器人构成图形。央视的元宵节晚会上,机器人集群也在广州展示灯光秀。
在相对人文的领域,机器人居然也有不俗的表现。“双眸剪秋水,一手弹春风。歌尽琵琶怨,醉来入梦中。”当你输入关键词,机器人就会为你赋诗一首,韵味、韵律还颇“像回事儿”,甚至机器人还能驾驭不同画风的画作。
3人工智能会超越人类吗
在许多领域,人工智能都有超越人类工作的性能,比如下棋、物流、金融交易,在控制机器人方面也比人类有优势。许多专家都预测,以后的很多工作都会被机器人取代,霍金甚至认为这将带来人类的危机。
2014年,剑桥大学的宇宙学家史蒂芬·霍金(Stephen Hawking)在接受BBC的采访时说:“完全的人工智能(full artificial intelligence)的发展可能会导致人类的终结。”微软联合创始人比尔·盖茨(Bill Gates)也警告说:“关于AI,我持谨慎怀疑态度。”
关于AI带来的世界末日将如何展开,计算机科学家Eliezer Yudkowsky在2008年颁发的《全球灾难风险(Global Catastrophic Risks)》中提出:AI在未来从单细胞生物发展到人类智力水平的可能性有多大呢?他回答道:“形成一个物理意义上的大脑是可能的,其计算的速度是人类大脑的一百万倍....假如人脑因此而加速,主观上一年的思考将在31秒内就完成了,一千年将在八个半小时内就过去了。”Yudkowsky认为,假如我们不这么做就太晚了:“人工智能所运行的时间维度与我们不同,当你的神经元完成思考说‘我应该做这件事情’时,你已经错过时机了。”
首先,以上所有这样的末日情景都涉及一长串的“假如-那么(if-then)”意外事件,在任何点的失败都会推到所谓的世界末日。西英格兰布里斯托大学的电气工程教授艾伦·温菲尔德(Alan Winfield)在2014年的一篇文章中这样说:“假如我们成功地构建与人类相同的AI,假如AI对它如何工作有着充分理解,假如它成功地改善自身成为超智能AI,假如这个超级AI意外或恶意地最先消耗资源,假如我们不能拔插头断电,那么,是的,我们可能有问题。这种危险,不是不可能,是不太可能发生。”
第二,假如按照时间段来检查的话,会发现人工智能的发展远低于预期。正如Google执行主席埃里克·施密特(Eric Schmidt)在回应马斯克(Musk)和霍金(Hawking)时所说:“你认为人类不会留意到这种情况吗?你认为人类不会关闭这些电脑吗?”谷歌本身的DeepMind开发了一个AI关闭开关的概念,被戏称为“大红色按钮“,可以用来接管AI。正如百度副总裁吴安民(Andrew Ng)所说的那样(回应Musk),“这就像是我们甚至还没有踏上火星,就在担心火星上会人口过剩。”
第三,AI的末日情景通常基于自然智能和人工智能之间的错误对比。哈佛大学实验心理学家Steven Pinker在对2015年Edge.org年度问题“你对机器思考有什么看法”的回答中阐明:“AI反乌托邦项目将一个狭隘的阿尔法男性心理学投射到智力概念上。他们认为,超人类的智能机器人将‘放弃他们的主人或接管世界’作为本身的发展目标。”同样地,Pinker说道,“人工智能将沿着雌系自然发展——能够完全解决问题,但不会想要消灭无辜或支配文明。“
鉴于历史上对世界末日的几乎为0的猜测率,加上人工智能在几十年来缓慢发展,我们有足够的时间建立故障安全系统,防止任何这样的人工智能所带来的世界末日。