而豪赌未来科技前沿的马斯克却不止一次地公开表达自己对人工智能的恐惧。
2014年,他在麻省理工学院学生的面前将人工智能开发者比作“召唤恶魔的术士”;2015年,他和史蒂芬·霍金等人一起写信,宣称危险的人工智能军备竞赛已经开打;
今年,他在一部有关人工智能的纪录片中称,人类可能在不知不觉中就创造了“一个不朽的独裁者”,并将永远无法摆脱它们的统治。
为什么马斯克认为超级智能不仅是可能的,而且还非常危险?这篇文章讲述了以扎克伯格与马斯克为代表,两种对人工智能截然不同的看法,是如何在科技界进行碰撞的。
现将全文推荐如下,由网易科技编译,经钛媒体编辑:
6月12日消息,据国外媒体报道,社交媒体Facebook创始人马克·扎克伯格(Mark Zuckerberg)认为,他的朋友、硅谷亿万富翁埃隆·马斯克(Elon Musk)表现得像个危言耸听者。
马斯克创建了SpaceX,并且现在是特斯拉(Tesla)首席执行官。他在电视采访和社交媒体上警告世界,人工智能(AI)“可能比核武器更危险”。
2014年11月19日,扎克伯格邀请马斯克,在自己位于加州帕洛阿尔托(Palo Alto)的家中共进晚餐。此外,来自Facebook新人工智能实验室的两名顶尖研究人员和另外两名Facebook高管也受邀参加了这次晚餐活动。
进入晚餐时,Facebook一方人员试图让马斯克认为自己错了。但是,马斯克没有让步。据这次晚餐参加者之一、领导Facebook人工智能实验室的研究员扬恩·莱肯(Yann LeCun)称,马斯克当时对同桌者表示,“我真的认为这很危险。”
马斯克对人工智能的恐惧本质上讲很好理解:如果我们创造出比人类更聪明的机器,他们可能会转而反对我们。看看科幻片《终结者》(The Terminator)、《黑客帝国》(The Matrix)和《2001太空漫游》(2001: A Space Odyssey),就可知道人工智能是如何控制人类的。
他对科技行业表示,在我们将其释放给世界之前,想想我们正在创造的东西所带来的意想不到的后果吧。
针对这次晚餐活动,马斯克和扎克伯格都没有谈及细节。而关于这次晚餐以及当时关于人工智能方面的辩论,此前没有媒体报道过。
“超级智能”的诞生,将人工智能推进到一个新的高度,所创造出的机器不仅能执行需要人类智力才能完成的特别任务(比如自动驾驶汽车),而且实际上可以超越人类。这感觉仍然像科幻小说。不过,关于人工智能未来的争论已经蔓延到整个科技行业。
谷歌4000多名员工最近签署了一份请愿书,抗议该公司与五角大楼签订的一份案值达900万美元人工智能合同。
这是一份让这家互联网公司获利的协议,但对该公司的许多人工智能研究人员来说,这一交易令人深感不安。上周,谷歌高管们试图阻止员工反抗,他们表示,明年合同到期后谷歌不会续签合同。
无论是作为经济引擎和军事优势的来源,人工智能研究具有巨大的潜力和巨大的影响。中国政府已表示,未来几年愿意投入数十亿美元打造人工智能世界领先地位,而五角大楼正积极寻求科技产业的帮助,一种新型自动武器的诞生不会遥远。
从在加州中部海岸举行的哲学家和科学家聚会,到亚马逊首席执行官杰夫·贝佐斯(Jeff Bezos)在加州棕榈泉(Palm Springs)举办的年度会议,各类深谋远虑的思想家都加入了这场辩论。
未来人类研究所(Future of Humanity Institute)的人工智能治理项目主任艾伦·达福(Alan Daboe)表示,“我们现在谈论人工智能的风险,并非迷失在科幻小说里。”该研究所是牛津大学的一个研究中心,研究的是先进技术的风险和机遇。
在过去几个月,对Facebook和其他科技公司的公开炒作已经强烈地牵引出这样的问题,即硅谷创造的技术带来了意想不到的后果。
今年4月份,就数据隐私以及Facebook在2016年大选前传播错误信息中所扮演的角色问题,扎克伯格花了两天时间在国会向议员们作出了回答。上个月,他在欧洲面临类似的质询。
Facebook很难理解到底发生了什么,这已经导致一个行业进入难得的自我反省时刻。
长期以来,人们一直认为,不管世界喜欢与否,Facebook正在让世界变得更美好。
就连微软创始人比尔·盖茨(Bill Gates)和已故斯蒂芬·霍金(Stephen Hawking)等有影响力的人物,也表达了对创造比我们更智能的机器的担忧。尽管超级智力离我们似乎还有数十年时间,但是这些有影响力人物以及其他人表示,难道我们不应该在到了为时已晚阶段之前就考虑后果吗?
康奈尔大学计算机科学教授、前贝尔实验室(Bell Labs)研究员巴特·塞尔曼(Bart Selman)表示,“我们正在创建的这种系统非常强大,并且我们无法了解它们的影响。”
不完美的技术
Pacific Grove是美国加州中部海岸的一个小镇。1975年冬天,一群遗传学家曾聚集在这里,讨论他们的工作——基因编辑——最终是否会危害世界。2017年1月,人工智能社区在这海滨树林小镇举行了类似的讨论。
在Asilomar Hotel酒店举行的这次私人聚会,由未来生命研究所(Future of Life Institute)所组织。该研究所是一家智囊,研究方向是人工智能和其他技术的相关风险。
参与这次聚会人员中,Facebook人工智能实验室负责人扬恩·莱肯是人工智能大腕,他帮助开发了一种神经网络,这是当今人工智能中最重要的工具之一。
参与者还有尼克·博斯特罗姆(Nick Bostrom),他的书籍《超级智能:路线图、危险性与应对策略》(Superintelligence: Paths, Dangers, Strategies),对人工智能讨论生产了巨大影响,不过有些人认为是人为制造恐怖;
还有奥伦·埃茨奥尼(Oren Etzioni),他是华盛顿大学前计算机科学教授,现已在西雅图艾伦研究所(Allen Institute)领导人工智能研究;还有德米斯·哈萨比斯(Demis Hassabis),目前是谷歌位于伦敦的具有重要影响力的人工智能研究实验室DeepMind的领导人。
马斯克2015年曾向位于马萨诸塞州剑桥市的未来生命研究所捐赠了1000万美元。同年,他还帮助创建了一个名为OpenAI的独立人工智能实验室,其明确目标是:创建确实不会失控、具有保障措施的超级智能。这一信息清楚地表明,他支持尼克·博斯特罗姆的观点。
在这次私人聚会的第二天,马斯克参加了一个专门讨论超级智能问题的9人小组。大家都知道马斯克认为超级智能不仅是可能的,而且是非常危险的。
在这次小组讨论活动结束时,马斯克被问到社会如何才能最好地与超级智能共存。他说,我们需要的是我们的大脑和机器之间的直接联系。
几个月后,他推出了一项名为“神经链接(Neuralink)”的新项目。该项目获得1亿美元的支持,目的是通过将计算机与人脑融合,创造出一种所谓的神经接口。
当然,有关人工智能风险的警告已经存在多年了。但是几乎没有哪个不为人所信的吉凶预言者,拥有马斯克这样的技术声望。
如果有的话,几乎没有人花那么多的时间和金钱在人工智能上。或许没有哪个不为人所信的吉凶预言者,拥有马斯克如此复杂的科技创业经历。
马斯克在扎克伯格家里那次晚宴上谈论他对人工智能担忧时的前几周,曾打电话给Facebook人工智能实验室的研究员扬恩·莱肯,询问能够从事特斯拉汽车公司自动驾驶汽车项目的顶尖人工智能研究人员的姓名。
公司财务亏损和汽车质量问题,一直在困扰着马斯克。
在最近一次特斯拉财报电话会议上,他指责新闻媒体没有关注死亡——这是一个被反复警告的明确立场,即人工智能对人类是一种危险。
棕榈泉的争斗
硅谷有句谚语:人们往往高估三年内之所为,低估10年内之可为。
2016年1月27日,Google旗下的DeepMind实验室推出一款机器人,能够在围棋比赛中击败专业玩家。
甚至顶级的人工智能研究人员曾认为,机器人能够下这样的围棋还需要十年。围棋很复杂,最好的玩家不是凭空算计,而是凭直觉取胜。就在AlphaGo推出之前两周,Facebook人工智能实验室的研究员扬恩·莱肯曾表示,这样的机器人不太可能存在。
几个月后,AlphaGo击败了李世石。这台机器人的动作困惑了人类专家,并且最终取得胜利。
包括DeepMind和OpenAI的领导者在内的许多研究人员都认为,为AlphaGo所使用的这种自动学习技术,提供了一条通往“超级智能”的道路。他们认为,在今后几年,这方面的进展将大大加快。
OpenAI最近“开发”了一个系统,为的是玩一个划船比赛视频游戏,鼓励该系统尽可能多地赢得比赛积分。但是在持续赢得比赛积分后再进行时,它会旋转,与石头墙碰撞,撞上其他船只。
正是这种不可预见性,引起了人们对包括超级智能在内的人工智能的严重担忧。
但是在今年3月份,亚马逊和贝佐斯在棕榈泉组织的一次专门会议,对这些担忧表达了强烈的反对。
一天晚上,麻省理工学院的机器人专家罗德尼·布鲁克斯(Rodney Brooks)与神经学家、哲学家和播客山姆·哈里斯(Sam Harris)讨论了人工智能的潜在危险,哈里斯对人工智能潜在危险提出了特别的警告。根据泰晤士报(The Times)获得的一段录音,这场辩论演变成针对个人的人身攻击。
哈里斯警告称,由于全球处于利用人工智能的军备竞赛之中,研究人员可能没有足够的时间来确保超级智能建立在安全方式下。
布鲁克斯回答说,“这是你编造出来的。”他暗示,哈里斯的论点是基于不科学的推理。这不可能被证明是对或是错的。哈里斯则表示,“如果这真的有意义,我会把这件事当真。”
主持人最终终止了这场争斗,并向观众提出了问题。Allen Institute负责人奥伦·埃茨奥尼表示从观众席走出来,他说,今天的人工智能系统是如此有限,花那么多时间来担心超级智能是没有意义的。
他说,站在马斯克一边的人是哲学家、社会学家、作家,他们都不是从事人工智能工作的研究人员。在人工智能科学家中,关于我们应该开始担心超级智能的想法,“在很大程度上是一个边缘性的论点。”
扎克伯格去华盛顿
自三年前他们共进晚餐以来,扎克伯格和马斯克之间的争论已经变得恶劣。去年夏天,在扎克伯格和妻子于自己家后院烧烤时的Facebook直播视频中,扎克伯格称马斯克对人工智能的看法“非常不负责任”。
他说,现在对还处于发展初期的人工智能表现出恐慌,可能会损害由自动驾驶汽车和人工智能医疗保健等事物所带来的许多好处。
“特别是有了人工智能,我真的很乐观,”扎克伯格表示,“那些持反对意见的人,试图编造出这些世界末日的情景——我只是,我不明白。”
针对扎克伯格的言论,马斯克也作出了回应。“我和马克(扎克伯格)谈过这件事,”马斯克写道,“他对这个问题的理解有限。”
今年4月份,扎克伯格在美国国会作证,他对Facebook如何改正目前所存在的问题进行了解释。
解决存在问题的一种措施是依靠人工智能。不过扎克伯格在证词中承认,科学家们还没有完全弄清楚某些类型的人工智能是如何学习的。
“这将是一个非常核心的问题,关系到我们如何看待未来十年乃至更长时间里的人工智能系统,”他说,“现在,我们的许多人工智能系统以人们不太了解的方式做出决定。”
科技巨头和科学家们可能会嘲笑马斯克在人工智能上的胆小,但他们似乎正朝着他的观点方向发展。
在谷歌内部,一个小组正在探索人工智能方法中的缺陷,这些人工智能方法可以愚弄计算机系统,让其看到不存在的东西。
研究人员警告称,自动生成真实图像和视频的人工智能系统,将很快使我们更难相信我们在网上看到的东西。现在,DeepMind和OpenAI都在运转着致力于“人工智能安全”的研究小组。
DeepMind创始人德米斯·哈萨比斯(Demis Hassabis)仍然认为,马斯克的观点是极端的。他说,威胁不存在,还没有。