
永生还是毁灭?AI终极追问
一个新事物在发展的过程中总会伴随着各种质疑,不过这并不是坏事,这些“善意的提醒”总是在告诫我们:创造和毁灭世界,往往就在一念之间。
“比朝鲜核武器危险得多的是AI。”
持有此观点的是特斯拉(美国一电动车能源公司)CEO马斯克(Elon Musk)。8月上旬,他发文警告称,比起朝鲜核武器,AI将更让人类担忧。
全球性的电子竞技赛事Ti7结束,马斯克麾下的OpenAI完胜前世界冠军Dendi。而马斯克推文配备的照片上则赫然写着“机器终将战胜人类”。
OpenAI如此恐怖的学习能力,并非完全让马斯克得意。他更真实的态度是对AI的恐慌。他坚持认为AI将会是毁灭人类的一方。“如果不能快速与AI进行沟通,那么恶意的人工智能程序将很可能超过人类智慧并创造出反乌托邦社会。”
不仅仅是马斯克,对AI同样持悲观论调的还有霍金。在今年4月底北京举行的全球移动互联网大会GMIC上,霍金就通过视频演讲,表示AI的崛起可能是人类文明的终结。
事实上,三年前霍金就反复强调:人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件!
AI失控 毁灭之虞
生存还是毁灭,哈姆雷特追寻的话题因AI的发展正在成为全人类的命题。
人工智能的发展速度远远超越了人类自身的进化速度,这也引起了诸多学者的警惕。人类的职业是否会被机器代替?机器会不会反过来操控人类?控制人类居住的星球,并最终将人类淘汰出局?
“人工智能崛起要么是人类最好的事,要么就是最糟糕的事。人类需警惕人工智能发展的威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化限制,将无法与之竞争。”霍金警告。
悲观的情绪在蔓延。微软创始人比尔·盖茨表示,在不远的将来,机器人做更多的事情,将产生积极的影响,但是他对AI长期潜力担忧。
盖茨在社交论坛Reddit上的问答活动中称,几十年后,机器的智能化将强大到足以引起担忧的水平,他同意马斯克和其他人的观点。
《未来地图》的作者、创新管理专家、北京大学访问教授吴霁虹认为,AI会带来三重危险:弱者更弱的沉沦世界、强者恒强的量子鸿沟和人类灭绝的危险。
软件银行集团的创办人兼行政总裁孙正义打一个比方让听众便于理解超强人工智能:当我们在讨论大脑的能力之时,我们通常会用IQ来衡量。普通人的IQ是100,爱因斯坦、达芬奇这样的天才的IQ大概在200左右。不过,同样是IQ这个指标,30年后,电脑会达到多少?这个数值是10000。那么IQ达到10000的家伙,我们该称呼它什么呢?超级智能。
人们可能完全无法想象IQ为10000的家伙有多聪明,孙正义认为这家伙在未来30年就会成为现实。
按照二进制表达的人脑有300亿个神经元。哪一年芯片里的晶体管数量什么时候会超过300亿?孙正义预估的时间是2018年。人类的大脑在4000年以来,神经元的数量一直没有变过,然而,芯片里的晶体管的数量在未来30年将成百万倍上升。孙正义坚信,在未来30年里,超级智能一定会诞生,这是有史以来的大事。
“超强AI一旦出现将带来人类毁灭。”经济学家赵晓表示,人类尽管距离进入强机器人阶段有些远,但是技术很快,一旦这种强AI出现,那么超强AI就会很快出现。
永生梦想
不过,Facebook创始人扎克伯格强烈反对AI威胁论:“我认为你可以创造事物,世界会变得更美好。尤其在AI前景上,我真的感到乐观。”
扎克伯格认为,未来5年至10年内,AI将会在许多方面改进我们的生活质量。扎克伯格还列举了AI为生活提供便利的例子,称AI已经能够帮助诊断疾病,还能用在自动驾驶汽车上,从而帮助降低汽车事故。
更加乐观的是谷歌首席未来学家雷·库兹韦尔(Ray Kurzweil)。拥有作家、发明家、计算机科学家多个头衔的库兹韦尔在接受《花花公子》杂志专访时表示,在不远的将来,技术将让我们变得更聪明、更健康,远距离的性爱将发生。
库兹韦尔称:“我们正在开始重新改造过时的‘生命软件’,即人体内被称为基因的23000个‘小程序’。通过重新编程,我们将帮助人类远离疾病和衰老。”
库兹韦尔认为,人类将在2045年实现永生。因为据他推测,那一年非生物智能的创造力将达到巅峰,超过今天所有人类智能总和的10亿倍。但是在2045年到来之前,库兹韦尔认为我们就可以开始“不死之旅”。
“赫拉利开始看得很乐观,好像人类越来越厉害了,好像要进入到永生了,但是他最终是悲观的,认为连富人也要被淘汰,甚至整个人类都要被淘汰,500年之后就没有人了。”赵晓认为,这是文明层面的探讨,非常值得思考。
中国科学院光学博士米磊认为:从历史上看,地球上有两次重大的革命,就是重大的转折点,第一个转折点是生命的诞生,第二个转折点就是人类的诞生,人类创造出人工智能后,可以说是第三次生命的革命。
“脑机对接”挽救人类?
面对这一趋势,人类的体力和智力都面临着强大的挑战,而鉴于应用商店里那些“虚拟女友”APP和VR性爱机器的出现以及新型人工智能越来越可能通过图灵实验,我们有理由认为这一挑战甚至可能会蔓延到人类情感和伦理的领域。
如果将马斯克与霍金对于AI的担忧进行总结,几乎都是聚焦在AI发展到极致之后是否能够拥有自主意识,甚至超越人类。
尽管扎克伯格力挺AI,但是他的实验室中两台机器出了失控问题——Facebook人工智能实验室中的两位聊天机器人Alice和Bob,有一天在试验中将英语转化成了一种更易于它们沟通的语言,而这种语言只有它们自己能理解。
当AI失控,工程师最有效的办法只能是拔掉系统的电源插头。
事件招致Facebook内部的不少人反对,其产品经理马丁内斯因为对AI主导的未来深度悲哀,宣布选择辞职并带着猎枪隐居在西雅图北部的森林里为捍卫人类而准备。
人工智能在不断地深度学习中,机器能否进化出自我意识?有了自我意识会否出现族群意识?如何在其成长学习的过程中做好监管?能否正确地引导人工智能的发展方向?
悲观论者马斯克启动了太空探索公司SpaceX打造商业太空旅行项目。
同时,马斯克正筹备“火星殖民”项目,他计划从2024年开始,逐步把100万人送上火星,并在火星建立起一个完整可持续的文明,他寄希望于“在火星上给人类留一个备份”。
2017年4月,马斯克成立了一家研究脑机对接的公司Neuralink,其重点在于创建可植入人脑的设备,最终目的是帮助人类跟上人工智能的进步,专注于通过技术来增加大脑的发展能力。
他的这个计划被称为“先下手为强的计划”——提早让人成为所谓的“超级人工智能”,以此在AI浪潮中立于不败之地。人类只有一个选择,即成为AI,他的方案是脑机融合。脑机融合之后人类依然存在,只是存在方式和能力有所不同。最近,马斯克在迪拜的一个演讲中说:“随着时间的推移,我想我们可能会看到更多生物智力和数字智能的合并。”
华南师范大学教授陈晓平对脑机对接持批判态度。他认为,尽管其动机正确,即避免人类被人工智能所取代,但其手段是错误的甚至是背道而驰的,即让人类提早成为“超级人工智能”。
他认为,脑机融合的直接后果是人脑指令可以被电脑程序修改;而对于量子机器人,陈晓平认为复制人的技术侵犯了自我人格的唯一性,进而侵犯了人的独特权。他从宗教、社会伦理、法律等多个领域论证了反对的理由。
陈晓平认为,应该维护人类的唯一性,自然人高于机器人。
如何与机器人相处?依然考验着人类的智慧。
不久前,史蒂芬·霍金、伊隆·马斯克及超过1000名人工智能和机器人研究员共同签署请愿信,要求禁止在战争中使用人工智能,并警告“自动化武器”可能带来可怕灾难。人工智能系统正如此前的核能及核武一样,必须通过强有力的国际公约来确保其和平使用,以保障世界各国的安全。
吴霁虹在《未来地图》中表示,AI并非需要在每一个环节上都比人类更聪明才能击败我们。它们只需要成为一个策略优化、安全监控、制造增强方面的专家,就有可能消灭智人。全球现有的AI系统,就足以这样做。能否抵抗危险,完全取决于这些智人对我们,以及对他们自己的保护能力。
“AI既是个好的工具也可以被用来作恶。我对人工智能不会有具体的立场,因为它本身是中立的,最后到底是好是坏,取决于人类对它的应用。”8月15日,世界顶级黑客米特尼克现身北京时,留下了这一段话。
或许,一个新事物在发展的过程中总会伴随着各种质疑,不过这并不是坏事,这些“善意的提醒”总是在告诫我们:创造和毁灭世界,往往就在一念之间。