2015年初,一些研究者开始担心人工智能的安全,一切都变化飞快。
牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆的新书《超级智能:方法、危险、策略》供不应求,生命未来研究所(FLI)在波多黎各举行了人工智能未来安全的讨论会议,两封关于人工智能和自动武器的信件公之于众,SpaceX和特斯拉的共同创始人埃隆·马斯克、宇宙学家斯蒂芬·霍金、微软公司创始人比尔·盖茨和苹果联合创始人史蒂夫·沃兹尼亚克等业界大咖都发表过关于人工智能威胁的言论,无数文章援引了他们的担忧。
马斯克通过FLI捐赠了1000万美元用于人工智能安全研究,莱弗休姆未来情报中心获得1500万美元用于研发智能的未来。还有最近成立不久的非营利组织OpenAI,花费10亿美元把人工智能领域最有思想的那群人聚到一起,想办法解决人工智能的安全问题。
总而言之,这是一个人工智能安全研究的丰收年。越来越多的科研人员和从业人员加入到人工智能安全研究领域中来,还有许多未知的惊喜等着我们去发现。
那么,我们到底在惧怕什么呢?
OpenAI的成立可以说是这个月的重磅消息,神经信息处理系统会议也在此时召开,吸引了一大批机器学习大牛莅临现场。英国伦敦帝国学院认知机器人教授穆雷·沙纳汉,英国伦敦帝国学院人工智能专家肖恩·莱格,百度首席科学家吴恩达,Facebook人工智能负责人雅安·勒存,IEEE前机器学习工程师汤姆·迪特里奇等研究机器学习和心理学的大佬们都对人工智能发表了自己的看法。
Artificial General Intelligence(AGI)是指强人工智能,这是一种人类级别的人工智能,在各方面都能和人类比肩,人类能干的脑力活它都能干。不仅仅是当今人工智能所应对的局部、特定的问题,未来可能出现的复杂繁冗任务对它来说都不在话下,当前的人工智能需要人类进行编程,但不排除未来的某一天它可以自动编程。因此,AGI的定义其实也不太准确。
Facebook人工智能负责人雅安·勒存说道:“我不想谈论人工智能,因为我真的不知道它到底是什么意思。”
如果说AGI定义尚难,那就更别说要预测它的发展了。勒存和百度首席科学家吴恩达等人都认为不必在AGI的预测上浪费时间,因为目前人类要达到这个水平还远的很。人工智能还需要跨越一个几年甚至几十年的寒冬。吴恩达做了个比喻,人类对未来人工智能的担忧简直比得上对半人马座α星系的幻想(注:由于半人马座α星系统距离地球很近,许多科幻小说都“认为”这里存在发达的宇宙文明)。
勒存表示,我们真的无法得知拥有超常智慧的人工智能会是什么样子。“人工智能会发展成人类的智能吗?肯不会的。”勒存解释,人类智能不是我们想象中的那个样子,“我们是有本能的,会驱动一些人类去做坏事,但是人工智能却没有。”
然而,也有人并不认同勒存和吴恩达的观点。他们认为我们必须要提前做好应对准备。
谷歌DeepMind联合创始人肖恩·莱格认为,现在开始研究人工智能安全是绝对有益的,它帮助我们建立起一个框架,让研究人员在这个框架内朝着积极的方向去发展更聪明的人工智能。
“关于人工智能的安全,我认为有过分夸大和被忽略的方面。”莱格认为,我们应该深刻地讨论人工智能给社会带来的正负面影响。“当我们正处在发展的过渡期,我们应该负起责任,提前考虑技术、社会、法律等方面的问题,提前做好准备总比出现问题时再考虑好。”
纽约大学语言与音乐研究心理学家加里·马库斯补充道:“我们不仅需要为人工总体智能做准备,更要为人工智能做准备。现在已经出现了安全和风险问题了。”
吴恩达认为人工智能安全研究并不是一件坏事,“我很高兴能看到社会各界的人们参与到人工智能伦理研究中来,这确实是一个伟大的事业。”但吴恩达坚持认为不能花太多精力到人工智能安全研究上去。
尽管研究人员在会议上各执己见,但有一个问题却几乎赢得了所有人的赞同——人工智能可能危害就业市场。
埃里克·布吕诺尔夫松是《工业时代2:人工智能》的作者之一,他提出了人工智能可能会对经济产生一些影响。他说,我们的技术飞速进步,这是好的,但我们的技术、组织和机构并没有跟上,因此无法享受技术进步带来的福利。
吴恩达虽然不担心AGI的未来,但他却十分关注即将出现的经济问题。“我认为最大的挑战是失业。”
尽管当今人工智能发展得十分局限,但失业问题已经开始出现了。在世界各地,中低技工不断被机器人或软件所取代工作,并且取代率会不断上升。
勒存认为,蒸汽机的出现也导致了大规模的失业,现在世界也一样可以克服。但布吕诺尔夫松和吴恩达不同意这一观点,因为当今的技术进步更加快速。
“技术在不断地吞噬工作,也在不断地创造工作。”布吕诺尔夫松承认,但他也指出,要预测技术进步带来的影响十分困难,因为当前技术进步的速度是前所未有的快。
牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆认为,把会思考的机器和工业革命蒸汽机的崛起做比较是不恰当的,因为它和人类崛起的过程更加相似。有朝一日,假若拥有超常智慧的人工智能真的被开发出来了,那人类的创造史也就到此结束了。
目前经济存在一个巨大问题,市场变化迅速,大多数人无法快速培养与之适应的新技能,失业保障金和技术培训可以解决部分问题。然而,失业带来的心理阴影仍然成了很多人克服不了的问题。这引起了专家们的注意。
博斯特罗姆教授却意外地乐观,他认为失业不是失去全世界,失业人员可以利用失业的时间来享受其他的爱好,填补错过的快乐时光。
不远的将来,人工智能即将出发新一轮失业浪潮,这要求各国领导人主动采取失业保障金等有效政策来应对。
理想状态下,技术只是一个工具,并没有好坏之分。它对人类的帮助和伤害取决于使用者。除非人工智能可以发展到有思考的能力,但这一说法并不准确,因为人工智能并不是人,但也不仅仅是一种工具。
伊恩·克尔是加拿大渥太华大学的伦理、法律研究主席,他在会议上谈到了人工智能的法律问题。人工智能的首要问题是:这是谁的责任?出现问题时谁来负责?另一方面,当人类和人工智能的建议出现对立时,该如何选择?要怎样证明选择的正确性?
2015年初,一些研究者开始担心人工智能的安全。现在,虽然大多数人还不担心,但他们都承认,提前考虑这些问题确实没有坏处。最大的分歧在于我们该于何时展开人工智能安全研究。
大多数业内人士都认为人工智能升级的过程是循序渐进的,而不是一些媒体口中一蹴而就的。现在已经出现了智能机器,完成任务的过程比人类更好更快,这一趋势会不断持续下去。
哈佛大学计算机科学教授菲纳利·多西·韦莱兹指出,至少现在,我们还可以控制我们的机器,如果出现了不理想的结果,我们可以重新编程。
但是,这会是长久之计吗?