1981年,约翰·布罗克曼成立了一个名为“现实俱乐部”的组织,试图把那些探讨后工业时代话题的人们聚集在一起,就大家共同关心的话题进行讨论。1997 年,“现实俱乐部”上线,更名为 Edge。每年一次,Edge网站邀请几十位全球最伟大的头脑坐在同一张桌子旁,共同探讨关乎人类命运的同一个大问题,开启一场智识的探险,一次思想的旅行。这次,包括史蒂芬·平克、朱迪亚·珀尔、丹尼尔·丹尼特、迈克斯·泰格马克等计算机科学家、心理学家、物理学家、科技史学家在内的25位顶尖思想家们将话题聚焦到了人工智能,他们的思想集结成了《AI的25种可能》一书。
一、人工智能的发展
从上世纪60年代“人工智能”这一概念被提出来至今,人工智能的研究和实践已经经历过几次大起大落的发展阶段,大致上看,约十年为一个周期。
在第一个周期中,人们将目标聚焦在主机的研发上,其所追求的目标就是工业自动化。现在有很多工作的岗位已经被自动化的机械所替代,这与此阶段人们就开始所做的探索是有直接关系的。但当将研发的这些自动化的机械用到人的身上时,就会发现问题,因为在现实中,很难编写程序来完成对人们来讲很简单的任务。
在第二个周期中,人们聚焦的是专家系统,其目的是设法将专家的知识编成法典,并最终达到取代专家的效果。我们看到在医学、司法领域,已经有很多这样的专家系统,确实给相关领域的工作带来了很大的便利。利用计算机来下棋,也已经有很大的突破。但专家系统存在的弊端也是非常明显的,在收集知识和推理尚未涵盖的案例方面就会束手无策。
在第三个周期中,人们将目光聚焦在感知器上,其目的是设法让感知器来模拟大脑的学习方法。不过现在看来,要有实质性的突破依然非常困难。我们自己现在对大脑的认识还是很模糊的,还有很多未解之谜。在这样的情况下,让感知器来模拟大脑是不现实的,有很多事情目前还做不到。
第四个周期中,人们研究的重点是多层感知器,多层感知器可以处理那些使简单网络出错的测试问题,但是对于非结构化的、真实世界的问题,它们的表现很差。很多时候,我们的大脑所思考的、或者我们所面临的问题,就有这样的特点。
第五个周期也就在当下,人们探究的重点即深度学习。我们现在正处于深度学习时代,许多早期人工智能想要达到的目标均得以实现,但在某种程度上却又很难理解这种深度学习,这给人们带来了一系列的困惑和忧虑,担心人工智能带来的后果,会对人类的智能以及人类的存亡带来威胁。
二、什么是深度学习
简单地说,深度学习指的是计算机通过观察大量数据来自学,使自己变得更聪明。“阿尔法狗”战胜李世石和柯洁两位世界围棋界顶级高手之后,其研发团队又研制出新一代的机器人,让其和“阿尔法狗”进行比赛,结果无一败绩。之后,该团队宣布,新一代的机器人和人类比赛已经没有意义,它将通过自适应新的学习,来提高自身的能力。这就是典型的深度学习的案例。
深度学习有自己的动力学机制,它能自我修复,找出最优化组合,绝大多数时候都会给出正确的结果。可一旦结果错了,你不会知道哪里出了问题,也不知道该如何修复。尤其是,你不知道问题是出在程序上还是方法上,抑或是因为环境发生了改变。之所以会出现这样的状况,是因为深度学习的不透明性。以深度学习方式自我提升的人工智能机器其学习的过程是隐秘的,是不被人类所知的。
一些人或许认为,我们并不需要透明。比如说,我们并不了解人类大脑的神经构造,它也运行得挺好,所以我们可以原谅自己的浅薄,最大限度地利用机器。我们需要明白的是,我们之所以可以原谅自己不了解人类大脑的运作原理,是因为人类大脑的运作原理是一样的,无须了解我们也可以与他人交流、向他人学习、给他人指导、用我们的语言鼓励他人。但如果我们的机器人都像“阿尔法围棋”(AlphaGo)一样不透明,我们便无法与它们进行有意义的交流。
赋予机器目的,使它能够根据明确的计算程序来优化它的行为,这似乎是一个不错的方法,可以确保“机器按照我们可接受的原则行动”。但是,无论是人工智能还是围绕目标优化的其他学科,如经济学、统计学、控制理论、运筹学等,都无法确定究竟什么是“我们真正想要的目的”。相反,这些学科假定我们只是简单地把目标赋予机器。目前人工智能的研究主要是研究机器实现目标的能力,而不是如何设计那些目标。
在科学的发展历程中,其实经常出现在透明性与不透明性之间进行对比以便加以抉择的情况。比如说,巴比伦天文学家是做出黑匣子预测的大师,在天文观测的准确性和一致性方面远远超过了对手希腊。然而,科学却偏爱希腊天文学家创造性的推测,这种推测大胆且充满隐喻性的意象:充满了火焰的圆管、天火透过小孔被视作星星以及半球状的地球骑在龟甲上。正是这种大胆的建模策略,而不是巴比伦的外推,震惊了埃拉托色尼,使他做了一个当时世界上最具创造力的实验——测算出了地球的周长。巴比伦的那些以数据为准则的科学家们永远不会做这样的实验。
看来,并不是说机器的所有程序和步骤都透明就是好的,也不是说不透明就不好,需要依据所要研究的问题,在两者之间的某一中间地带找到一个平衡点。
深度学习具有如下特征:一是强调知识的主动建构,二是重视知识的迁移运用,三是立足于问题的解决。针对以上特点,近些年来,教育领域也广泛开始对深度学习的借鉴和研究,提炼出了深度学习教学的一些基本范式、学校层面开展深度学习的策略等一系列实施的路径和建议,值得一线的教师加以深入研究。
三、未来的发展可能
自从发明写作和计算以来,我们的思想一直靠技术辅助。有人担心通用人工智能在思考方面会变得特别优秀,以至于人类和他们相比就像昆虫对于人类一样。对此,不同的科学家提出了大致相同的论点。
有的科学家认为,担心人工智能比人更优秀是错误的。因为所有的思考都是一种计算,任何一台程序集包括一套通用的基本运算的计算机都可以模拟其他任何计算机的计算。因此,人类大脑可以思考通用人工智能能思考的任何事情,只是会受到速度或记忆能力的限制,而这两者都可以通过技术来提高。
有的科学家认为,即使我们发明了超人智能机器人,他们也不会奴役他们的主人或接管世界。智能是指运用新的手段达到目标的能力。但是这些目标与智能无关,因为聪明并不等同于一定要追求某些东西。智人的智能是达尔文自然选择的产物,而自然选择本质上是一个竞争过程。在智人的大脑中,推理与一些诸如支配对手和积累资源等目标捆绑在一起。但是,把某些灵长类动物的边缘脑中的回路与智能的本质混为一谈是错误的。没有任何一个复杂系统定律表明,智能主体一定会变成无情的自大狂。
从物理学家的角度来看,智能只是由四处移动的基本粒子所进行的某种信息处理,没有任何物理定律表明人类不能制造出在任何方面都比我们具有更高级智能的机器,这种机器能孕育宇宙生命。真正的问题是,人工智能安全研究必须在严格的期限内进行:在通用人工智能到来之前,我们需要弄清楚如何让人工智能理解、采纳和保留我们的目标。机器越智能、越强大,使它们的目标与我们的目标一致就越重要。只要我们制造的机器相对愚蠢,那么问题便不是人类的目标是否会占上风,而是在达到我们与机器目标一致之前,机器会造成多少麻烦。然而,如果制造出超级智能,那么情况就会反过来:因为智能就是实现目标的能力,所以超级智能人工智能从定义上来说,比起我们人类实现自己的目标,它更擅长完成它的目标,因此会占上风。
对奇点主义的恐惧,主要是担心随着计算机更多地参与设计它们自己的软件,它们将迅速拥有超人的计算能力。但机器学习的真实情况却恰恰相反。当机器的学习能力变得越来越强时,它们的学习方式会变得越来越像人类。许多事例表明,机器的学习是在人类和机器老师的监管下进行的。对计算机进行教育就像对青少年进行教育一样困难、缓慢。世界上最好的国际象棋棋手既不是计算机,也不是人类,而是与计算机合作的人。网络空间里确实存在有害的程序,但这些主要是恶意软件,即病毒,它们不是因为其超级智能而为世人所知,而是因为恶意的无知而遭世人谴责。
……
总的看来,对人工智能的未来前景充满希望和信心的专家还是占上风的。
《AI的25种可能》 [美]约翰·布罗克曼/著 王佳音/译 浙江人民出版社 2019.10pplong