每年的云栖大会,阿里云创始人、中国工程院院士王坚必定是那位最忙的人之一。他经常匆忙地出现在一个分享会上,语速飞快地讲完,转眼就消失不见,一路小跑着出现在另一场。
在云栖大会“组织管理论坛”上,他有点像是位语重心长的长辈,分享了很多对科技发展、创新,甚至探求世界运行规律以及真相的看法。他说只靠看手机去了解这个世界是不够的,也别总是想着总结世界的运行规律,因为变化的速度要大于总结的速度。
这是他一直以来的观点,比如做2050大会,就是想让天南海北有各种想法的青年见一面,“只要你到这儿来,认真地见上一面,会发生很多神奇的事情。”
说到见面,他回忆起上世纪80年代初,自己大三时见到赫伯特·西蒙的场景——后者是心理学家、诺贝尔经济学奖得主,也是人工智能的先驱之一。当时,西蒙告诉台下的人,人工智能会在未来10年有翻天覆地的变化。
结果呢?此后10年什么都没有发生,至少没有西蒙说的“翻天覆地”的变化。但在上世纪80年代末,出现了一本教科书《parallel distributed processing》,翻译过来就是现在经常说的分布式处理和并行处理。
这本书通篇讲的都是如今神经网络的理论。更有趣的是,它的核心作者们组成了一个名为PDP Research Group的研究小组,其中就包括如今大名鼎鼎的“人工智能之父”辛顿。
不久前,在世界人工智能大会上,王坚跟辛顿提起这本书,对方很开心,“我们30年前的研究是不是一步步在变成现实?”
王坚觉得这件事恰好说明了两点:一是真正的颠覆性的创新往往需要很长的时间,比如人工智能发展的伏笔埋在了30年前;另一点是,这样的创新肯定不是靠“循规蹈矩”得出来的——如果回到30年前,很难想象西蒙和辛顿两位心理学家,通过研究人类大脑的工作方式为日后人工智能的发展指明了方向。
技术发展确实充满了随机性。2012年,辛顿和两个弟子发表了一篇名为《ImageNet Classification with Deep Convolutional Neural Networks》的论文,也就是以这篇论文为基础,他们三人研发出了神经网络AlexNet,推动深度学习技术往前迈出了一大步。
之所以用Alex给它命名,是因为论文的第一作者是Alex Krizhevsky,第二作者就是前OpenAI的首席科学家,主导研发出GPT-3.5的Ilya Sutskever,辛顿只排在了第三位。
后来辛顿调侃,这篇论文的想法出自第一作者,第二作者在10年后实现了它,而第三作者获得了诺贝尔物理学奖。
“所以这一点可能是大家真正要理解的东西,我们其实是没有规律可寻的。”王坚还提到,AlexNet是用两块“相当于在中关村网吧里拆下来的GPU”跑通的,“大家一定记住,你今天做不成事情,一定不是因为你没有算力,是因为你创造力不够。”
说到这个,谷歌这个“大厂”不可避免地被拿来做“反面典型”,现在被大模型使用的Transformer架构最早是谷歌的科学家们提出来的,在算法、算力和数据都充足的情况下,谷歌没能成为新一轮人工智能浪潮的主导者。
“其实大厂小厂是不重要的,有创造力才是重要的。”但王坚还是帮谷歌澄清了一件事,在辛顿他们因为AlexNet大获成功后,谷歌赢得了与百度、微软的“人才之争”,斥资买下了辛顿的公司,但后来辛顿还是离开了谷歌。
“很多人因此责怪谷歌,但实际上辛顿创办公司的初衷是为了更好地照顾不能自理的孩子。他说他只做教授,是没有办法来照看这个小孩的下半辈子的,所以他要去开一家公司,能够有足够的钱,有机会去照看他的下一辈子。”
“所以不要听投资人给你们讲的故事,要相信生活真实发生的故事。”王坚提醒,“你只靠手机上推给你的东西认识世界,那一定不是真实的世界。”王坚说。