2012年,百度错失了“深度学习之父”Hinton,但一年多后,他们在一个叫吴恩达的华裔科学家身上扳回了一城。这位出生在伦敦,童年经常往来于香港和新加坡的年轻人,几乎踏足了美国所有顶尖的计算机学府。
本科在卡内基梅隆大学就读,硕士换成了麻省理工,博士是在加州伯克利获得的,后来加入斯坦福大学,担任人工智能实验室主任。
他在2010年前后和同事开启的一个小项目,无意之间解决了深度学习的算力问题。
认识一只猫
2010年他加入“谷歌大脑”项目,其间和同事做了一件趣事。让“神经网络”观看从Youtube上随机选择的1000万段视频。一周之后,意想不到的事情发生了,机器居然自己认识了猫。在此之前,没人教过它猫是什么。
这是计算机在没有事先接到指令,在“无监督”的状态下知道了人类的常识。
关于这点,LeCun曾经打过一个比方,如果将人工智能视为一块蛋糕,无监督学习才是蛋糕本体,有监督学习只是蛋糕上的一枚樱桃。
不过,仅仅为了让机器认识这只猫,当时谷歌动用了16000个CPU处理器,花费了近百万美元。
这是紧跟好消息的坏消息。如果不解决算力问题,神经网络推动深度学习就是天方夜谭。这时吴恩达的前同事,现任英伟达首席科学家的达利建议他们可以用GPU(图形处理器)代替CPU。因为CPU更擅长一件一件做事情,做的事高大上但效率低,而GPU可以同时做很多事,事情本身难度不大,但胜在效率极高。
所以,对于深度学习里简单且重复的运算场景,GPU更适合。有多适合呢?后来吴恩达只用了12个GPU就完成了同等级的测试。
在2012年ImageNet挑战赛上,AlexNet运行时就使用了GPU进行运算加速。也就是说,那是神经网络在同时解决算法和算力问题之后给予人类的“惊鸿一瞥”。
2014年,吴恩达加入百度,开始打造“百度大脑”。后来通过一档《最强大脑》的综艺节目,成了家喻户晓的AI科学家。
算力即权力
GPU受到重视也彻底改变了英伟达的命运。这家近些年因为中美贸易摩擦,频频被推到风口浪尖的公司,主宰了全球的AI芯片市场,旗下最先进的A100、H100显卡几乎是每个顶尖AI研发机构的标配。
英伟达是美籍华人黄仁勋于1993年创办的显卡芯片公司。这个祖籍浙江青田,出生在台北的“中二”少年16岁就立下宏愿:成为全球的图形皇帝——尽管那会他取得的最好成绩是全美乒乓双打第三。
1999年,英伟达推出了全球第一块图形处理器,让GPU成为计算机中独立于CPU的另一个重要计算单元。第二年,黄仁勋大胆地提出了一个“黄氏定律”:英伟达的GPU每6个月升级一次,性能翻一番。对标的就是英特尔创始人摩尔的“摩尔定律”。
后来GPU更多运用于人工智能领域,“黄氏定律”也演化成“GPU将推动AI性能实现逐年翻倍”。
不过,这个坚信“算力即权力”的性能狂魔高估了主机的承载能力。无论是在PC时代还是手机时代,英伟达曾发布过多款具有爆炸性能的显卡,但因为工作温度过高,经常带着主机共赴黄泉。
尤其是一款名为GTX690的显卡,测试时让电容直接爆炸,被怒不可遏的网友称为“战术核显卡”,加入百科词条里。后来国内一家电视台信以为真,将它写到了军事节目里,声称搭载它的导弹可以摧毁一个航母战斗群。
节目播出后,黄仁勋得到了一个“两弹元勋”的称号。
在吴恩达的测试曝光后,黄仁勋算是找到了集中释放算力的地方。英伟达开始斥重资投入深度学习,研发用于AI计算的GPU和运算平台CUDA,挥动着倚天剑和屠龙刀大杀四方。目前,英伟达芯片占据了AI训练市场近100%的份额,全球TOP500的超级计算机中,其中的342台有英伟达的身影。
2019年前后,微软斥资5亿美元打造了一个超算中心,里面躺着10000张英伟达GPU。他们帮助微软投资的新锐人工智能公司OpenAI,在2020年孕育出了一个叫GPT-3的人工智能。
当它进化到GPT-3.5,ChatGPT诞生了。
搜索+ChatGPT=?
为了支持OpenAI发展,微软已经投入了130亿美元。从GPT-3开始,OpenAI不再对模型进行开源,被微软一家独占,极客们嘲笑它成为了CloseAI。这也引发了OpenAI部分创始成员出走。
对于ChatGPT,微软已经有了明确的规划。微软CEO纳德拉称:“这项技术将重塑几乎所有软件类别。”他们最新进展,是将ChatGPT集成到旗下搜索Bing(必应)里。
从国内外少数人的使用反馈来看,此举确实带来了颠覆性的体验。搜索不再是从一大堆结果里找寻想要的一个,更多时候变成了“所见即所得”。它甚至可以作为分析工具存在,比如有人让升级后的Bing计算阿里巴巴的现金流折现,机器也能迅速告知,并且能提供具体算法。它还可以帮忙总结刚浏览过一篇长文的要点。
与其说它是搜索,不如说它为每个人提供了一颗强大的辅助大脑。但随之而来的问题是,唾手可得的答案一方面实际上“剥夺”了人类分析和思考的能力,通常说的“脑子越用越灵”,对象变成了AI而不是人类。
另一方面ChatGPT给出的答案依然带有讨好人类的滤镜,未来人类看到的信息会不会只是人类想看到的?单就搜索过程而言,直接拿到一个答案也意味着主动放弃了接收其他信息的可能,会不会就此形成新的信息茧房?
每一次AI带来质的飞跃,问题总比想象来得快和多。在教育领域,纽约一些高校已经下令禁止学生使用,并且开始调整作业的形式,比如降低论文的比重,以规避学生用ChatGPT来作弊。
我们打开了潘多拉盒子?
这两天,各行各业的从业者都在想方设法“调戏”ChatGPT,除了好玩和有关注度,也暗暗透着对未来被它取而代之的焦虑。尽管ChatGPT很客气地表示这一幕不会发生,但它越客气,人类就越不踏实。
一个不可回避的事实是,不同于以往变革,新的技术手段往往掌握在少数人手里,冲击的也是少数人,ChatGPT再升级或者普及成为人人可以调取的基础设施之后,必然会带来巨大冲击。
ChatGPT的确证明了在大模型中加入人类反馈的强化学习是有效的,但很难说它能带领AI到哪个高度——毕竟,现在的ChatGPT还有明显复制粘贴人类的痕迹——它的确已经能写小说,但还是需要人类不断投喂想法。
同时,这条技术路线也衍生出另外一个问题:能够有足够资源驾驭它的注定是全球少数几家科技公司,这对人工智能甚至于人类的发展是否有利?
从2017年到2019年,AI训练成本下降了100倍,但训练这种超大模型的成本还在上升。大公司手里握有的算力也正在成为一种隐形的霸权。一直以来,Bengio就对头部科技公司掌握大量资源有微词,认为人工智能应该为全人类服务,而不是某家公司。
但所有担忧和猜想都无法抹杀一点,ChatGPT正在带领人类进入新纪元。人类具备的认知能力是花了5.4亿年慢慢形成的,而让机器学会其中的一部分仅仅用了20年。显然,AI的发展不会止步于此。
Hinton并不认为人类大脑的奥秘,包括意识、情感在内,是神经网络无法捕捉的,就像随着生物学的发展,人类可以更科学地解释和维护生命,神经网络之于意识也是同样的道理。Bengio也认为,计算机能够掌握人类拥有的所有能力。
“一旦人类真正了解大脑是如何工作的,就可以通过神经网络进行重建。”对此,Hinton有“99.9%的信心”。
ChatGPT的石破天惊已经让许多人开始意识到,未来人类能看到什么样的世界,取决于眼下机器能看到什么样的世界。