通用人工智能时代降临:2016-2030科技周期七大揭秘
核心观点
路线的转变:从CPU到GPU的切换
2016年全球的移动互联网渗透率已经超过了50%,这代表的其高速增长的时间已经过去;此时英特尔公司放弃了引以为傲的“Tick-tock”战略,CPU在终于在算力提升的路上严重受阻。这这样的背景下,科技界都在寻找新方向,即能够接过CPU接力棒的技术。凭借早年显卡的积累,以及CUDA架构的提出,英伟达GPU逐渐成为通用计算芯片,它替代CPU成为引领算力进步的新宠儿。
尽管英伟达在人工智能芯片上的单芯片算力从2012年开始用了10年的时间翻了1000倍,但是以提升功率与价格的方式实现的,我们测算最近10年全球每GFLOPS的复合成本降幅大约在25-35%之间,这一降幅略低于摩尔定律的要求。
三大算力应用:比特币、云计算、新能源车
比特币的出现大大拉动了全网算力的提升,在14年的时间里,全网算力增加了3万亿倍(3.2*10^12),相当于每年复合增速6.8倍。目前比特币挖矿的耗电量相当于全球排名第20名左右的国家用电量。
单CPU算力提升受阻,云计算成了继GPU之外的又一解决方案。到了2016年,几乎所有的大公司在云计算的部署都已完成。2024年,云计算市场规模达到了6760亿美元,2016-2024年复合增速达到了25.2%。
从算力角度,新能源汽车的第一特征可能不再是汽车,而是一台“大号的、行走的计算机”,从Model-S开始,新能源车的发展进入到了快车道。中国在新能源车的普及上遥遥领先全球,2023年新能源车占总销量比重高达38%,欧洲为21%,美国仅为9.5%。单车载芯片算力目前达到500-1000T,预计2030年将达到5000T。
大模型的出现:AI翻开了崭新的一页
2017年,有关Transformer架构的论文发布,随后谷歌的BERT模型与OPENAI的GPT模型发布,但初期并未受到广泛关注。2022年GPT3.5成为分界点,它让科技界看到了“大力出奇迹”的千亿参数级别的大模型效果可以如此强大。随后万亿参数级别的GPT4、以及多模态SORA模型的出现,为大模型的发展打开了更广阔的空间。
如果将模型参数与人类的神经突触对标,那么大约到100万亿参数的模型可以实现AGI(通用人工智能),马斯克、黄仁勋、OPENAI前员工大约预测了这个时间在2027-2029年。
鉴于AIAgent的开发门槛越来越低,LLM能力越来越强,它或将成为下一个风口。就如同移动互联网时代的APP,互联网时代的网站,计算机时代的应用软件,AIAgent或将走出下一批大公司。
风险提示:地缘政治的不确定性,美联储降息幅度的不确定性,部分行业竞争格局的不确定性。