芯片算力大爆发,大模型商业化未来可期,电子行业迎来新机遇
事件点评:
1、在台北国际电脑展(COMPUTEX)开幕前夕,英伟达首席执行官黄仁勋发表题为"开启产业革命的全新时代"的重磅演讲。在这场备受瞩目的演讲中,这位业界领袖再次展现了他对人工智能和机器人技术发展的深刻洞察。黄仁勋大胆预言,机器人自主运行的新时代即将来临,这将为整个产业带来革命性的变革。
2、“清华系”大模型公司智谱AI在智谱AIOpenDay上宣布对旗下全模型矩阵的价格大幅下调,开源GLM-4-9B系列模型,并发布了大模型应用清言App和大模型开放平台的最新更新。
芯片算力升级加速,有助于AI模型快速迭代:据外媒报道,6月2日,英伟达创始人兼CEO黄仁勋宣布,英伟达Blackwell芯片现已开始投产。演讲中,黄仁勋宣布,英伟达将在2025年推出BlackwellUltraAI芯片。下一代AI平台名称为Rubin,该平台将采用HBM4内存。Rubin下一代平台正在开发之中,将于2026年发布。根据报道,Rubin架构GPU不但采用台积电的3nm制程架构,而且采用HBM4显存,CoWoS-L封装,GPU的规格或许将会达到前所未有的程度。当下,英伟达主力AI芯片是GB200,采用Blackwell架构。GB200由两个B200BlackwellGPU和一个基于Arm的GraceCPU组成,采用台积电4纳米工艺制程,共有2080亿个晶体管,其AI性能为每秒20千万亿次浮点运算。英伟达还构建了由72张GB200构成的DGXGB200NVL72超级计算机。该超级计算机在内部节点间使用铜缆连接,以降低功耗。英伟达2024年3月份发布的GB200其AI性能为20Petaflops(每秒千万亿次浮点运算),是2022年3月发布的H100的五倍。而根据2024年6月2日黄仁勋的介绍,英伟达之前一直遵循着较慢的两年更新周期来推出芯片,后续产品推出速度将改为“一年一更”的节奏发布新的AI芯片型号。我们认为,伴随着英伟达为代表的芯片算力水平升级加速,一方面反映了AI芯片竞争的激烈加剧,另一方面也有利于AI模型快速迭代升级。
大模型价格战愈演愈烈,AI应用普及有望加速空间广阔:根据国家数据局的统计,我国数据生产量和存储量快速增长,为智慧城市建设运行、工业互联网利用等数智化应用提供了丰富的“原料”。以人工智能为例,中国10亿参数规模以上的大模型数量已超100个,行业大模型深度赋能电子信息、医疗、交通等领域,形成上百种应用模式,赋能千行百业。从今年5月开始,大模型价格战呈现出愈演愈烈的局面,更多的获取用户是大模型厂商关注的重点之一。2024年5月21日,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。5月22日,科大讯飞跟进降价,宣布讯飞星火API能力正式免费开放,讯飞星火LiteAPI永久免费开放,顶配版(Spark3.5Max)API价格为0.21元/万Tokens。腾讯云也在当天宣布,混元大模型全面降价,其主力模型之一的混元-lite模型价格从0.008元/千tokens调整为全面免费。我们认为在大模型普及初期,众多厂商进行价格战将有望加速AI大模型用户的普及,帮助用户完成初步产品教育,有利于未来市场进一步发展扩容。
投资建议:AI大模型快速迭代将有利于端侧AI应用的落地并进而推动端侧AI市场的发展扩容
建议关注:海光信息、龙芯中科、华勤技术、通富微电、长电科技、瑞芯微、晶晨股份、全志科技、翱捷科技-U、星宸科技、兴森科技、恒玄科技、中科蓝讯等
风险提示:技术创新风险、宏观经济和行业波动风险、国际贸易摩擦风险、复苏或需求不及预期相关风险