中金公司彭虎:大模型迭代中算力基础设施或更受益

添加书签

专注AIGC领域的专业社区,关注OpenAI、百度文心一言等大语言模型(LLM)的发展和应用落地,关注LLM的基准评测和市场研究,欢迎关注!

随着数字经济持续发展,AI大模型产品不断涌现。在本轮AI变革中,大模型担当的角色和定位是什么?未来大模型产品的进一步更新完善下,产业链哪些环节有望更受益呢?

近日,中金公司研究部科技硬件行业首席分析师、执行总经理彭虎做客澎湃新闻《首席连线》直播间,就上述相关问题作出分析解读。

需求和供给侧均有驱动力对于当下国内外大模型产品的层出不穷,彭虎表示驱动因素主要有两方面:一是需求侧,二是供给侧。

“需求侧方面,主要是交互体验升级、企业降本增效等诉求。一方面,大模型具有较强的泛用性,有针对性地微调可适用于不同应用场景,例如在办公、纪要、对话、搜索、广告、绘画、作曲等各类内容生成领域广泛分布,并带动智能终端人机交互模式的创新性变革。”彭虎指出。

彭虎进一步指出,另一方面,大模型的性能较原本AI小模型能力更强,虽然AI小模型已经深度赋能安防、互联网、金融、工业、医疗等诸多场景,但大模型有望进一步帮助各行业降本增效。

“供给侧方面,主要是海外厂商的鲶鱼效应。为避免由于技术落后造成的竞争劣势,国内科技巨头纷纷将研发重心转移至大模型。”彭虎说。

有望成为重要的算法基础平台

对于大模型接下来的发展定位,彭虎认为,大模型在本轮AI变革中,未来有望成为重要的算法基础平台。

“行业有‘如果将AI(人工智能)比作电力,那么大模型则相当于发电机’这样一个很形象的比喻,我也深以为然。随着政策法规不断完善、算力设施配套性不断增强等,大模型有望发展为重要性比肩算力的基础平台,届时算力基础设施与算法基础平台将共同深度赋能社会的各个环节,大模型会成为各行各业AI能力的重要源泉。”彭虎表示。

具体到应用方面,彭虎指出,大模型并不局限于语言理解,还能够在视觉、声音等各类模态中发挥作用,跨模态大模型更是有望将人工智能水平托举至新高度。

“多模态能力结合生成式技术,人工智能也有了创造力。生成式AI作为一类机器学习算法,能够在学习吸收现实既有数据的基础上,经过训练与精调,对外输出文本、图像、语音、视频、代码等内容,从技术发展现状看,AI生成内容已在相当大的程度上媲美人类。”彭虎进一步指出。

彭虎表示,ChatGPT、DALL-E 2、Whisper、X-CLIP、Codex等应用,已分别在文本、图像、语音、视频、代码等领域,展现出不俗的创造力。

应用落地情况方面,彭虎看好消费场景的四个方向:一是智能手机,硬件端有望带动移动AI芯片性能提升,进一步有望带动手机创新加快,同时在生态端,手机端或有望形成新的流量入口,长期或深刻影响产业商业模式;二是可穿戴产品;三是智能家居;四是机器人,目前谷歌已探索了通过自主学习的大模型,在现实环境中处理机器人指令,实现复杂任务的完成。

迭代需求带来算力需求上修

产业链方面,彭虎分析称,大模型的上游主要包括硬件的芯片、服务器、通信网络;软件的云计算、数据库、虚拟化等。

“中游包括算法研发的编程语言、算法框架、模型测评等;模型管理维护的系统管理、API管理、数据管理等。”彭虎进一步指出,“下游包括各类行业场景,如社交、媒体、营销、教育、娱乐等,主要实现内容生产、创意设计、对话引擎、辅助开发等功能。”

展望下一步,彭虎表示,为满足大模型迭代需求,算力需求正不断上修,当下谷歌、特斯拉、英伟达等厂商的硬件迭代,已反映该需求的变化。

“同时,AI芯片方面,云端AI算力芯片渗透率仅为个位数,未来成长空间广阔。AI服务器方面,竞争格局上当前互联网云计算厂商的白牌服务器占主导,未来随着边缘侧应用的成熟,品牌服务器厂商份额也有望提升。”彭虎说。

云端算力基础设施更受益

随着大模型应用的推出和更新完善,产业链的哪些环节有望更受益呢?

彭虎认为,从硬件角度看,大模型的训练及推理需要海量数据的高效处理作为支撑,因此云端算力基础设施将迎来发展机遇,其中六方面值得重点关注。

“一是算力芯片。AI范式进入‘炼大模型’时代,对AI芯片计算能力、存储容量、通讯带宽等多个维度提出了更高的技术要求。更大算力、更高内存、更快带宽的AI芯片需求有望持续提升。”彭虎指出。

彭虎进一步指出,二是服务器。相较于传统的服务器,AI服务器以异构形式配备了GPU、NPU、FPGA、ASIC等多类芯片,能够支持大模型训练的高算力需求。AI服务器对算力、功耗、存储、通信等有更高的要求,由此带来芯片配置、硬件架构、机箱设计等方面的差异。

“三是交换机。数据流量的快速增长,叠加人工智能发展推动数据中心网络架构转型,有望驱动交换机数量和端口速率上行,高速以太网交换机市场有望实现强劲增长。”彭虎称。

彭虎表示,四是光模块。考虑到模型并行训练、AI应用推理的快速发展,800G、1.6T等下一代光模块产品的渗透率提升曲线,或将变得更为陡峭。此外,硅光模块、CPO技术有望引领下一代数据中心风向,助力超高带宽数据互联。

“五是存储与温控等。AI模型的训练及推理对存储器提出了更高的要求,有望加速SSD对HDD的替代进程。同时,AI服务器高能耗特性,有望推动数据中心的散热系统向液冷更新迭代。”彭虎说,“六是电源。大模型高能耗的特点,有望增大对电力的需求。”

C端和B端仍有不确定性因素

虽然当下大模型面临的利好因素很多,但彭虎强调,大模型的发展在C端和B端仍有一些不确定性因素。

“ToC端,除了GPT-4,其他AI模型的用户还处于免费体验的模式,同时以Microsoft 365、New bing等为代表的应用,也仍处于免费体验的模式,收费模式尚不确定。ToB端,目前大量初创企业接入的ChatGPT、GPT-4 API接口收费较低,未来的收费标准和模式也不确定。”彭虎解释称。

投资方面,彭虎提醒投资者,仍需防范AIGC相关算法技术及应用商业落地进展不及预期的风险。

“随着全社会数字化转型及智能化渗透率的提升,人工智能持续赋能各行各业。人工智能依赖于海量数据进行模型训练及推理应用,并推动全社会算力需求的提升,因此服务器、存储器、通信网络设备等上游硬件基础设施,均有望受益于AI驱动的算力需求提升。但如果人工智能发展及应用落地不及预期,可能会使上游硬件设备受到需求侧的压制,导致发展不及预期。”彭虎说。

本文来源澎湃新闻,如有侵权请联系删除

END