从ChatGPT看芯片产业机遇

导读
chatgpt是由openai公司开发的人工智能聊天机器人程序,于2022年11月发布,达到1亿用户量用时仅2个月。chatgpt是基于gpt-3.5微调得到的新版本模型,能够借助人类反馈的强化学习(rlhf)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。
01. chatgpt激起ai浪潮
1.1 ai创新浪潮兴起,多模态赋能下游行业
chatgpt是生成式人工智能技术(aigc)的一种,与传统的决策/分析式ai相比,生成式ai并非通过简单分析已有数据来进行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。aigc的应用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。
aigc产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能ai芯片、服务器和数据中心为aigc模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责ai数据的采集、清洗、标注及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、推荐等场景,未来有望在多个行业呈现井喷式革新。
资料来源:甲子光年,中泰证券研究所
多模态大模型有望成为ai主流,赋能下游行业智能升级。生成式ai主要依赖于人工智能大模型,如transformer、bert、gpt系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使ai算力的需求也呈现出指数级的增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习,将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。
从gpt-1到chatgpt,模型参数与训练数据量不断增加,所需算力资源不断提升:
gpt-1:最早的gpt模型之一,包含了1.17亿个参数,预训练数据量约为5gb。
gpt-2:参数数量达到了1.5亿个,预训练数据量达40gb。
gpt-3:是目前为止最大的语言模型之一,包含了1750亿个参数,预训练数据量为45tb。
chatgpt:基于gpt-3模型的变种之一,参数量预计与gpt-3相近。
资料来源:openai官网,中泰证券研究所
多模态模型是实现人工智能应用的关键。3月14日openai发布gpt-4多模态大模型,拥有1)强大的识图能力;2)文字输入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上,gpt-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下gpt-3.5在倒数10%左右。多模态大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快速增长。
aigc下游市场渗透率低,增长空间广阔。根据gartner数据,目前由人工智能生成的数据占所有数据的1%以下,预计2023年将有20%的内容被生成式ai所创建,2025年人工智能生成数据占比将达到10%。根据前瞻产业研究院数据,2025年中国生成式商业ai应用规模将达2070亿元,cagr(2020-2025)为84.06%。
1.2 算力芯片迎来产业机遇
ai人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路ai芯片。ai的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(yann lecun)等人一起开发了可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(convolutional neural network,cnn)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时ai科技泡沫的破灭。
ai芯片是ai发展的底层基石。英伟达早在1999年就发明出gpu,但直到2009年才由斯坦福大学发表论文介绍了如何利用现代gpu远超过多核cpu的计算能力(超过70倍),把ai训练时间从几周缩短到了几小时。算力、模型、数据一直是ai发展的三大要素,而ai芯片所代表的算力则是人工智能的底层基石。
算力硬件层是构成aigc产业的核心底座,主要包括ai芯片、ai服务器和数据中心。
ai芯片是算力硬件层的基石。ai芯片主要分为cpu、gpu、fpga和asic四类,cpu是ai计算的基础,gpu、fpga、asic作为加速芯片协助cpu进行大规模计算。目前ai芯片主要被国际厂商垄断,根据counterpoint、idc数据,intel和amd共计占2022年全球数据中心cpu市场收入的92.45%,nvidia占2021年中国加速卡市场份额的80%以上。
ai服务器是ai芯片的系统集成。ai服务器采用cpu+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外ai芯片厂商的垄断局面不同,中国ai服务器水平位于世界前列。据idc数据,在2021h1全球ai服务器市场竞争格局中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。
数据中心的计算服务是承接ai算力需求的直接形式。aigc的模型训练是通常是通过云计算服务完成的,其本质是aigc模型厂商借助idc的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光等,提供云计算的厂商主要有阿里、腾讯等互联网企业。
资料来源:智通财经,counterpoint,idc,中泰证券研究所
chatgpt单次训练所需算力约27.5pflop/s-day,单颗nvidiav100需计算220天。
根据openai数据,gpt-3xl参数规模为13.2亿,训练所需算力为27.5pflop/s-day。由于chatgpt是在13亿参数的instructgpt基础上微调而来,参数量与gpt-3xl接近,因此预计chatgpt训练所需算力约为27.5pflop/s-day。以nvidiav100芯片为例,一颗nvlink版本v100芯片的深度学习算力为125tflops,则chatgpt模型的训练至少需要1颗v100芯片计算220天才能完成。
随着模型参数的不断增加,模型训练所需算力将进一步提升,将进一步拉动对算力芯片的需求。根据openai数据,随着gpt-3系列模型参数规模由1.25亿增加至1746亿,训练所需算力从2.6pflop/s-day上升至3640pflop/s-day,规模参数(1396.8倍)与算力需求(1400倍)呈同比例增长。
02. 芯片是chatgpt底层土壤
2.1 ai芯片有望率先受益,cpu+xpu异构形式成为主流
机器学习主要包括训练(training)和推断(inference)两个步骤,通常需要不同类型的ai芯片来执行。训练是指通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能;推理是指利用训练好的模型,使用新数据推理出各种结论。
训练芯片:通过大量的数据输入,构建复杂的深度神经网络模型的一种ai芯片。需要较高的计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务,注重绝对的计算能力。
推断芯片:推断芯片主要是指利用训练出来的模型加载数据,计算“推理”出各种结论的一种ai芯片,注重综合指标,侧重考虑单位能耗算力、时延、成本等性能。
ai芯片是ai算力的核心,需求有望率先扩张。ai芯片是用于加速人工智能训练和推理任务的专用硬件,主要包括gpu、fpga、asic等,具有高度并行性和能够实现低功耗高效计算的特点。
资料来源:idc,中泰证券研究所
目前cpu+xpu异构形式成为ai服务器主流架构。传统的cpu单元对于ai计算任务的处理能力有限,而xpu(包括gpu、fpga、asic等)则可以提供更强大的计算能力,因此将cpu和xpu结合起来使用可以实现计算任务的高效处理和资源的最优利用。一般来说,cpu负责整个系统的管理和控制,而加速芯片则负责ai计算任务的加速,两者相互协作,共同提升整个系统的性能。
服务器计算架构从单核的串行走向多核的并行,又进一步从同构并行走向异构并行,未来或将从异构并行走向超异构并行。目前在ai服务器中,常见的异构组合有8xgpu+2xcpu、4xgpu+2xcpu、8xfpga+1xcpu、4xfpga+1xcpu。在异构计算的趋势下,ai加速芯片搭载率将持续增高。根据idc全球范围调研显示,2022年每台ai服务器上普遍多配置2个gpu,未来18个月gpu、asic、fpga的搭载率均会上升。根据idc数据,2021h1全球ai服务器市场规模达66.6亿美元,同比增长率超过全球ai整体市场增长率22.4%。预计在2025年全球ai服务器市场规模将达到277亿美元,cagr(2020-2025)为20.3%。
2.2 ai算力需求,存储芯片受益
chatgpt带动ai服务器需求,存储芯片受益。chatgpt的数据获取、数据整理、训练、推理除大算力芯片外,还需存储芯片支持。
服务器成本构成:服务器成本包括算力芯片、存储器等,根据idc 2018年服务器成本构成,在高性能服务器/推理型服务器/机器学习型服务器中存储占比29%/25%/16%。ai服务器,除了内存需要128gb或更大容量的高性能hbm和高容量服务器dram,还需硬盘去存储大量数据。
存储下游市场:智能手机+服务器+pc是主要下游。智能手机端出货量增速有限,单机容量提升是主要推动力;服务器端,受益人工智能、物联网和云计算等应用兴起,服务器出货量及单机容量提升推动增长。
资料来源:idc、dramexchange,sia,中泰证券研究所
03. 芯片需求增长拉动产业链机会
3.1 封测:chiplet是ai芯片大势所趋
当前ai芯片呈现几大趋势:
1)制程越来越先进。从2017年英伟达发布tesla v100 ai芯片的12nm制程开始,业界一直在推进先进制程在ai芯片上的应用。英伟达、英特尔、amd一路将ai芯片制程从16nm推进至4/5nm。
2)chiplet封装初露头角。2022年英伟达发布h100 ai芯片,其芯片主体为单芯片架构,但其gpu与hbm3存储芯片的连接,采用chiplet封装。在此之前,英伟达凭借nvlink-c2c实现内部芯片之间的高速连接,且nvlink芯片的连接标准可与chiplet业界的统一标准ucle共通。而amd2023年发布的instinct mi300是业界首次在ai芯片上采用更底层的chiplet架构,实现cpu和gpu这类核心之间的连接。
3)2020年以来头部厂商加速在ai芯片的布局。ai芯片先行者是英伟达,其在2017年即发布tesla v100芯片,此后2020以来英特尔、amd纷纷跟进发布ai芯片,并在2022、2023年接连发布新款ai芯片,发布节奏明显加快。
据相关论文,芯片成本变化有以下规律:
1)封装形式越复杂,封装成本、封装缺陷成本占芯片成本比重越大:具体来说,soc<mcm<info小于2.5d。
2)芯片面积越大,芯片缺陷成本、封装缺陷成本占比越大;
3)制程越先进,芯片缺陷成本占比越高,而chiplet封装能有效降低芯片缺陷率,最终达到总成本低于soc成本的效果。
制程越先进、芯片组面积越大、小芯片(chips)数量越多,chiplet封装较soc单芯片封装,成本上越有优势:
chiplet主要封装形式有mcm/info/2.5d这三种。14nm制程下,当芯片面积超过700mm²时,chiplet封装中的mcm成本开始较soc低,当面积达900mm²时,mcm较soc成本低近10%(2颗chips)、或低20%(3颗chips)、或低25%(5颗chips);
7nm制程下,芯片面积超过400mm²时,mcm成本开始低于soc,面积超过600mm²时,info成本开始低于soc,当面积达900mm²时,5颗chips情况下,mcm较soc成本低40%、info较soc成本低20%;5nm制程下,芯片面积超过300mm²时,mcm成本开始低于soc,成本超过500mm²时,info成本开始低于soc,当面积达900mm²时,5颗chips情况下,mcm较soc成本低50%、info较soc成本低40%、2.5d较soc成本低28%。
鉴于当前ai芯片朝高算力、高集成方向演进,制程越来越先进,chiplet在更先进制程、更复杂集成中降本优势愈发明显,未来有望成为ai芯片封装的主要形式。
3.2 pcb:ai服务器基石
chatgpt数据运算量增长快速,带动服务器/交换机/显卡等用量提升,布局相应领域pcb公司显著受益。chatgpt带来了算力需求的激增,与之对应亦带来相应服务器/交换机等作为算力核心载体和传输的硬件,带来pcb需求大幅增长,同时随着对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对pcb的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。
以23年发布的新服务器平台为例,pcie5.0服务器用pcb层数、材料、设计工艺均有升级,pcb价格提升显著,其层数从4.0的12-16层升级至16-20层,根据prismark的数据,2021年8-16层板的价格为456美元/平米,而18层以上板的价格为1538美元/平米,pcb价值量增幅明显;另外配套新服务器,交换机、传输网产品都需要同步升级,预计400g、800g交换机对pcb板子拉动巨大,进一步带动数通板景气度提升。

原位体积&压强测试(CV,CP系列)
三星对其Odyssey +设备进行了优惠促销
地表水水质自动监测系统建设方案
i.MX 8M Plus加持的AI领域的里程碑开发板长什么样?
远程信息处理控制单元介绍
从ChatGPT看芯片产业机遇
使用LTC4095的锂聚合物充电器电路
低消耗小功率10W电源芯片U9513B简介
地平线与轻舟智航正式达成战略合作
半导体电子产业 经济学思维之三十三:“假阳性错误”和“假阴性错误”
MQTT在低功耗物联网传感器网络中的应用
赛普拉斯TrueTouch解决方案支持富士胶片Metal Mesh传感器
什么是交流电什么是正弦交流电
国家电投塔城铁列克提99兆瓦风电项目顺利试运行
电感的稳定性
什么叫做零电压开关
工业制造企业应用自己物联网的优势
通用汽车将与LG化学共同建设新能源汽车动力电池合资企业 并建立全新电池工厂
光纤HDMI为什么比铜缆HDMI价格高
OPPO Watch能够安装任意手机apk文件