中国银河证券:AI商业模式逐步落地算力产业链未来发展值得期待
智通财经APP获悉,中国银河证券发布研究报告称,在ChatGPT等应用商业化出现落地方式,AIGC创作内容不断增长的条件下,芯片作为AI行业的基础设计,为AI训练和数据计算提供支持,未来AI应用落地层面对庞大算力的需求更为重要。强大的算力水平是AI大模型必备的技术支撑,ChatGPT3.0模型需要使用1024颗英伟达A100芯片训练长达一个月的时间。因此,相关算力产业链未来发展值得期待。该行看好国内相关算力产业链公司的未来发展。
AI带动万亿蓝海市场,“模型+数据+算力”为产业核心壁垒。
AI历史发展余70年,当前正处于新一轮产业变革制高点。从规模上看,全球AI产业规模预计2030年将达到1500亿,未来8年复合增速约40%。从市场来看,美国领先,中国和欧盟并驾齐驱,三地企业合计份额为70.01%。2022年中国人工智能产业规模达1958亿元,年增长率7.8%,整体稳健增长。模型、数据和算力为人工智能发展三驾马车,Transformer模型的引入标志着自然语言处理模型能够大规模地生成类似人类的语言,并且进入可大规模、可复制的大工业落地阶段。算法模型发展的同时,对于数据规模和质量的要求也在不断提高。其中ChatGPT参数量达到1750亿次,数据规模达到45TB,从1956-2020年,计算机处理能力的FLOPS增加了一万亿倍。同时海外和国内互联网行业巨头积极布局AI,竞赛压力逐步提升。
AI产业迎来“iPhone”时刻,英伟达召开GTC2023,关注高性能计算相关领域壁垒。
英伟达在GTC2023推出AIFoundations云服务,从NEMO、PICASSO、BIONEMO三方面,赋能不同AI场景。同时发布H100NVL服务器,相比A100DGX提供10倍的计算速度。在大算力背景下,存算性能呈现剪刀差,存储器件性能远弱于算力性能提升,AI训练未来的瓶颈不是算力,而是GPU的“内存墙”。因此,未来存算一体化趋势确定,HBM与Chiplet有望实现降本增效,全球半导体厂商已提出多种解决方案,存内计算电路可基于SRAM和NORFlash实现。HBM的高带宽技术,基于TSV和芯片堆叠技术的堆叠可实现高于256GBp/s带宽远超过DDR4和GDDR6。Chiplet技术无需中介层、芯片直接通过TSV直接进行高密度互连,性能可以得到很大的提升,算力水平也会提高。
AI商业落地曙光出现,ChatGPT引爆大算力需求。
ChatGPT是使用海量语料库进行训练的语言生成器,在2022年11月ChatGPT推出后,迅速引爆市场,2个月内月活跃用户数便达一亿,成为了历史上用户增长蕞快的消费应用。ChatGPT参数量2018年OpenAI发布的ChatGPT1.0的模型参数为1.17亿,2019年的第二代模型参数为15亿,ChatGPT3.0的参数相比于ChatGPT2.0增长了近百倍,达到了1750亿。强大的算力水平是AI大模型必备的技术支撑,ChatGPT3.0模型需要使用1024颗英伟达A100芯片训练长达一个月的时间,AIGC商业落地蓄势待发,未来对算力的需求更将超乎想象。
产业招商/厂房土地租售:400 0123 021
或微信/手机:13524678515; 13564686846; 13391219793
请说明您的需求、用途、税收、公司、联系人、手机号,以便快速帮您对接资源。
长按/扫一扫加葛毅明的微信号
扫一扫关注公众号
扫描二维码推送至手机访问。
版权声明:本文由中国产业园区招商网发布,如需转载请注明出处。部份内容收集于网络,如有不妥之处请联系我们删除 13391219793 仅微信