如果说算力式数字经济时代的关键生产力,是全社会数字化、智能化转型的重要基石,那么运力就是传递信息的关键,是连接用户、数据、算力和应用的桥梁。它是智能时代的关键承载底座,对实现算力资源的一体化调度至关重要。在数字世界中,数据的快速传输和高效共享至关重要。高速的网络连接、稳定的带宽以及低延迟的通信,这些都是运力的体现。算力与运力是相互依存的关系。算力需要强大的运力来支持数据的快速传输和灵活调度,以实现算力资源的高效利用。同时,运力的提升也需要算力的支持,以处理更多的数据和复杂的计算任务。交换机、光模块和片间通信芯片国产化替代之路大有可为根据云岫资本,交换机、光模块和片间通信芯片是构建网络运力的基础,它们直接影响着数据的传输效率、能耗、时延等关键性能指标,对于支撑算力服务及应用发展具有重要作用。交换机是一种用于电(光)信号转发的网络设备,它可以为接入的任意两个网络节点提供独享的电信号通路。交换机是数据包交换网络中的核心设备,能够根据目的地址来转发和交换数据包,实现多个设备之间的通信。光模块是光纤通信中的重要组成部分,是实现光信号传输过程中光电转换和电光转换功能的光电子器件。服务器与交换机通过...
在数据存储需求呈指数级增长的背景下,“性能”和“节能”两大需求正共同推动着新型存储技术的快速发展。例如,20世纪70年代对存储的需求只有高读写速度,功能及PC时代专为代码存储,要求小体积。智能终端时代要求存储数据,高速度、高容量、低成本的存储器。如今的高性能计算时代下对存储的要求转变为提升能耗比和能效比,新型存储技术即将迎来爆发。新兴应用场景推动新型存储市场增长根据云岫资本,AI、智能汽车等新兴应用对数据存储在速度、功耗、容量、可靠性等层面提出了更高要求,新型的存储技术旨在集成SRAM的开关速度和DRAM的高密度特性,并具有Flash的非易失特性,具备千亿市场空间。根据云岫资本,不同的存储器类型其技术路线也不同。例如:PCRAM具有低延时、读写时间均衡;寿命长,耐写能力远超过闪存;功耗低,没有机械转动装置;密度高的特点,部分PCM采用非晶体管设计;抗辐照特性好,能满足国防和航天的需求。MRAM具有非易失性,铁磁体的磁性不会由于断电而消失;写入速度快、功耗低的特点,可实现瞬间开关机并延长便携机的电池使用时间;和逻辑芯片整合度高,具备在逻辑电路上构造大规模内存阵列的潜力。但存储单元之间存在...
随着AI技术的快速发展与生成式AI的兴起,对算力基础设施的需求持续上升,其中存储芯片作为关键组成部分,其重要性日益凸显。大模型能力的提升,对算力提出了更高要求。存储芯片作为算力基础设施的一部分,需要满足AI 应用对高效处理能力和大容量存储的需求。云岫资本指出,行业复苏叠加AI需求提振,存储芯片进入上涨周期。核心应用增长提升存储行业整体需求。2023年AI服务器为118.3百万台,2024年增长至150.4百万台,实现了27%的年增长率。2023年手机市场规模为11.5亿部,2024年增长至11.9亿部,年增长率为4%。电脑端2023年市场规模为2.5亿台,2024年增长至2.7亿台。服务器市场由2023年的12.6增长至13.1(百万个)。此外,高性能产品HBM和DDR5也在驱动存储行业长期增长。根据云岫资本,2023年DDR5的渗透率为30%,预计到2025年将增长至80%。而HBM2023年的市场规模为58亿美元,预计到2025年将增长至98亿美元。存储芯片在AI领域的应用前景广阔。随着AI技术的不断发展和普及,存储芯片将广泛应用于智能终端、云计算、大数据中心等领域,为AI应用提供...
云岫资本的分析显示,随着大型AI模型的不断演进和升级,对于AI芯片的通用性要求也在不断提高。由于对硬件性能的需求增加,专用芯片的市场空间正在缩小,逐渐被市场淘汰。专用集成电路(ASIC)的DSA(特定领域架构)由于需要针对不同的模型和应用场景进行重新适配,其通用性较弱,导致大规模部署困难,性价比不高。此外,DSA架构的算法种类繁多,使得应用层难以构建起一个统一的生态系统,形成了较强的生态壁垒。与此同时,GPU因其能够兼容多种大模型计算需求、应用范围广泛、开发周期短、能够大规模生产以降低成本、并行计算能力强大,以及存在软件优化空间和通用平台CUDA,能够满足多样化的功能需求,已经成为AI算力芯片的主流选择。云岫资本进一步指出,从卷积神经网络(CNN)到Transformer模型,大模型的演进仍在继续,对AI芯片的通用性提出了更高的要求。硬件是否能够持续兼容各种大模型的迭代升级,成为了衡量其性能的重要标准。据2023年的数据显示,全球AI服务器中有65%采用了GPU架构芯片,预示着CPU架构可能成为未来的主导架构。图:GPU成为AI算力芯片主流架构英伟达在1999年首次提出了GPU的概念,...
大模型的发展对AI基础设施提出了全方位的新要求,从算力、数据服务到平台服务模式,再到硬件和软件的更新,以及绿色节能化发展,都需要AI基础设施进行相应的升级和优化,以支撑AI技术的进一步发展和应用。根据云岫资本,AI硬件基础设施、先进封装、高端制造国产替代成为半导体投资热点。AI大模型高速发展 算力需求不断提高AI大模型的发展需要更高的算力支持。与传统的机器学习模型相比,AI大模型通常包含更多的参数和更复杂的网络结构,因此需要更强大的计算能力来进行训练和推理。根据云岫资本,为了实现多模态支持、拓展上下文长度、提升速率限制等性能的提升,大模型预训练使用的参数量和数据量呈爆炸性增长。这些算力需求的提升直接推动了高性能计算和云计算等相关技术的发展。根据云岫资本,大模型发展的重点在算力提升,数据量的持续攀升对算力提出了更高的要求,如何进行大规模数据的高效处理和存储是当前算力设施面临的两大挑战。算力需求的提升也带来了计算资源的紧张,随着AI技术的广泛应用,越来越多的企业和机构需要部署AI大模型,导致计算资源的需求急剧增加。这种资源的紧张状况,促使计算产业不断寻求新的解决方案,如采用更高效的计算架构...
根据前瞻产业研究院的数据,预计2024-2029年中国半导体行业市场规模将以5%左右的增速增长,到2029年市场规模有望达到2564亿美元。云岫资本分析,2024年半导体行业库存重回健康,景气度回升。2023年投资收紧,2024年Q1融资数量及金额同环比均下降。本次的市场调查将根据云岫资本发布的《2024中国半导体投资深度分析与展望》对半导体领域的市场状况进行分析。AI大模型带动硬件基础设施和先进封装高速发展2023年,以ChatGPT为代表的大语言模型的爆火,使得“AI大模型元年”的说法广为流传。大模型的预训练和生成能力以及多模态场景应用能力大幅提升。也是2023年,中国本土厂商、科技巨头、科研院所以及初创公司纷纷涌入AI大模型领域,竞相部署自己的大语言模型。据云岫资本统计,截止2023年11月底,中国市场发布的大模型数量已超过300个,其中通用大模型约40个,覆盖了NLP、CV、模态大模型及多个定制化大模型。我国拥有10亿参数规模以上大模型的厂商及高校院所超过250家。随着大模型和生成式AI的发展,对算力的需求急剧增加。过去四年,大模型参数量以年均400%复合增长,AI算力需求增长...