人工智能芯片竞争加剧 2023年中国人工智能产业建设实施方案

来源:互联网· 2023-12-13 14:31:21

人工智能(AI)行业又有新消息传来。美国超威半导体公司(AMD)于当地时间12月6日举行“Advancing AI”发布会,发布了备受外界期待的MI300系列芯片产品,新产品可用于训练和运行大型语言模型,比前代产品拥有更好的内存容量和更高的能效。AMD首席执行官苏姿丰(Lisa Su)更是将其中一款产品Instinct MI300X加速器描述为“世界上性能最高的加速器”。AI应用快速发展正在推动芯片行业的竞争日趋白热化。

Instinct MI300X加速器由8个MI300X GPU组成,GPU即高级图形处理器,最初设计用于图形渲染和处理,后来被发现在处理并行计算方面具有较强性能,可以用来加速各种计算密集型的应用程序。和CPU、FPGA等芯片相比,GPU是目前最新一代的AI训练芯片。英伟达的“明星产品”GPU芯片H100一年卖出数十万块,得益于此,公司业绩屡创新高,三季度实现收入181.2亿美元,同比增长206%。

人工智能的数据模型对高性能、高算力的AI芯片需求极大。有预测显示,未来4年内,AI芯片行业的规模将超过4000亿美元。在强劲的需求下,AMD、英特尔、IBM等科技巨头都在研发AI芯片,谷歌、微软、阿里、百度等公司也纷纷布局自研芯片。本次AMD推出的MI300X芯片就被寄予厚望,其有着超过1500亿个晶体管,内存是英伟达H100芯片的2.4倍,在训练大型语言模型方面与英伟达的H100芯片相当,但在推理方面表现更好。AMD的新产品得到了不少大客户的青睐,微软、Meta、甲骨文等都宣布将采用AMD的芯片产品。

人工智能算力布局初步形成,国产人工智能芯片和深度学习框架等基础软硬件产品市场占比显著提升,算力芯片等基本实现自主可控。国产硬件比例显著提高,全面兼容国产深度学习框架。人工智能算力资源并网互联,推动基础软硬件实现高质量自主可控。

2023年中国人工智能产业建设方案

近日,北京市人民政府印发《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》,其中提出,充分发挥北京市在人工智能领域的创新资源优势,持续提升全球影响力,进一步推动人工智能占先发展。

目标到2025年,人工智能核心产业规模达到3000亿元,持续保持10%以上增长,辐射产业规模超过1万亿元。人工智能领军企业科研投入持续增加,初创企业数量不断增长,企业总数保持国内领先,新培育独角兽企业5-10家。人工智能应用深度广度进一步提升,生成式产品成为国内市场主流应用和生态平台,推动产业高端化发展。

其中还提出,推动国产人工智能芯片实现突破。面向人工智能云端分布式训练需求,开展通用高算力训练芯片研发;面向边缘端应用场景的低功耗需求,研制多模态智能传感芯片、自主智能决策执行芯片、高能效边缘端异构智能芯片;面向创新型芯片架构,探索可重构、存算一体、类脑计算、Chiplet等创新架构路线。积极引导大模型研发企业应用国产人工智能芯片,加快提升人工智能算力供给的国产化率。

人工智能(AI)产品市场份额占比

近期投资银行摩根大通在其投资报告中称,凭借GPU和网络产品等硬件产品,英伟达今年将在人工智能(AI)产品市场中占据高达60%的份额。

据悉,由于游戏部门的周期性放缓,该公司2024财年第一财季的营收同比下降13%,至71.9亿美元。但同期,其数据中心业务营收达到创纪录的42.8亿美元,同比增长14%,这部分营收占其总营收的60%;游戏业务营收为22.4亿美元,同比下降38%,占其总营收的31%。

目前,英伟达在AI领域处于领先地位,它在AI处理器市场上占据大约80%的份额,其高端处理器已被用于训练和运行各种聊天机器人。该公司备受投资者青睐,被认为是满足AI计算能力需求的关键供应商。

AI产业链通常由上游的数据和算力层、中游算法层和下游应用层构成。近期,市场更为关注上游产业链,尤其是算力板块。AI硬件涌现出很多新的投资机会,AI软件应用的背后靠硬件的算力支撑。

国内AI算力需求将保持增长势头

在ChatGPT持续催化下,国内AI算力需求将保持增长势头,算力服务器厂商有望受益。据估算,ChatGPT的总算力需要7个至8个投资规模30亿元、算力500P的数据中心支撑运行。在数字经济时代,全球数据总量和算力规模将呈现高速增长态势。

随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,占整体服务器出货量近9%,至2026年占比将进一步提升至15%,该机构同步上修2022-2026年AI服务器出货量年复合增长率至22%,而AI芯片2023年出货量预计将增长46%。

该机构表示,英伟达GPU已成为AI服务器所搭载芯片的主流,市占率约60-70%,其次为云计算厂商自主研发的ASIC芯片,市占率逾20%。

相比通用服务器,AI服务器使用多张加速卡,其PCB采用高多层HDI结构,价值量较高,而且主板层数也远高于通用服务器,AI服务器PCB价值量是普通服务器的价值量的5-6倍。

英伟达创始人兼CEO黄仁勋在NVIDIA Computex2023演讲中宣布,生成式AI引擎NVIDIA DGXGH200现已投入量产。从演示中可以观察到新发GH200服务器架构相对DGXH100有较大变化。GH200相对DGXH100的PCB变化,减少的是1张UBB和1张CPU母板,增加的是3张NVLink模组板,同时加速卡性能大幅度提升,PCB单机价值量应当有所增加,由此可见AI升级将持续带动PCB板块价值增值。

算力资源作为数字经济发展的重要底座,数字化新事物、新业态、新模式推动应用场景向多元化发展,算力规模的不断扩大带动算力需求持续攀升。据工信部数据披露,2022年全国在用数据中心机架总规模超过650万标准机架;近5年,算力总规模年均增速超过25%。当算力在千行百业落地应用时,不同精度的算力需要“适配”多样化的应用场景。特别是随着人工智能技术的高速发展,算力结构随之演化,对智能算力的需求与日俱增。

政策层面看,我国高度重视AI产业发展,智能算力发展的基础逐渐夯实。2022年2月,四部委再次联合印发通知,同意在8地启动建设国家算力枢纽节点,并规划10个国家数据中心集群。至此,全国一体化数据中心体系完成总体布局设计,随着“东数西算”工程全面实施,智算中心建设也进入了加快发展的新阶段。数据中心作为数据枢纽和应用载体,是人工智能发展的基础,长期来看数据中心需求有望恢复。预计2024年IDC市场规模达6123亿元,2022-2024年复合增速达15.9%,数据中心将进入新一轮上升期。

人工智能的未来发展方向

人工智能属于很多概念的总和,但其中有些概念很难被测量和验证,例如让机器理解什么是社会、什么是责任,虽然能输出一个表征,但很难检验机器是否真正理解这些概念,因此可在一些可验证、可测量的概念上做出一个闭环,而具身智能刚好是这样的闭环,是迈向通用智能很好的起点。

不断高速发展的AI大模型,有望突破局限,让机器人生“智”。

机器人的大模型包含LLM(大语言模型)、VLM(视觉-语言模型)、VNM(视觉导航模型)。机器人的“大脑”AI域不局限于ChatGPT运用的语言大模型,谷歌在LM-Nav的研究中提到,LLM+VLM+VNM三个模型相互结合,从自然语言(冗余口语化描述)到文本(地标的字符串)到图像(根据文本找图像中的物体),能够最终生成机器人的路径规划。以此行为模式为基础,机器人能进行人机互动,同时实现一定程度的“随机应变”。

不久前,上海交通大学卢策吾教授在机器之心AI科技年会上发表主题演讲《具身智能》,提出PIE方案,认为具身智能包括3个模块:具身感知(Perception)、具身想象(Imagination)和具身执行(Execution),有望加速推动具身智能落地。

目前看来,AI+机器人或许正是“具身智能”当前的落点。

由于具身智能相较于非智能普通人形机器人有更高的工作效率,其具备的理解力、交互力、规划能力等,在机器人进入千行百业后,拥有极强的落地实用性。同时其能够用自然语言控制的特性,是未来规模化协助普通工作人员的必要条件。

因此,未来可关注目前可用大模型进行改造的硬件机器人类型及应用场景,例如对话为主的服务机器人、工业机器人、复杂场景下的人形机器人等领域。

诸多大厂已在具身智能领域进行布局,谷歌发布史上最大通才模型PaLM-E;微软探索如何将ChatGPT扩展到机器人领域;阿里巴巴-千问大模型正在实验接入工业机器人等。

其中特斯拉人形机器人Optimus让人眼前一亮。

自去年10月特斯拉人形机器人Optimus首次亮相无法自主行走需要人搀扶,5月17日,特斯拉股东大会展示视频中Optimus已经可以在车间灵活行走、抓取物体,已经拥有环境探索与记忆、电机转矩控制能力、基于人类跟踪运动的AI训练以及物体操纵能力,且已打通了FSD底层模块,实现了一定程度的算法复用。


您可能关注: AI芯片 人工智能 AI产业

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。