工业和信息化部主管 中国电子报社主办
收藏本站 投稿

半导体

大模型需要什么芯片?

AI对话机器人ChatGPT的走红,让“大模型”的热度从学术界、产业界一路烧到了大众媒体。信息显示,ChatGPT是一款由大型语言模型驱动的聊天机器人,在它背后起作用的是OpenAI最强大的大型语言模型GPT-3,参数量高达1750亿。

大模型的崛起,也为AI技术的地基——芯片带来了重要的商机与严峻的技术挑战。据Lambda实验室测算,如果采用英伟达V100 GPU和当时最便宜的云服务进行计算,GPT-3训练一次需要355个GPU年(一块GPU运行355年的运算量)、花费460万美元。大模型需要怎样的AI芯片,AI芯片企业又该如何应对?带着这样的疑问,记者采访了有关专家和企业家。

算力需求:对于AI芯片的要求全面拉升

4年的时间、1500倍的参数量提升,大型语言模型展现出强劲的扩张态势。2018年,OpenAI推出第一代生成式预训练语言模型GPT-1,拥有1.17亿个参数。2019年推出的GPT-2拥有12亿参数,是GPT-1的10倍多。一年后面世的GPT-3,参数量达到1750亿个,是GPT-2的100多倍,预训练数据量高达45TB。ChatGPT正是基于GPT-3.5——一个基于GPT-3的微调版本。

与参数量一起飙涨的,是大模型的算力需求。燧原科技创始人、董事长兼CEO赵立东向《中国电子报》表示,以ChatGPT为代表的生成式AI模型为了实现高质量的内容生成,具备两大特性:参数规模巨大的模型、海量的训练数据集。因此,大模型在底层算子支撑、系统架构方案、软件生态支持方面都和原先的决策式AI模型有着显著的区别,需要芯片厂商打造更加领先的系统级软硬件方案,并在技术和产品层面打破原有的路线与壁垒。

“反映到算力芯片角度,主要有三方面的需求:一是分布式计算能力,包括数据并行、模型并行、流水并行等分布式计算方案,计算效率尤其关键。二是大容量高带宽的内存方案,在每个AI芯片内部有效提升数据处理能力和算力利用率,结合HBM以及CXL等新型存储技术进一提升本地存储能力和算力利用率。三是更高的单芯片计算能力,以降低整体系统复杂度,并降低TCO成本。”赵立东说。

昆仑芯科技也向记者表示,伴随着ChatGPT的迭代,大模型算法对算力的要求不断提高,而算力的核心就是人工智能芯片。“大模型对计算的要求主要体现在三个方面,一是算力,二是互联,三是成本。大模型的热潮也将加速AI芯片技术的创新和进步,包括芯片架构、算法优化、功耗控制等方面的提升。AI芯片公司可以在这些方面进行研发和创新,不断提高产品竞争力。”

除了在已有的AI芯片路径持续迭代调优,获得更优的算力、效率、功耗、成本。大模型强烈的高算力需求,也呼唤芯片电路与架构层面的进一步创新。北京大学集成电路学院研究员贾天宇向《中国电子报》指出,大模型技术的出现和普及,将进一步推动AI芯片的发展,拉升多方应用产业对于AI芯片的需求,对于提升AI芯片的重要性和不可或缺性有积极的意义。但同时应认识到,支持大模型计算的AI芯片算力需求高、设计复杂度高,其设计要求和门槛也随之提升。

“由于传统芯片技术发展的限制,当前芯片设计的电路与架构面临着存算力瓶颈、能效瓶颈、设计复杂度瓶颈等多方面挑战。如何解决算力需求和芯片设计瓶颈之间的矛盾还需要多方的创新和技术进展。”贾天宇说。

技术路径:通用与定制的平衡

在AI芯片的发展过程中,通用性和定制化像是两个互相拉扯的作用力,衍生出一系列的芯片架构。其中,GPU和ASIC分别是通用性和定制化的代表架构,也有着各自的优势和局限。

“GPU架构提供了大量数据并行结构,因此能够提供大量的AI并行计算,适用于AI训练等。ASIC等定制化AI芯片针对特定的应用场景进行芯片优化,能够取得更高的计算能效,但通用性相对较弱。”贾天宇表示。

好在,随着芯片技术的发展,通用性与定制化已不再壁垒森严。一方面,英伟达在GPU架构中引入了Tensor Core(张量计算核心),一种专门针对深度学习应用而设计的专用ASIC单元,使GPU更加适合深度学习。与此同时,定制化芯片也逐步增加了通用计算单元,并引入可编程或部分可编程的架构,增强芯片的场景覆盖能力。

“过去被认为只具备专用性的ASIC或DSA(领域专用架构),现在不仅含有用于AI加速计算的专用单元,还含有与英伟达GPU中CUDA Core类似的通用计算单元,同样可以实现对各种指令的处理。因此,无论是GPU、ASIC或DSA架构,云端AI芯片企业在架构设计中需要关注的是通用和专用计算单元的搭配,以便应对AI计算持续演变带来的挑战。”昆仑芯科技向记者表示。

“鉴于大模型对于大算力的显著需求,以及模型训练算子的多样性,具有大算力、通用性的芯片将是大算力应用的首选。在现存的技术方案中,GPU是能够提供算力和开发生态的选择。然而,由于GPU的功耗过高,类GPU架构的定制化大算力AI芯片也将存在市场,满足对于芯片计算能效的提升需求。”贾天宇指出。

昆仑芯科技在全球人工智能开发者先锋大会的展位.jpeg

昆仑芯科技在全球人工智能开发者先锋大会的展位

而通用与定制的“配比”,要根据具体场景设计。昆仑芯科技表示,在通用性、易用性和性能之间实现平衡,需要在实际设计中结合需求。除了单一技术或者算力指标,更要注重产品的综合竞争力是否均衡。百度的AI应用场景,为昆仑芯提供了验证和调优机会。就大模型而言,昆仑芯在产品定义上已经做了布局,昆仑芯2代AI芯片相较昆仑芯第1代产品大幅优化了算力、互联和性能,在百度内外部的大模型场景中都有落地,昆仑芯在研的下一代产品将为大模型和AIGC等应用提供更佳的性能体验。

“硬件和场景是双轮驱动的,场景催生新的技术方案,新的技术促使场景更好发展。大模型作为一个趋势场景,其需求定义清楚了,设计和实现技术就会水到渠成。”昆仑芯科技告诉记者。

另外,无论是通用芯片还是定制芯片,抑或是通用、专用计算单元兼而有之,设计环节之后的制造、封装环节,也将作用于AI芯片的性能提升。

“无论GPU还是定制化AI芯片路线,Chiplet、3D堆叠等先进集成与封装技术将成为进一步提升大模型计算能力的重要技术手段,也将在未来AI芯片发展中起到重要作用。”贾天宇表示。

国内企业:需进一步增强软件及系统能力

虽然ChatGPT还没有进入盈利阶段,但英伟达已经成为第一波吃到红利的企业。从2023年第一个美股交易日至今(截稿前最后一个交易日2月24日),英伟达的股价增幅超过60%,为处于下行周期的半导体产业增添了一丝亮色。在北京时间2月23日凌晨的财报发布中,英伟达创始人兼首席执行官黄仁勋表示,从初创公司到大型企业,对于生成式AI的多功能性与能力的兴趣越来越浓厚。英伟达将帮助客户从生成式AI 和大型语言模型技术的突破中获取优势。

英伟达在AI芯片的先发优势和占比优势,固然有硬件性能的原因,但更关键的是软件生态的加持。在21世纪初,GPU的并行计算能力引起了学术界和产业界的关注。但是,开发者想要调用英伟达GPU的计算能力进行图形处理以外的任务,必须编写大量的底层语言代码,这对于习惯高级语言的程序员极其不便。2006年,英伟达推出CUDA平台,支持开发者用熟悉的高级程序语言进行编程,灵活调用GPU的算力。自此,GPU的使用范围不再局限于显卡,而是扩展到所有适合并行计算的领域。GPU与CUDA组成的软硬件系统,形成了英伟达的产品壁垒。

近年来,国内AI芯片企业在架构创新、算力性能、平台方案等领域涌现出一系列成果,但仍然需要在软件、系统和生态层面进一步向国际领先企业看齐。赵立东表示,针对大模型对于AI芯片的需求,芯片厂商一方面通过拆解大模型的系统级需求,快速迭代下一代芯片,从底层提升性能和支持效率。另一方面,要基于既有的芯片打造系统级方案,通过软件升级解决大模型加速遇到的内存容量小、通信占比高等核心痛点问题。

“要对标国际领先的AI芯片厂商,需要在三个层面开发优化:一是芯片升级,在算力、内存、微架构等层面针对大模型计算做优化;二是软件升级,从传统的单卡以及单机多卡为主的支持能力拓展至万卡级别大集群支持,有效提供面向大模型支持的分布式计算、混合并行、内存优化等整体软件方案;三是系统方案,以AI芯片为核心,结合计算、存储、网络打造深度优化的系统级方案,面向大模型提供极致的性能和成本优势。”赵立东说。

燧原科技.png

燧原科技邃思2.0芯片

据介绍,燧原科技已经基于千卡训练集群进行大模型训练,并将推理产品通过云服务商,为内容生成模型开发商提供算力支撑。基于系统级大集群大模型,燧原将持续创新迭代,重点聚焦生态建设,满足应用开发者对AI算力的强劲需求。

昆仑芯科技也表示,具体到软件生态,AI算法和应用开发者在构建AI应用和业务的过程中,需要一套成熟的编程语言,以及完善的软件工具集来快速迭代开发任务。昆仑芯SDK可以提供从底层驱动环境到上层模型转换等全栈的软件工具,已经适配百度飞桨、PyTorch、TensorFlow等主流框架和服务器,逐渐完善生态建设。“要实现像OpenAI的ChatGPT这样的大规模深度学习模型,需要大量的数据和算法优化,以及相关领域的专业知识。因此,要更好地实现ChatGPT的商用落地,需要相应的技术团队和研究机构,与AI芯片企业协同推进。”

责任编辑:张心怡


声明

1、本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2、本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3、作者投稿可能会经我们编辑修改或补充;4、如本站的文章或图片存在版权,请拨打电话010-88558835进行联系,我们将第一时间处理。

相关链接

视频

专题

2023年全国工业和信息化工作会议

1月11日,全国工业和信息化工作会议在北京召开。会议以习近平新时代中国特色社会主义思想为指导,全面贯彻党的二十大精神,认真贯彻落实中央经济工作会议精神和党中央、国务院决策部署,总结2022年工作,部署2023年重点任务。

第5届中国—东盟信息港论坛

2022年9月16日,由国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、广西壮族自治区人民政府联合主办的第五届中国—东盟信息港论坛将在广西南宁开幕。该论坛主要围绕数字经济发展和智能互联、数据互通、合作互利等开展交流研讨、建言献策,进一步推进互联网经贸服务、人文交流和技术合作。

2022“三品”全国行

为贯彻落实《国务院关于印发扎实稳住经济一揽子政策措施的通知》要求,加快推进数字化助力消费品工业“三品”战略实施,进一步提振消费信心、挖掘消费潜力,巩固增强消费对经济发展的基础性作用,工业和信息化部近期组织开展2022“三品”全国行活动。中国电子报特开辟2022“三品”全国行专栏,报道活动进展、专家观点、政策解读,敬请关注。

聚焦2022年全国两会

北京3月5日电 第十三届全国人民代表大会第五次会议5日上午在北京人民大会堂开幕。近3000名全国人大代表肩负人民重托出席大会,认真履行宪法和法律赋予的神圣职责。人民大会堂万人大礼堂气氛隆重热烈,主席台帷幕正中的国徽在鲜艳的红旗映衬下熠熠生辉。

2021年中国家电市场报告

3月3日,中国电子信息产业发展研究院(又称赛迪研究院) 发布了《2021年中国家电市场报告》(以下简称《报告》)。《报告》显示,2021年,我国家电市场全面复苏,零售规模达到8811亿元,同比增长5.7%,整体基本恢复至疫情前2019年的水平。

世界超高清视频(4K/8K)产业发展大会

会议

2022世界显示产业大会

11月30日,由四川省人民政府、工业和信息化部主办的2022世界显示产业大会在四川省成都市开幕。全国政协副主席、民革中央常务副主席郑建邦以视频方式出席开幕式并致辞。四川省委书记王晓晖出席开幕式并宣布大会开幕。

2022世界集成电路大会

11月17日,由工业和信息化部、安徽省人民政府共同主办的2022世界集成电路大会在安徽省合肥市召开。安徽省委书记、省人大常委会主任郑栅洁出席会议。安徽省委副书记、省长王清宪,工业和信息化部党组成员、副部长王江平出席开幕式并致辞。

2022世界VR产业大会

11月12日,由工业和信息化部、江西省人民政府共同主办的2022世界VR产业大会在江西南昌召开。国务委员王勇出席大会开幕式并发表重要讲话。江西省委书记、省人大常委会主任易炼红,工业和信息化部党组成员、副部长王江平,江西省委常委、南昌市委书记李红军出席开幕式并致辞。

2022CITE第十届中国电子信息博览会开幕峰会

8月16日,第十届中国电子信息博览会(CITE 2022)在深圳举办。深圳市人民政府副市长张华,广东省工业和信息化厅党组成员、副厅长曲晓杰,工业和信息化部电子信息司副司长史惠康出席开幕式并先后致辞。

2021世界VR产业大会云峰会

10月19日—20日,由工业和信息化部和江西省人民政府共同主办的2021世界VR产业大会云峰会在南昌举办。国务委员王勇出席大会开幕式并发表讲话,江西省委书记易炼红,工业和信息化部副部长王志军,江西省委常委、南昌市委书记李红军出席开幕式并致辞。

2021世界超高清视频(4K/8K)产业发展大会

5月8日-10日,由工业和信息化部、国家广播电视总局、中央广播电视总台、广东省人民政府共同主办的2021世界超高清视频(4K/8K)产业发展大会在广州召开。5月9日,广东省委书记李希出席开幕式,广东省省长马兴瑞、国家广播电视总局副局长孟冬、中央广播电视总台编务会议成员姜文波出席开幕式并致辞。

世界显示产业大会

本周排行