ChatGPT走红,AI芯片短缺即将到来
随着现象级AI产品ChatGPT走红,以大型语言模型为代表的前沿AI技术走向聚光灯之下。不少相关企业都接连推出了自己的大模型,百度、阿里、360、商汤等国内企业纷纷宣布入局AI大模型。
在技术架构层面,AI芯片分类主要是GPU(图形处理器)、ASIC(专业集成电路)、FPGA(现场可编程门阵列)和类脑芯片。ChatGPT背后的算力支撑主要来自GPU或CPU+FPGA。由于具备并行计算能力,可兼容训练和推理,GPU目前被广泛应用。
大模型对于GPU的要求极高。一方面是对于GPU的数量有要求。根据Semianalysis的测算,ChatGPT每天在计算硬件成本方面的运营成本为69万美元。Open AI需要约3,617台HGX A100服务器(2.8万个GPU)来为ChatGPT提供服务。
另一方面,对于GPU自身的性能也有要求。黄仁勋在一次会议上表示:“当前唯一可以实际处理Chat GPT的GPU是英伟达HGX A100。”A100由540亿个晶体管组成,打包了第三代Tensor核心,并具有针对稀疏矩阵运算的加速功能,对于AI推理和训练来说特别有用。此后,英伟达还推出A100的替代者——H100,该芯片由台积电5nm定制版本制程(4N)打造,单块芯片包含800亿晶体管,一举成为最强。
坊间曾传出一份报告,报告称今年年初百度紧急下单了3000台包含8张芯片的A800服务器(相当于2.4万张A800芯片),预计全年会有A800和H800共5万枚需求。无独有偶,阿里云预计也将在今年一万枚左右芯片,其中6000枚是H800。
有知情人士透露,A800、H800芯片目前正遭到包括服务器、互联网厂商的国内公司“哄抢”,“H800国内开始出货了,但本来产量也不多。A800国内今年一年出货的量,超过一半在互联网公司,”该知情人士称,“H800出货更少,剩下客户新订的可能最快要到12月才能交付。”
在这一轮由Chat GPT掀起的大模型创业潮里,AI芯片成了抢手货,一时间,GPU作为算力的主要支撑芯片最为明显,现在已成为了各大企业走向AI时代的唯一“硬通货”。
来源:半导体产业纵横
【阅读提示】
以上为本公司一些经验的累积,因工艺问题内容广泛,没有面面俱到,只对常见问题作分析,随着电子产业的不断更新换代,新的工艺问题也不断出现,本公司自成立以来不断的追求产品的创新,做到与时俱进,熟悉各种生产复杂工艺,能为各种客户提供全方位的工艺、设备、材料的清洗解决方案支持。
【免责声明】
1. 以上文章内容仅供读者参阅,具体操作应咨询技术工程师等;
2. 内容为作者个人观点, 并不代表本网站赞同其观点和对其真实性负责,本网站只提供参考并不构成投资及应用建议。本网站上部分文章为转载,并不用于商业目的,如有涉及侵权等,请及时告知我们,我们会尽快处理;
3. 除了“转载”之文章,本网站所刊原创内容之著作权属于
网站所有,未经本站之同意或授权,任何人不得以任何形式重制、转载、散布、引用、变更、播送或出版该内容之全部或局部,亦不得有其他任何违反本站著作权之行为。“转载”的文章若要转载,请先取得原文出处和作者的同意授权;
4. 本网站拥有对此声明的最终解释权。