当前位置:首页 >> 设计

英伟达AI芯片劲敌来了!AMD推出MI300X,可试运行多达800亿参数模型

来源:设计   2024年02月08日 12:17

MI300X发放的HBM密度是英伟达AI闪存H100的2.4倍,HBM比特率是H100的1.6倍,可以开始运行的仿真比H100的巨大。来源:投机者见闻

凭借公布的Mini,AMD同月向英伟达的AI闪存更以声望发起人再一。

美西南时间段6月末13日周二,AMD召开了Mini同月末,其中的最破天荒的Mini当属性用做受训大仿真的Instinct MI300。

AMD CEO苏姿丰引介,生成式AI和大语言仿真(LLM)需要电脑的算力和缓存大幅减少。AMD的Instinct MI300A指得上当今世界旗舰级针对AI和高稳定性计算(HPC)的加速芯片(APU)CERN。在13个小闪存中的内有1460亿个放大器。

它选用CDNA 3 GPU核心和24个Zen 4 CPU应用程序,配置128GB HBM3。相比前代MI250,MI300的稳定性减少八倍,高效率减少五倍。AMD在同月末先于引介,新的Zen 4c应用程序比基准的Zen 4应用程序密度很高,比基准Zen 4的应用程序小35%,同时保证100%的软件可靠性。

AMD上架一款GPU仅供的MI300,即MI300X,该闪存是针对LLM的简化台湾版,拥有192GB的HBM3、5.2TB/秒的比特率和 896GB/秒的Infinity Fabric 比特率。AMD将1530亿个放大器集成在共计12个5基体的小闪存中的。

AMD指,MI300X发放的HBM密度是英伟达AI闪存H100的2.4倍,其HBM比特率是H100的1.6倍。这也就是说,AMD的闪存可以开始运行比英伟达闪存巨大的仿真。

Lisa Su引介,MI300X可以赞成400亿个数值的Hugging Face AI 仿真开始运行,并让这个LLM写了一首关于纽约的诗。这是当今世界首次在单个GPU上开始运行这么大的仿真。单个MI300X可以开始运行一个数值有约800亿的仿真。

LLM需要的GPU更少,带来的并不需要好处就是,可以降低成本成本。

AMD还公布了AMD Instinct SDK,它拥有八个MI300X,选用行业基准OCP设计,发放一共1.5TB 的HBM3 缓存。

苏姿丰指,适用做CPU和GPU的台湾版本MI300A现在就已出样,MI300X和八个GPU的Instinct SDK将在上周第四季度出样,第四季度同月上架。

肠胃炎吃肠炎宁有用吗
熬夜胃反酸烧心怎么回事
打呼很厉害吃什么药
康恩贝肠炎宁颗粒效果怎样
多维元素片能提高免疫力吗
友情链接