欢迎大家来到IT世界,在知识的湖畔探索吧!
在2023年GTC大会上,英伟达CEO黄仁勋发布了新一代的数据中心加速器H100 NVL,专门针对生成式AI语言模型用户设计。这款加速器拥有超强的性能和效率,可以将大型语言模型的处理成本降低一个数量级,并且有望加速生成式AI模型在各行各业的应用落地。
H100 NVL基于全新的GH100 GPU,使用更为先进的N4工艺,集成了800亿晶体管,并且采用了更高频率设计。完整规格的GH100 GPU规格包含了18432个FP32 CUDA核心和528个第四代张量核心 TensorCore。双GPU提供188GB HBM3内存(NVDA产品序列中最高),支持第四代NVLink和PCIe Gen5,并且集成了CX7芯片,可以将网络数据以50GB/s的速度直接传输给GH100 GPU处理。
在AI训练方面,H100 NVL展现了碾压级的性能提升。在算力方面,H100 SXM5对比现在的A100在多个项目中都超过200%的提升,最低的FP16半精度运算也有50%的性能提升。在演讲上,黄仁勋直接带来了H100在三种负载下对比A100的效率提升,训练Transformer模型从5天缩短到了19小时,而在结合了英伟达多项尖端软硬件条件下,整个模型训练从7天缩短到了20小时,效率足足提升9倍。
H100 NVL发布体现了英伟达在AI领域不断创新和领先的地位,并且有望加速生成式AI模型在各行各业的应用落地。例如,在医疗、教育、娱乐等领域,生成式AI模型可以帮助人们获得更好、更快、更便捷、更智能、更个性化、更创造性、更有趣、更有价值、更有意义、更有影响力、更有潜力、更有未来感觉等等。同时,H100 NVL发布也为英伟达下一代GeForce产品带来了期待和想象空间,并且可能实现类似GTX 900到GTX 10系那样巨大幅度性能提升。
总之,在黄仁勋看来,“这是AI语言模型发展历程中最重要时刻之一”,而对于我们普通用户来说,“这是我们见证AI历史时刻之一”。
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/49427.html