关注公众号

关注公众号

手机扫码查看

手机查看

喜欢作者

打赏方式

微信支付微信支付
支付宝支付支付宝支付
×

英伟达发布迄今最强大的人工智能超级芯片

2024.3.20

英伟达(Nvidia)推出了一款用于训练人工智能模型的“超级芯片”,这是该公司迄今为止生产的最强大的芯片。这家美国计算机公司最近市值飙升,成为全球第三大公司。该公司尚未透露其新芯片的成本,但观察人士预计,其高昂的价格或可致使少数组织能够使用这些芯片。

1710925558138724.jpg

英伟达GB200 Grace Blackwell超级芯片。

3月18日,英伟达首席执行官黄仁勋在新闻发布会上宣布了这些芯片。他展示了新一代Blackwell B200图形处理单元(GPUs),每个GPU都有2080亿个晶体管(现代计算设备核心的微小开关),而英伟达当前一代的Hopper芯片只有800亿个晶体管。他还透露了GB200 Grace Blackwell超级芯片结合了两个B200芯片。

“Blackwell将成为一个令人惊叹的生成式人工智能系统。未来,数据中心将被视为人工智能工厂。”黄仁勋说。

对于任何寻求训练大型人工智能模型的组织来说,GPUs已成为令人垂涎的硬件。在2023年人工智能芯片短缺期间,SpaceX首席执行官马斯克说GPU“比药物更难获得”,一些无法获得GPU的学术研究人员哀叹自己“GPU贫乏”。

英伟达声称,在运行基于OpenAI的GPT-4等大型语言模型的生成式人工智能服务时,与Hopper GPUs相比,Blackwell芯片的性能提高了30倍,同时能耗减少了25倍。

英伟达表示,GPT-4需要大约8000个Hopper GPUs和15兆瓦的功率来完成90天的训练,而同样的人工智能训练只需要2000个Blackwell GPUs,消耗4兆瓦的功率。

该公司尚未透露Blackwell GPUs的价格,但鉴于Hopper GPUs的价格已经在每个2万到4万美元之间,新芯片的价格可能会达到令人瞠目的水平。开发共享人工智能代码和数据集工具的人工智能公司Hugging Face的Sasha Luccioni表示,这种专注于开发更强大、更昂贵芯片的做法意味着,将只有少数几个组织和国家能接触到。

这项能源密集型技术也会对环境产生影响。预计到2026年,数据中心扩建带来的电力需求(主要是由人工智能热潮推动的)将翻一番,与日本目前的能源消耗相当。如果支持人工智能培训的数据中心继续依赖化石燃料发电厂,碳排放量也可能急剧上升。



推荐
关闭