2025-06-11 17:00:07 | 来源: AICG工具箱
5月30日报道丨当地时间5月29日上午,英伟达今天在 Computex2023 台北电脑展大会上发布了多项重磅消息,其中最引人注目的是其名为Grace Hopper(缩写 GH 系列)的超级算力芯片已经全面投产。英伟达创始人兼 CEO 黄仁勋在 NVIDIA 的演讲中宣布,生成式 AI 引擎NVIDIA DGX GH200 现已投入量产。
英伟达官网显示,NVIDIA DGX GH200 是将 256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。“不需要把数据储存在很多个模块中,DGX GH200 更易训练大语言模型、深度学习推荐系统。”黄仁勋称。
据悉,Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。这种组合提供了 CPU 和 GPU 之间惊人的数据带宽,高达 1TB/s的吞吐量。英伟达称这种结构提供了比前一代系统高出 10 倍的 GPU 到 GPU 和 7 倍的 CPU 到 GPU 的带宽。它还设计了提供比竞争对手高出 5 倍的互连功耗效率和高达 128TB/s 的对分带宽。
NVIDIA 提供了 DGX GH200 的预计基准测试,其中 NVLink 交换机系统与与 InfiniBand 捆绑在一起的 DGX H100 集群正面交锋。NVIDIA 在上述工作负载计算中使用了不同数量的 GPU,范围从 32 到 256,但每个系统在每次测试中都使用了相同数量的 GPU。
DGX GH200 附带的优化的操作系统和集群管理器,使得管理大规模语言模型训练的复杂性大大降低。按照老黄的说法:花费 1000 万美金成本,你可以建置一个有 960 颗 CPU 核心的数据中心,但这个数据中心要 11GWh 的功率,处理 1X LMM 大语言模型的数据量。
DGX GH200 还具有非常灵活的扩展性和配置选项。用户可以根据自己的需求选择 GPU、内存、存储、网络等组件,并随时添加更多的资源,实现弹性扩展。
集成 256 个 GH200 芯片的 DGX GH200 超级计算机,内存扩大了 500 倍,超级算力提高了 7 倍,这个是相当了不起的成果,不出所料的话,英伟达的营收会随着超级计算机的诞生,获得更多的合同和利润,股价继突破万亿后,也会继续水涨船高。
热门榜单
小冰岛
常用AIG3D.AI
常用AIInteriorAI,ai室内设计
常用AIChefGPT,根据现有食材推荐食谱
常用AIAnimeAI
常用AIGemsouls,和虚拟人物交友
常用AIOpus,生成游戏、电影、故事
常用AIAskNow,向名人提问
常用AIPodcast,人工智能生成的播客
常用AI热门资讯
谷歌Gemini文生图翻大车:生成人像过度追求种族多元性,涉嫌“歧视白人”,这可能是马斯克被“黑”得最惨的一次
04-26TensorRT插件安装_TensorRT插件怎么提升SD生图速度_stable diffusion插件
05-08神州问学深入大模型微调技术研究,小参数的模型在特定任务场景中表现超越大模型
01-31DeepL推出新一代翻译编辑大模型:翻译质量超越竞争对手谷歌微软ChatGPT
02-13落地发绿卡?微软加速AI团队撤出中国,加码布局投资东南亚市场
03-27微软Build 2024发布Copilot多项服务升级丨通义主力大模型API定价暴降97%丨文心大模型两大主力模型API免费
03-27vivo发布行业首个视障人士辅助多模态大模型,AI智能识别物体,为视障人士开启智能“电子眼睛”
03-28三星新一代旗舰手机Galaxy S24遭到沃尔玛「意外」提前上架:主打AI翻译功能,搭载高通骁龙8 Gen 3处理器
05-03开源版Gemini诞生_全能多模态模型Emu2登热榜_最新Emu2
05-03「微信AI」功能终于要来了:腾讯官宣2024微信公开课PRO定于1月11日开讲,还携手OPPO战略合作
05-03