英伟达GTC 2024大会发布了哪些AI技术突破和新品?

英伟达AI

1个回答

写回答

飞飞黑

2026-02-10 20:55

+ 关注

AI
AI

AI技术发展迅猛,备受瞩目,而其核心驱动力——大模型的性能表现与底层硬件设施之间的联系也愈发紧密。在刚刚落幕的GTC 2024大会上,行业巨头英伟达带来了一场震撼的科技展示,全面介绍了算力芯片、服务器硬件以及AI软件开发领域的最新进展。会上,英伟达正式推出了新一代GPU系列中的两款重磅产品:B200芯片和GB200 Grace Blackwell超级芯片,同时还发布了一系列专为AI技术优化的芯片及软件解决方案,展现了其在人工智能领域的深厚实力与创新突破。

B200芯片与GB200 Grace Blackwell均基于创新的Blackwell架构设计,采用台积电定制化4NP工艺制造,通过双芯整合打造出全新的统一GPU系统,内部互联带宽高达10TB/秒。B200芯片搭载了192GB HBM3E内存,具备卓越的数据处理能力。而GB200 Grace Blackwell超级芯片将两颗B200芯片与Grace CPU深度融合,实现了性能的全面突破。这款超级芯片在语言模型任务中的表现尤为突出,相比上一代产品性能提升了30倍,同时功耗却仅为前者的四分之一,展现出惊人的能效比优势。这种高性能与低能耗的完美平衡,使其成为下一代计算领域的关键推动力量。

英伟达不仅推出了创新的GPU,还发布了第五代NVLink芯片、GB200 NVL72服务器和X800系列网络交换机等多款硬件新品,同时预告了下一代人工智能超级计算机NVIDIA DGX SuperPOD的问世。基于Blackwell超级计算架构的AI超级计算机DGX SuperPOD,采用了GB200 Grace Blackwell超级芯片。这款芯片由两个B200 Blackwell GPU与一颗基于Arm架构的Grace CPU组成。GB200集成了2080亿个晶体管,这些晶体管能够几乎同步访问与芯片相连的内存,从而实现高效的数据处理能力。此外,在大规模数据中心中,为解决GPU之间的交互需求,需要更强大的连接技术(如NVLink),以确保系统内部各组件之间高效的通信与协作。这种设计显著提升了超级计算机的整体性能和运算效率。

英伟达
英伟达

NVIDIA B200基于台积电定制的4NP工艺打造,通过将两个die整合为一个统一GPU,实现10TB/秒的通信速度。该芯片配备192GB HBM3E内存,性能强大。而GB200 Grace Blackwell超级芯片由两颗B200与Grace CPU组成,专为高效能计算设计。在处理大语言模型时,其性能较前代提升30倍,同时能耗仅为其二十分之一,展现出卓越的能效比与计算能力。

此外,NVIDIA还推出了全新的AI微服务,旨在助力企业级生成式AI应用的开发与部署。借助NIMs(NVIDIA Inference Micro Service),用户能够以与AI对话的方式调用多个NIMS,从而高效完成模型训练及应用部署。英伟达的目标是成为AI软件领域的晶圆厂,为行业提供强大的底层支持。目前,NVIDIAAI微服务NIM网站已正式上线。NIM微服务提供了性能最优、速度最快的AI生产容器,支持部署来自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock等公司的专属模型,同时也兼容来自Google、Hugging Face、Meta、Microsoft、Mistral AI以及Stability AI等机构的开源模型。这一平台为企业用户带来了更灵活、高效的AI解决方案,助力加速生成式AI技术的落地与普及。

NVIDIA 最后公布了一个名为 GR00T 的项目,致力于推进其在机器人与具身智能领域的创新。基于此项目的机器人能够理解自然语言,同时通过学习人类动作实现运动模仿,为未来智能化交互开辟新路径。此外,英伟达在软件领域也展现出显著优势。其最新发布的AI Enterprise 5.0套件中包含多项实用的微服务,其中用于简化企业级AI模型部署的NIM微服务尤为突出。NIM通过整合算法优化、系统配置和运行环境,并以行业标准API的形式封装,大幅降低了AI模型从开发到生产环境迁移的复杂性。开发者可以轻松将NIM微服务嵌入现有的应用程序和基础架构中,无需过多定制化操作或依赖深度的专业知识,从而高效实现AI模型的部署与实际应用,极大提升了企业的实施效率。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号