
AI
B200芯片与GB200 Grace Blackwell均基于创新的Blackwell架构设计,采用台积电定制化4NP工艺制造,通过双芯整合打造出全新的统一GPU系统,内部互联带宽高达10TB/秒。B200芯片搭载了192GB HBM3E内存,具备卓越的数据处理能力。而GB200 Grace Blackwell超级芯片将两颗B200芯片与Grace CPU深度融合,实现了性能的全面突破。这款超级芯片在语言模型任务中的表现尤为突出,相比上一代产品性能提升了30倍,同时功耗却仅为前者的四分之一,展现出惊人的能效比优势。这种高性能与低能耗的完美平衡,使其成为下一代计算领域的关键推动力量。
英伟达不仅推出了创新的GPU,还发布了第五代NVLink芯片、GB200 NVL72服务器和X800系列网络交换机等多款硬件新品,同时预告了下一代人工智能超级计算机NVIDIA DGX SuperPOD的问世。基于Blackwell超级计算架构的AI超级计算机DGX SuperPOD,采用了GB200 Grace Blackwell超级芯片。这款芯片由两个B200 Blackwell GPU与一颗基于Arm架构的Grace CPU组成。GB200集成了2080亿个晶体管,这些晶体管能够几乎同步访问与芯片相连的内存,从而实现高效的数据处理能力。此外,在大规模数据中心中,为解决GPU之间的交互需求,需要更强大的连接技术(如NVLink),以确保系统内部各组件之间高效的通信与协作。这种设计显著提升了超级计算机的整体性能和运算效率。

英伟达
此外,NVIDIA还推出了全新的AI微服务,旨在助力企业级生成式AI应用的开发与部署。借助NIMs(NVIDIA Inference Micro Service),用户能够以与AI对话的方式调用多个NIMS,从而高效完成模型训练及应用部署。英伟达的目标是成为AI软件领域的晶圆厂,为行业提供强大的底层支持。目前,NVIDIA的AI微服务NIM网站已正式上线。NIM微服务提供了性能最优、速度最快的AI生产容器,支持部署来自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock等公司的专属模型,同时也兼容来自Google、Hugging Face、Meta、Microsoft、Mistral AI以及Stability AI等机构的开源模型。这一平台为企业用户带来了更灵活、高效的AI解决方案,助力加速生成式AI技术的落地与普及。
NVIDIA 最后公布了一个名为 GR00T 的项目,致力于推进其在机器人与具身智能领域的创新。基于此项目的机器人能够理解自然语言,同时通过学习人类动作实现运动模仿,为未来智能化交互开辟新路径。此外,英伟达在软件领域也展现出显著优势。其最新发布的AI Enterprise 5.0套件中包含多项实用的微服务,其中用于简化企业级AI模型部署的NIM微服务尤为突出。NIM通过整合算法优化、系统配置和运行环境,并以行业标准API的形式封装,大幅降低了AI模型从开发到生产环境迁移的复杂性。开发者可以轻松将NIM微服务嵌入现有的应用程序和基础架构中,无需过多定制化操作或依赖深度的专业知识,从而高效实现AI模型的部署与实际应用,极大提升了企业的实施效率。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号