资讯公告
英伟达推出全新GPU和开发软件
发布时间:2023-08-15 发布者:域风网



为了巩固其作为支持生成式人工智能工作负载的芯片全球主导供应商的地位,Nvidia 在本周于洛杉矶举行的 SIGGRAPH 大会上发布了新的 GPU 和服务器以及一系列新的软件产品。

在硬件方面,Nvidia 发布了全新的服务器产品线 OVX 系列。该服务器系列最多可使用 8 个公司的 L40S GPU。这些 GPU 基于公司的 Ada Lovelace 架构,该架构已取代 Ampere 架构,成为其主线显卡使用的微架构。每块 L40S 均内置 48GB 内存,专为复杂的人工智能工作负载而设计,拥有 1.45 petaflops 的张量处理能力。

这与 Nvidia 过去在消费级显卡设计上所采取的方法类似,即该公司计划提供 OVX 服务器参考设计,而其他制造商(本例中包括戴尔、华硕、技嘉、HPE、联想、QCT 和超微)将作为全球系统构建商。L40S 将于秋季上市,该公司表示,OVX 系统也将很快上市。

作为 AI Enterprise 软件系列升级的一部分,Nvidia 还发布了一款名为 AI Workbench 的新产品,该产品旨在为 AI 开发人员提供一种自组装工具包。该系统配备了预训练模型和一系列可用于自定义模型的工具,旨在节省大量开发时间。Nvidia 还发布了许多功能,旨在为其其他产品线添加生成式人工智能功能,包括为其 Omniverse 3D 成像软件提供人工智能开发人员 "辅助驾驶员"。

英伟达如何面向不同的用户群


该公司最新发布的许多人工智能相关产品都针对不同的用户,包括云服务提供商、开发人员和服务器制造商。IDC 研究副总裁谢恩-劳(Shane Rau)认为,这是 Nvidia 战略的关键部分。

"他说:"如果最终客户是云服务提供商,他们可能只需要一块服务器 GPU 板。"有些客户希望购买 Nvidia 芯片,但同时也购买其周围的整个系统,如 LVX、OVX 等。然后,也许下一个层次是你购买了硬件,但也许你还需要一些培训。

Rau 认为,另一个重要的战略要点是 Nvidia 的灵活性。这种灵活性早在 2012 年公司发布首款服务器 GPU 时就开始了,当时的 CUDA 开发者环境允许针对不同任务对 GPU 进行重新编程和优化,而 Nvidia 发布的各种人工智能相关软件也延续了这种灵活性。事实上,该公司唯一倾向于停止提供解决方案的地方,就是当它会直接侵犯终端用户自己的领域时。

"人工智能可能非常针对最终用户,"Rau 说。"通常情况下,终端用户会带来自己的专业知识--农业、金融分析等等。因此,Nvidia 希望将你愿意投资的解决方案水平一直提升到你的特定领域,但你要提供特定的专业知识。"

Rau 补充说,鉴于 Nvidia 是最大的人工智能芯片提供商,这已经成为该公司在人工智能市场上的一个非常成功的战略。

"他说:"我敢说这对他们来说一直都是板上钉钉的事。

购物车
业务咨询:
售后服务: