3月21日,英伟达在ChatGPT和其他人工智能产品大热之际,发布了新款芯片、超级计算服务,并宣布了一系列备受瞩目的合作关系,旨在展示该公司的技术将为下一波人工智能突破提供助力的前景。
在这家芯片制造商当日举行的年度开发者大会上,首席执行官黄仁勋(Jensen Huang)将英伟达的定位表述为“AI产业iPhone时刻”背后的引擎,如他所言,现在是计算领域的拐点。他表示,在先进的聊天机器人和令人瞠目的图形生成器等消费级和企业级应用蓬勃发展带动下,“生成式人工智能将重塑几乎所有行业”。
其中的理念是要建立基础设施,加快人工智能应用程序运行速度,提高客户的易用性。英伟达的图形处理单元(GPU)已成为ChatGPT及其同类产品背后的大脑,可以帮助它们消化处理越来越多的训练数据。微软公司上周透露,为了处理ChatGPT开发商OpenAI 的云计算任务,该公司的数据中心需要串联起数万只英伟达A100 GPU。
其他科技巨头也纷纷跟进,为人工智能建起类似的庞大云基础设施。甲骨文公司宣布,其云平台将配备1.6万只英伟达H100 GPU,这是A100的后继产品,用于高性能计算应用。英伟达表示,亚马逊网络服务(Amazon Web Services)即将推出的系统,规模将能扩展到串联起2万只H100 GPU。微软也开始将H100 GPU添加到其机架式服务器中。
这种芯片超级集群是英伟达借助新项目DGX Cloud提供的超级计算租赁服务的一部分,该项目由甲骨文托管,很快也将由微软Azure和谷歌云托管。英伟达称,目标是使对人工智能超级计算机的访问像点开网页一样简便,让各家公司无需安装和管理成本高昂的内部基础设施就能训练他们的模型。
英伟达主管企业计算业务的副总裁Manuvir Das说:“把你要做的工作提出来,指向你的数据集,然后点击开始——所有的组织协调和底层任务都将得到处理。”DGX Cloud服务每月的起始收费为每“实例”36999美元,一个“实例”(就是租用的算力数)相当于8只H100 GPU的算力。
英伟达还发布了两款新芯片,一款专注于增强AI视频性能,另一款是H100的升级版。
后一种GPU是专门为改进大型语言模型(如ChatGPT所使用的模型)的部署而设计的。其型号为H100 NVL,在处理推理任务(即人工智能如何响应现实生活中的查询)时,运行速度比数据中心大规模使用的上一代A100快12倍。
英伟达负责超大规模和高性能计算业务的副总裁伊恩·巴克(Ian Buck)表示,这将有助于“ChatGPT用例的普及,并让每台服务器和每个云端都具有这种能力。”