FX168财经报社(北美)讯 周四(4月20日),为了降低自有和OpenAI项目的开发成本,微软一直在秘密地开发自己的人工智能(AI)芯片。
名为“Athena”的项目自2019年以来一直在进行中,旨在减少公司对英伟达GPU的依赖。英伟达的H100 GPU是训练机器学习系统的更受欢迎的选项之一,可以在eBay等转售服务上售价高达40,000美元。
为了应对这些高成本,包括Meta、谷歌和亚马逊在内的几家大型科技公司近年来都开发了自己的机器学习芯片。微软的Athena项目可能是这一趋势的延续。尽管微软尚未正式评论该项目,但据Information杂志报道称,该芯片已经在微软内部机器学习团队和OpenAI的开发人员中进行了测试。
到目前为止,微软一直依赖市场上可用的芯片来运行其AI模型,该市场由英伟达主导。为了帮助OpenAI训练其GPT系列大型语言模型(LLM),这家总部位于雷德蒙德的公司还为OpenAI构建了一台由英伟达A100芯片提供支持的超级计算机。
随着技术巨头们寻求降低成本和提高机器学习系统性能的需求,自主研发人工智能芯片的趋势正在日益流行。这些系统需要大量的计算能力,GPU 一直是许多公司的首选解决方案。然而,随着对 GPU 的需求增加,成本也随之增加,这导致许多公司开始探索替代解决方案。
这种解决方案是开发专门为机器学习任务设计的专用AI芯片。这些芯片可以针对机器学习工作负载的具体要求进行优化,相比于通用GPU,可以实现更快的性能和更低的功耗。
微软的Athena项目很可能是试图在快速增长的人工智能市场中获得竞争优势。随着生成式人工智能的军备竞赛不断加剧,公司正在大力投资于人工智能研究和开发。有了自己的内部AI芯片,微软可以潜在地降低成本、提高性能,并在竞争对手中获得战略优势。
优化成本
据估计,仅仅训练像GPT-3这样的LLM就可能花费OpenAI大约400万美元。此外,OpenAI每月花费大约300万美元来维持ChatGPT。此外,用于运行这些模型的GPU也非常昂贵。 英伟达是AI行业GPU的领先生产商,其主要数据中心芯片的售价约为10,000美元。此外,其H100 GPU在eBay上的售价为40,000美元。据报道,微软的超级计算机使用了数万个英伟达的H100和A100数据中心GPU。
微软制造自己的芯片的主要原因之一是降低成本。根据该报告,与英伟达相比,Athena可能会将每个芯片的成本降低三分之一。
此外,微软还希望减少对英伟达的依赖。因此,在内部构建芯片可能意味着微软可以根据自己的需要设计芯片、架构和兼容性。根据该报告,微软设计了Athena用于训练和运行其AI模型。
鉴于微软的目标是在Bing、Office 365和GitHub中引入AI支持的功能,这种投入在成本方面可能对公司有利。
设备上的人工智能
通常,AI模型在云端运行。然而,最近的进展表明,完全在设备上运行AI模型是可能的。最近,一组高通工程师设法在Android设备上运行文本到图像的AI模型Stable Diffusion。
目前,市场上有笔记本电脑配备了旨在帮助训练AI模型的芯片。微软也在Surface品牌下生产配备高端硬件的高端笔记本电脑。据报道,微软还在为其Surface笔记本电脑设计自己的基于ARM的处理器。不过,这些芯片尚未发布。
因此,我们可能会看到下一代Surface笔记本电脑完全在设备上运行类似ChatGPT的模型。
与英伟达竞争?
目前,英伟达是领先的AI芯片供应商,占据了90%以上的企业级GPU市场。英伟达专注于构建 GPU,而微软的重点在别处,它希望将其AI产品带给企业。
目前,微软正在构建供自己内部使用的Athena。因此,微软不太可能在芯片市场上与英伟达竞争。目前,微软的目标是降低其云运营成本。然而,最终,微软可以使用Athena来增强其云服务和设备,提供比竞争对手更好的性能和更低的成本。