代号雅典娜?微软为减少对英伟达的依赖而造芯

  • 来源:电脑报
  • 关键字:微软,AI,芯片
  • 发布时间:2023-11-02 19:20

  郭勇

  微软AI芯片传闻

  科技巨头跨界造芯显然已不稀奇,对AI 时代话语权的争夺,让谷歌、亚马逊、苹果等科技巨头纷纷下场自研芯片,而如今,微软似乎也打算下场造芯。

  据外媒 The Information 报道,微软即将于下个月公布自行研发的 AI 芯片,从而协助减少对英伟达 GPU的依赖。外媒声称,该 AI 芯片代号为 Athena,预计微软将在11 月14 日—11 月17 日的 Ignite 开发者大会上宣布这款自行研发的芯片。而根据 Ignite 2023 的公开议程,今年大会的重点之一,便是“将 AI 融合进环境中”。

  而根据The Information 今年稍早报道,微软其实在 2019 年就已启动 Athena 项目,至今已有 300 人投入相关项目开发。Athena 项目已经规划了路线图,第一代可能以台积电 5 纳米制程生产,据称当下已有部分微软和 OpenAI 员工拿到Athena 的工程样品。

  雅典娜的设计目标是为数据中心提供支持,特别是针对训练和运行大型语言模型( 例如OpenAI 的ChatGPT)等任务。该芯片的定位是在人工智能加速领域与英伟达的旗舰级微处理器H100 GPU 竞争。微软希望通过雅典娜,降低对英伟达AI 芯片的依赖,从而在人工智能领域提供更多选择。

  知名研究公司Forrester Research 的高级云计算分析师Tracy Woo 表示,人工智能的繁荣正在给云计算供应商带来更大压力,迫使他们开发自己的芯片:你可以从英伟达购买,但当你看到谷歌和亚马逊这些巨无霸时,会发现他们有资本设计自己的芯片。

  绕不开的成本压力

  在畅想微软造芯争夺AI 话语权之前,缩减成本恐怕才是微软目前造芯最大的动力。

  随着去年OpenAI 发布ChatGPT 引发 AI 风口,带动业界对于英伟达旗下GPU 的高度需求,甚至一度造成“供不应求”现象,当下微软的Azure AI 服务,以及Bing Chat、Bing Creator 和 Copilot 等也都运行在英伟达 H100 GPU 系列之上。微软依靠OpenAI 收获无数影响力的同时,也不得不面对随之而来的巨大成本压力。

  自2022 年11 月30 日推出以来,ChatGPT 已成为科技界的一个现象级产品。其超凡的能力和广泛的应用前景让全球的科技观察者和用户都为之惊艳。然而,根据最新报告,这个聊天机器人的诞生地OpenAI 公司,目前正面临着巨大的财务压力。据计算,自开发ChatGPT 以来,其5 月份的亏损额已经翻了一番,达到惊人的5.4 亿美元。然而,OpenAI 公司能够维持运营,并非全无原因。早在2019 年,微软就对OpenAI 进行了100 亿美元的投资,这笔资金无疑是OpenAI 能够坚持至今的重要支持。而外媒Analytics 称,OpenAI 每天大约烧掉70 万美元,仅用于维持ChatGPT 的运作,这个费用还不包括GPT-4、DALL-E 2 等其他AI 产品,如果公司不能尽快找到可持续的盈利模式,或许在2024年底之前,他们不得不考虑申请破产。

  OpenAI 产品升级的背后是居高不下的运营成本,主要由四部分组成:“GPU 等高性能硬件、云服务等软件、人才招聘和日常运营”。“GPU 等硬件”显然是OpenAI 降低成本支出的最有效手段,但从零开始完全自研AI 芯片至少需要2~4 年时间,综合实力强大的微软用了5 年都无法推出成熟产品,更别说普通企业。

  而除微软长久以来的造芯计划外,OpenAI 及CEO 山姆·奥特曼本身就已参投了至少包括Cerebras、RainNeuromorphics 和Atomic Semi 三家在内的芯片公司。造芯对于微软和OpenAI 产品而言更像是厚积薄发的顺势而为。

  谋划削弱英伟达影响力的科技巨头

  微软并不是唯一一个在人工智能芯片领域采取多样化策略的公司。亚马逊和谷歌等公司也在积极推动自家AI芯片的发展,并将其整合到其云业务中。随着人工智能芯片在数据中心中的重要性不断增加,投资该领域可能带来巨大回报。在谷歌、微软和亚马逊的芯片大战中,微软一直处在落后的位置,在推出Athena 后,微软将基本赶上亚马逊和谷歌,进而在AI 时代拿到更多的话语权。

  对于几大科技巨头争先恐后造芯行为,很容易让人联想到英伟达在全球算力市场的地位将被撼动,可实际上到目前为止,大多数的AI 负载还是跑在GPU 上的,而英伟达生产了其中的大部分芯片。

  华尔街见闻此前提及,英伟达独立GPU 市场份额达80%,在高端GPU 市场份额高达90%。2020 年,全世界跑AI 的云计算与数据中心,80.6% 都由英伟达GPU 驱动。2021 年,英伟达表示,全球前500 个超算中,大约七成是由英伟达芯片驱动的。

  根据从业者的说法,相比于通用芯片,亚马逊、谷歌和微软一直在研发的专用集成电路(ASIC)芯片,在执行机器学习任务时的速度更快,功耗更低。然而尽管已经做出了种种努力,但亚马逊、谷歌和微软都面临着挑战——如何说服开发者使用这些AI 芯片呢?

  现在,英伟达的GPU 是占主导地位的,开发者早已熟悉其专有的编程语言CUDA,用于制作GPU 驱动的应用程序。如果换到亚马逊、谷歌或微软的定制芯片,就需要学习全新的软件语言了,他们会愿意吗?从这个角度看,科技巨头自研芯片,更多时候恐怕还是辅助作用。

关注读览天下微信, 100万篇深度好文, 等你来看……