ChatGPT每天运行成本70万美元微软自研AI芯片试图让它变得更便宜

2023-04-21 12:55  |  来源:TechWeb  |  编辑:白鸽  |  阅读量:12471  |  

人工智能目前非常热门,每天有数百万用户使用 ChatGPT。由于需求如此之高,因此运营 ChatGPT 需要的费用也很高。研究公司 SemiAnalysis 的首席分析师 Dylan Patel 估计,ChatGPT 目前每天要耗费 OpenAI 公司 70 万美元,或每个问题回复耗费 36 美分。

这是一笔不小的开支,而且 AI 公司,包括微软,需要从英伟达等公司大量购买 GPU 以帮助维护其 AI 服务,因为需求不断增加。行业分析师估计,OpenAI 可能需要在今年订购 3 万个额外的英伟达 GPU 来支持其商业努力。

构建自己的 AI 芯片可以帮助降低成本,这似乎正是微软正在做的事情。微软自己的 AI 芯片代号为「Athena 雅典娜」。据报道,它已经有了足够的优势,并已在微软内部的某些团队进行了测试。该公司计划在明年将其 AI 芯片分配给其 Azure AI 服务。

行业内部人士表示,他们不指望微软直接取代 英伟达,而是减少对其的依赖。由于 ChatGPT 运行在 Azure 服务上,降低成本将有助于 OpenAI 以更便宜的费用运行 ChatGPT,以及其他选择 Azure 作为主机的 AI 服务。

在谷歌推出名为 Bard 的 AI 产品之后,微软在过去几个月里一直在积极推动人工智能。最近的报道称,一些谷歌员工对 Bard 没有信心,觉得谷歌为了对抗微软的 Bing AI 而匆忙面向市场推出了该产品。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

上一篇: 爆肝20小时,纯PPT致敬《灌篮高手》 下一篇:返回列表
ad4
ad3