4月24日 消息:根据研究公司 SemiAnalysis 的数据,ChatGPT 的巨大知名度和强大功能使其维护成本高得惊人,The Information报道称,维护OpenAI的ChatGPT等对话式人工智能引擎每天的开销高达70万美元。。
该公司首席分析师迪伦·帕特尔 (Dylan Patel) 表示:“大部分成本都基于他们所需的昂贵服务器。”Patel透露,现在的成本可能更高,因为这些估算是基于 GPT-3,OpenAI 的最新模型 GPT-4的运行成本更高。
这不是 ChatGPT 才有的问题,OpenAI维护ChatGPT等对话式人工智能引擎每天需要支出高达70万美元,其中大部分开销来自于对昂贵服务器的需求。
这正是已向OpenAI投资数十亿美元的微软正在准备自己的专有 AI 芯片的原因。微软准备推出自有Athena芯片,有望将每颗芯片的成本降低三分之一。
“Athena”自2019年以来一直在开发中,现在可供少数微软和 OpenAI 员工使用。
在部署该芯片时,微软希望取代目前使用的 Nvidia 的GPU,转而使用更高效、运行成本更低的东西。“与 Nvidia 的产品相比,Athena 具有竞争力,可以将每个芯片的成本降低三分之一,”Patel 告诉The Information。
尽管这将标志着微软首次涉足 AI 硬件,但该公司可能并不打算全面取代 Nvidia 的 AI 芯片,因为两者各方最近同意进行为期数年的 AI 合作。
上周,OpenAI 首席执行官 Sam Altman表示,“我们正处于“巨型 AI 模型时代”的尾巴,因为像 ChatGPT 这样的大型语言模型似乎正在接近其庞大规模的收益递减点。根据OpenAI 自己的分析,OpenAI 最新的 GPT-4模型报告的参数大小超过一万亿,可能已经接近实际可扩展性的极限。
虽然更大的参数通常意味着人工智能的能力更强,但也会推高成本。
评论前必须登录!
注册