据科技媒体 The Information 昨日(7 月 24 日)发布的一篇博文透露,OpenAI 目前用于 AI 推理的算力,预估相当于35万台配备英伟达 A100 芯片的服务器,其中约29万台用于支持 ChatGPT,并且几乎处于满负荷运行状态。
openAI有高昂的训练成本,而且后面预计会更高。截至今年3月,OpenAI 公司已经花费近40亿美元在微软服务器上运行 ChatGPT 的推理工作负载。此外,预计今年训练 ChatGPT 及新 AI 模型的成本将达到30亿美元。因此,训练和推理 AI 的总成本可能达到70亿美元(约509.02亿元人民币)。
不过openAI能从微软拿到比较优惠的服务器费用。不论是推理还是训练,OpenAI 都能够从 Microsoft Azure 获得大幅折扣。微软向 OpenAI 每台 A100 服务器收取的费用约为每小时1.30美元,远低于正常价格。
OpenAI 公司目前约有1500名员工,随着公司的不断发展,员工成本可能会达到15亿美元(约109.08亿元人民币)。
公司每年从 ChatGPT 获得约20亿美元的收入,并可能从大型语言模型(LLMs)的收费访问中获得近10亿美元的收入。最近,OpenAI 每月的总收入为2.83亿美元,这意味着全年销售额可能在35亿至45亿美元之间。
尽管收入不菲,OpenAI 今年仍面临50亿美元的资金缺口,预计在未来12个月内需要启动新一轮融资以弥补这一缺口。
openAI现在也面临困境。前几天Meta发布了最新的开源达模型LLama3.1,其中最大的模型在一些评测中已经超过了chatgpt4o,openAI一方面要维持巨大的训练和人员成本,一方面还得面对激烈的市场竞争,如果未来拿不出更有竞争力的大模型产品,可能会陷入产品竞争力不足,用的人少,拉不到融资,产品竞争力下降的死亡螺旋。
说到开源大模型,前段时间李彦宏说用开源大模型都是在交智商税,李彦宏说这句话我真觉得不可思议,现在开源大模型主力是Meta,Google这样的企业,里面的人才不比百度的差,只有生态繁荣了,人工智能才能走向真的繁荣。