新快报讯 国内大模型行业的价格战在5月21日正式宣告进入免费时代。
5月21日上午,阿里云抛出重磅炸弹,宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1000万tokens长文本输入,降价后约为GPT-4价格的1/400,号称“击穿全球底价”。
当天午间,字节跳动旗下火山引擎官网发布公告更新了豆包大模型的定价详情。公告称,在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,价格比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。
到了下午,百度智能云直接宣布,文心大模型的两款主力模型ERNIE Speed、ERNIE Lite全面免费,即刻生效。这两款大模型今年3月发布,均支持8K和128k上下文长度。
需要指出的是,ERNIE Speed、ERNIE Lite都是轻量级的模型,而阿里“骨折价”的通义千问Qwen-long模型对标的百度的同级别产品是ERNIE 4。后者暂时价格没有变动。
就在上周四,包括幻方量化DeepSeek-V2、智谱AI GLM-3、字节跳动豆包等国内几款主流大模型产品,相继发布了大模型API调用价格大幅降价的消息,在国内掀起了行业首波价格战。
其中,字节跳动旗下豆包大模型,更是声称其主力模型企业市场定价比行业便宜了99.3%,让大模型价格进入“厘时代”。按照其公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
仅仅一周后,国内大模型的价格就从一块钱能买到125万tokens,降到了一块钱200万tokens,半天后干脆直接进入免费时代。此起彼落的杀价,让人不由得回想起当年的团购大战、共享单车烧钱大战。
业界普遍认为,随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。
阿里云智能集团公共云事业部总裁刘伟光昨日表示:“作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
不过,此前零一万物CEO李开复在接受采访时却表示,“大模型从训练到服务都很昂贵,算力紧缺是赛道的集体挑战,行业应当共同避免陷入不理性的ofo式流血烧钱打法,让大模型能够用健康良性的ROI(投资回报率)蓄能长跑。”
新快报记者 郑志辉