一元钱可能买不到一个包子,但可以创作10000条350字的小红书文案,或是让模型读三本《三国演义》。海内大模型已从参数规模、性能指标“卷”到了token价格,从以分计价发展到以厘计价。
社交平台Soul首席技能官陶嫡前在接管澎湃科技(www.thepaper.cn)采访时表示,To B市场的游戏规则一贯没有改变,大模型“卷”价格是一定,哪家便宜就薅哪家的羊毛。卷完价格就会卷做事,卷完做事市场格局基本形成,模型效果好、价格低、做事好的企业就会胜出。
北京智源人工智能研究院院长王仲远则认为,大模型卷价格是一把双刃剑,价格降落有利于家当遍及和推广,但如果价格低于企业实际本钱,将扰乱市场。他建议大模型企业通过技能提升和改革降落本钱,而不是仅仅为了盘踞市场而贬价。

大模型计费单价(不完备统计)。
大模型价格进入“厘时期”
在大模型中,token代表模型可以理解和天生的最小意义单位,可以是一个词、一个数字或一个标点符号等,它将原始的自然措辞文本转换为模型可以处理的形式。对付中文文本来说,1个token常日对应1.5-1.8个汉字;对付英文文本来说,1个token常日对应3-4个字母。不同大模型企业的token计量并不完备统一。
大模型B端运用可以按调用量收费,按照调用量定价的大模型又可以分为token计费以及按照查询次数收费。例如MiniMax的abab6.5s大模型价格0.01元/千tokens,谷歌轻量化模型Gemini 1.5 Flash供应0.35美元每百万tokens。百川智能Baichuan2-Turbo模型调用价格为0.008元/千tokens,Baichuan2-53B在00:00-8:00的价格为0.01元/千tokens,8:00-24:00的价格为0.02元/千tokens。
百川智能通用大模型调用价格解释。
当前,海内大模型已从参数规模、性能指标“卷”到了token价格,大模型掀起价格战。
5月15日,字节跳动推出豆包大模型家族,豆包主力模型在企业市场的定价只有0.0008元/千 tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千 tokens。火山引擎是字节跳动旗下云做事平台,火山引擎表示,市情上同规格模型的定价一样平常为0.12元/千 tokens,是豆包模型价格的150倍。根据火山引擎公布的价格打算,一元钱就能买到豆包主力模型的125万tokens,大约是200万个汉字,相称于三本《三国演义》。
火山引擎总裁谭待表示,降落本钱是推动大模型快进到“代价创造阶段”的一个关键成分。大模型“卷”价格,将助力企业以更低本钱加速业务创新。
就在谭待发布上述态度的4天前,海内另一家大模型公司智谱AI(即北京智谱华章科技有限公司)宣告,其大模型开放平台支配有智谱大模型百口桶,新注册用户赠予额度从500万tokens提升至2500万tokens,个中包含2000万入门级额度和500万企业级额度。个人版/入门版GLM-3 Turbo模型调用价格由5元/百万tokens降为1元/百万tokens,相称于0.001元/千 tokens,而0.001元就相称于1厘。利用入门级大模型创作10000条350字的小红书文案,仅需大约1元。
游戏规则从未改变
“To B市场最开始卷排名、卷打榜、卷模型规模,到后来卷价格。”针对当前的大模型价格战,Soul首席技能官陶明对澎湃科技(www.thepaper.cn)表示,相对付C端创造用户需求进而开拓和完善产品,To B市场的游戏规则一贯没有改变,大模型“卷”价格是一定,“B端市场从来没有形成付费的良好习气,哪家便宜就薅哪家的羊毛,终极搞得大家都不赢利,就像云打算,你不贬价,客户就会随着别人跑。”
在陶明看来,去年上半年,大模型行业还是蓝海,如今已是红海。B端市场将大模型视作提质增效的生产力工具,大企业的资源更丰富,打价格战卷的是行业里的中小企业。
他认为,B端市场的下一步是卷模型做事。B端市场的一个痛点是面向不同客户,做事难以标准化。“如果一个B端客户向大模型企业提出一个需求,大模型企业须要几个月的相应韶光,这是难以容忍的。卷完价格卷做事,大概会涌现带着团队和机器驻场支配,供应VIP做事。卷完做事,市场格局基本形成,模型效果好、价格低、做事好的企业就会胜出,掉队的企业就没有什么机会了。”
“我们看到最近各个大模型厂商在发布时都开始卷单价了,火山引擎的价格大幅降落,对付推动家当化有非常大的促进浸染。”王仲远表示,中国用户数量弘大、场景多样,有利于国产大模型生存和发展,促进AI行业繁荣。但大模型卷价格是一把双刃剑,价格降落有利于家当遍及和推广,但如果价格低于企业实际本钱,将扰乱市场。他建议大模型企业通过技能提升和改革降落本钱,而不是仅仅为了盘踞市场而贬价。
价格战背后的模型演化
在王仲远看来,未来大模型行业会往两个方向发展,一是最顶尖的大模型。AI研究者都在追逐圣杯——AGI(通用人工智能),顶尖大模型的算力、数据、参数量还会进一步扩大。二是大模型能够改变各行各业,但在家当化背景下,模型并非越大越好,模型越大能力越强,但利用本钱也更高,因此从企业角度讲,最主要的是在知足一定效果之下尽可能降落本钱。
王仲远表示,越来越多的企业利用技能将模型做成小规模并达到同样水平的能力,一些国产大模型用千亿级参数就能逼近OpenAI万亿参数的GPT-4的水平。“如果将来能够在AI手机或AI PC(AI电脑)上利用,那么参数量还需进一步压缩,以是像十亿级别的参数模型,如果性能能够尽可能逼近GPT-4,有可能利用效果会更好。”
“贬价的基本逻辑是,我们有信心用技能手段降落本钱,市场也须要更低价的大模型。”谭待表示。模型构造、演习方法可以持续改进,业界关注的MoE(稠浊专家模型)便是优化推理本钱的办理方案。工程上,大模型的调用量越大,优化推理本钱的空间也越大。以前的模型采取单机推理,大模型采取分布式推理,如果能把各种各样的底层算力用得更好,推理本钱就会大大降落。
陶明表示,降落推理本钱一方面涉及算力,拿到更便宜的芯片有利于降落本钱,另一方面,模型框架层面的优化也可以降落本钱,例如工程上优化算子等。