豆包大模型1.6发布,支持256k长上下文

豆包大模型1.6发布,支持256k长上下文

6月11日,字节跳动旗下火山引擎召开FORCE原动力大会,正式推出豆包大模型1.6版本。本次发布的新一代模型包含三个不同版本,分别为Doubao-Seed-1.6-thinking、Doubao-Seed-1.6和Doubao-Seed-1.6-。

火山引擎总裁谭待介绍,Doubao-Seed-1.6是目前首个支持256k长上下文处理的大模型。以thinking模型为例,该版本在思考能力方面进行了强化,并具备多模态支持能力。Doubao-Seed-1.6则提供了三种模式选择:on、off和auto,用户可根据需求灵活切换。

在实际测试中,豆包大模型展现了出色的表现。在全国新一卷数学高考测试中获得144分,在海淀模拟考试的理科全科测试中取得706分,文科全科测试中获得712分,堪称大模型领域的“学霸”。

此外,发布会上还公布了豆包大模型1.6的统一定价策略。根据上下文长度不同,分为三档计费标准:

对于0~32k范围内的上下文,输入价格为每百万tokens 0.8元,输出价格为每百万tokens 8元;

在32k~128k区间,输入价格为每百万tokens 1.2元,输出价格为每百万tokens 16元;

当上下文长度达到128k~256k时,输入价格为每百万tokens 2.4元,输出价格为每百万tokens 24元。

值得一提的是,为推动技术普惠,发布会最后公布了一项特别定价:针对0~32k上下文使用场景,豆包大模型1.6将输入价格维持在每百万tokens 0.8元,输出价格大幅下调至每百万tokens 2元。

豆包 大模型 教程


ai.zol.com.cn
true

https://ai.zol.com.cn/995/9952590.html
report
1094
6月11日,字节跳动旗下火山引擎召开FORCE原动力大会,正式推出豆包大模型1.6版本。本次发布的新一代模型包含三个不同版本,分别为Doubao-Seed-1.6-thinking、Doubao-Seed-1.6和Doubao-Seed-1.6-flash。火山引擎总裁谭待介绍,Doubao-Seed-1.6是目前首个支持256k长上下文…
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/270687.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午2:45
下一篇 2026年3月12日 下午2:45


相关推荐

关注全栈程序员社区公众号