| CodeLlama 由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| CodeLlama-7B |
单条数据支持4096 tokens。由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解,模型参数规模为70亿。 |
全量更新 |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| Qwen3-0.6B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| Qwen3-1.7B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| Qwen3-4B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| LoRA |
0.00125元/千tokens
|
0.0025元/千tokens |
0.005元/千tokens |
| Qwen3-8B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.002元/千tokens
|
0.004元/千tokens |
0.008元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| Qwen3-14B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.0045元/千tokens
|
0.009元/千tokens |
0.018元/千tokens |
| LoRA |
0.00325元/千tokens
|
0.0065元/千tokens |
0.013元/千tokens |
| Qwen3-32B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.0075元/千tokens
|
0.015元/千tokens |
0.03元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| QwQ-32B |
单条数据支持32k tokens。模型数学代码等核心指标及部分通用指标达到DeepSeek-R1 满血版水平。 |
全量更新 |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| Qwen2.5-1.5B-Instruct |
文心一言 ERNIE Bot 教程
单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| Qwen2.5-7B-Instruct |
单条数据支持8192 tokens。 |
全量更新 |
0.0025元/千tokens
|
0.005元/千tokens |
0.01元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| Qwen2.5-14B-Instruct |
单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.003元/千tokens
|
0.006元/千tokens |
0.012元/千tokens |
| LoRA |
0.002元/千tokens
|
0.004元/千tokens |
0.008元/千tokens |
| Qwen2.5-32B-Instruct |
单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02~~~~元/千tokens |
SFT中大模型训练字符转换token系数为(0.5~0.8)。
需注意:基于基础模型Meta-Llama-3-8B训练和Meta-Llama-3.1-8B全量更新产生的计费账单,将合并于Llama2-7B的训练模型的账单中,并非单独记账。
按资源配置计费:
| 计费项目 |
说明 |
单价 |
| 模型精调资源实例 |
大模型公有云训练服务-按小时计费 |
(5折后)112元/小时 大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。 |
| LLaVA LLaVA模型是多模态大模型,是Haotian Liu等人基于Vicuna/Llama等大模型使用多模态数据训练得到。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| LLaVA-V1.6-13B |
LLaVA-v1.6-13B 是基于Vicuna-13B模型训练得到,在多个benchmark数据集上表现优异。该模型仅供研究使用,需要遵循模型许可。 |
全量更新 |
0.0425元/千tokens
|
0.085元/千tokens
|
0.017元/千tokens |
| LoRA |
0.0225元/千tokens
|
0.045元/千tokens
|
0.09元/千tokens |
| InternLM-XComposer InternLM是在2.6万亿token的高质量语料上训练得到的,包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。多图训练时需要保证图片长宽尺寸相同。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| InternLM-XComposer2.5-7B |
InternLM-XComposer2.5在各种文本-图像理解和创作应用中表现出色。 |
全量更新 |
0.0075元/千tokens
|
0.015元/千tokens
|
0.03元/千tokens |
| LoRA |
0.004元/千tokens
|
0.008元/千tokens
|
0.016元/千tokens |
| InternVL2 InternVL2.0在文档和图表理解、数理问题解决,以及集成多模态能力等方面表现出较强竞争力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| InternVL2.5-8B |
基于 InternVL 构建的先进多模式大型语言模型,保留了其核心模型架构,同时在训练和测试策略以及数据质量方面进行了显著的改进。 |
全量更新 |
0.00275元/千tokens
|
0.0055元/千tokens
|
0.011元/千tokens |
| LoRA |
0.002元/千tokens
|
0.004元/千tokens
|
0.008元/千tokens |
| InternVL2-2B |
InternVL2-2B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2-chat-1_8b,参数规模达20亿。 该模型仅供研究使用,需要遵循模型许可。 |
全量更新 |
0.0015元/千tokens
|
0.003元/千tokens
|
0.006元/千tokens |
| LoRA |
0.00125元/千tokens
|
0.0025元/千tokens
|
0.005元/千tokens |
| InternVL2-8B |
InternVL2-8B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2_5-7b-chat,参数规模达80亿。 |
全量更新 |
0.00225元/千tokens
|
0.0055元/千tokens
|
0.011元/千tokens |
| LoRA |
0.002元/千tokens
|
0.004元/千tokens
|
0.008元/千tokens |
| Qwen-VL 引入了朴素动态分辨率机制,使模型能够将不同分辨率的图像动态处理成不同数量的视觉标记,重新定义了视觉处理中传统的预定分辨率方法。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| Qwen2.5-VL-32B-Instruct |
Qwen2.5-VL-32B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 |
全量更新 |
0.04元/千tokens
|
0.08元/千tokens
|
0.16元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens
|
0.02元/千tokens |
| Qwen2.5-VL-7B-Instruct |
Qwen2.5-VL-7B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 |
全量更新 |
0.004元/千tokens
|
0.008元/千tokens
|
0.016元/千tokens |
| LoRA |
0.0025元/千tokens
|
0.005元/千tokens
|
0.01元/千tokens |
| Qwen2.5-VL-3B-Instruct |
Qwen2.5-VL-3B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 |
全量更新 |
0.0035元/千tokens
|
0.007元/千tokens
|
0.014元/千tokens |
| LoRA |
0.002元/千tokens
|
0.004元/千tokens
|
0.008元/千tokens |
| Qwen2-VL-7B |
Qwen2-VL-7B支持图像、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 |
全量更新 |
0.004元/千tokens
|
0.008元/千tokens
|
0.016元/千tokens |
| LoRA |
0.0025元/千tokens
|
0.005元/千tokens
|
0.01元/千tokens |
| Qwen2-VL-2B |
Qwen2-VL-2B支持图像、多图、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 |
全量更新 |
0.00275元/千tokens
|
0.0055元/千tokens
|
0.011元/千tokens |
| LoRA |
0.00175元/千tokens
|
0.0035元/千tokens
|
0.007元/千tokens |
偏好对齐训练分为RFT、KTO、DPO和RLHF四种训练模式。
| DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| DeepSeek-R1-Distill-Qwen-32B |
DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-32B蒸馏得到的。 |
PPO全量更新 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| GRPO全量更新 |
0.0375元/千tokens
|
0.075元/千tokens |
0.15元/千tokens |
| DeepSeek-R1-Distill-Qwen-14B |
DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 |
PPO全量更新 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| GRPO全量更新 |
0.025元/千tokens
|
0.05元/千tokens |
0.1元/千tokens |
| DeepSeek-R1-Distill-Qwen-7B |
DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 |
PPO全量更新 |
0.025元/千tokens
|
0.05元/千tokens |
0.1元/千tokens |
| GRPO全量更新 |
0.075元/千tokens
|
0.075元/千tokens |
0.15元/千tokens |
| Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| Qwen3-32B |
单条数据支持16k tokens。 |
PPO全量更新 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| GRPO全量更新 |
0.075元/千tokens
|
0.015元/千tokens |
0.3元/千tokens |
| Qwen2.5-32B-Instruct |
单条数据支持16k tokens。 |
PPO全量更新 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| GRPO全量更新 |
0.075元/千tokens
|
0.015元/千tokens |
0.3元/千tokens |
| Qwen2.5-14B-Instruct |
单条数据支持32k tokens。 |
PPO全量更新 |
0.025元/千tokens
|
0.05元/千tokens |
0.1元/千tokens |
| GRPO全量更新 |
0.0375元/千tokens
|
0.075元/千tokens |
0.15元/千tokens |
| Qwen2.5-7B-Instruct |
单条数据支持32k tokens。 |
PPO全量更新 |
0.035元/千tokens
|
0.07元/千tokens |
0.14元/千tokens |
| GRPO全量更新 |
0.025元/千tokens
|
0.05元/千tokens |
0.1元/千tokens |
| QwQ-32B |
单条数据支持32k tokens。 |
PPO全量更新 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| GRPO全量更新 |
0.075元/千tokens
|
0.15元/千tokens |
0.3元/千tokens |
| ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-3.5-8K |
单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 |
全量更新 |
0.0175元/千tokens
|
0.035元/千tokens |
0.07元/千tokens |
| LoRA |
0.0125元/千tokens
|
0.025元/千tokens |
0.05元/千tokens |
| ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Speed-8K |
单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
全量更新 |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| LoRA |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| ERNIE-Speed-Pro-128K |
单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
全量更新 |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| LoRA |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时(折后价) |
原价 |
| ERNIE-Lite-8K-0308 |
单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 |
全量更新 |
0.0075元/千tokens
|
0.015元/千tokens |
0.03元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| ERNIE-Lite-128K-0419 |
单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 |
全量更新 |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| LoRA |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Character-Fiction-8K |
单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 |
全量更新 |
0.0175元/千tokens
|
0.035元/千tokens |
0.07元/千tokens |
| LoRA |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| ERNIE-Character-8K-0321 |
单条数据支持8192 tokens。2024年3月21日发布的初始版本。 |
全量更新 |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| LoRA |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Tiny-8K |
单条数据支持8192 tokens。 |
全量更新 |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| ERNIE-Tiny-128K-0929 |
单条数据支持128k tokens。 |
全量更新 |
0.002元/千tokens
|
0.004元/千tokens |
0.008元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-4.0-Turbo-128K |
单条数据支持32k tokens。该模型在性能和效果上表现优异。 |
全量更新 |
0.1元/千tokens
|
0.2元/千tokens |
0.4元/千tokens |
| ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-3.5-8K |
单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 |
全量更新 |
0.025元/千tokens
|
0.05元/千tokens |
0.1元/千tokens |
| LoRA |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| ERNIE-Speed-8K |
单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
全量更新 |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| ERNIE-Speed-Pro-128K |
单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
全量更新 |
0.0175元/千tokens
|
0.035元/千tokens |
0.07元/千tokens |
| LoRA |
0.0125元/千tokens
|
0.025元/千tokens |
0.05元/千tokens |
| ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Lite-8K-0308 |
单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 |
全量更新 |
0.0075元/千tokens
|
0.015元/千tokens |
0.03元/千tokens |
| ERNIE-Lite-128K-0722 |
单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 |
全量更新 |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
| ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Character-8K- |
百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 |
全量更新 |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| LoRA |
0.00375元/千tokens
|
0.0075元/千tokens |
0.015元/千tokens |
| ERNIE-Character-Fiction-8K |
单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 |
全量更新 |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
| ERNIE-Character-8K-0321 |
单条数据支持8192 tokens。2024年3月21日发布的初始版本。 |
全量更新 |
0.0075元/千tokens
|
0.015元/千tokens |
0.03元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Tiny-8K |
单条数据支持8192 tokens。 |
全量更新 |
0.0025元/千tokens
|
0.005元/千tokens |
0.01元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| ERNIE-Tiny-128K-0929 |
单条数据支持128k tokens。 |
全量更新 |
0.002元/千tokens
|
0.004元/千tokens |
0.008元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| DeepSeek-R1 |
单条数据支持8k tokens。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 |
| LoRA |
0.3元/千tokens
|
0.6元/千tokens |
1.2元/千tokens |
| DeepSeek-R1-Distill-Qwen-14B |
单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 |
全量更新 |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| LoRA |
0.00375元/千tokens
|
0.0075元/千tokens |
0.015元/千tokens |
| Qianfan Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。 |
| 基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Qianfan-Sug | 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 | 全量更新 | 0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| LoRA |
0.00075元/千tokens
|
0.0015元/千tokens |
0.003元/千tokens |
| Llama Meta AI推出的开源大语言模型。 |
| 基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Meta-Llama-3.1-8B | 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 | 全量更新 | 0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| LoRA |
0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。 |
| 基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Baichuan2-7B-Chat | 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 | 全量更新 | 0.0015元/千tokens
|
0.003元/千tokens |
0.006元/千tokens |
| LoRA |
0.001元/千tokens
|
0.002元/千tokens |
0.004元/千tokens |
| Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本 |
| 基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
| Qwen3-0.6B | 单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 | 全量更新 | 0.004元/千tokens
|
0.008元/千tokens |
0.016元/千tokens |
| LoRA |
0.0035元/千tokens
|
0.007元/千tokens |
0.014元/千tokens |
| Qwen3-4B |
单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.02元/千tokens
|
0.04元/千tokens |
0.08元/千tokens |
| LoRA |
0.015元/千tokens
|
0.03元/千tokens |
0.06元/千tokens |
Qwen3-8B |
单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.02元/千tokens
|
0.04元/千tokens |
0.08元/千tokens |
| LoRA |
0.02元/千tokens
|
0.04元/千tokens |
0.08元/千tokens |
Qwen3-14B |
单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.08元/千tokens
|
0.16元/千tokens |
0.32元/千tokens |
| LoRA |
0.06元/千tokens
|
0.12元/千tokens |
0.24元/千tokens |
Qwen3-32B |
单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 |
全量更新 |
0.075元/千tokens
|
0.15元/千tokens |
0.3元/千tokens |
| LoRA |
0.03元/千tokens
|
0.06元/千tokens |
0.12元/千tokens |
Qwen2.5-32B-Instruct |
单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.075元/千tokens
|
0.15元/千tokens |
0.3元/千tokens |
| LoRA |
0.03元/千tokens
|
0.06元/千tokens |
0.12元/千tokens |
Qwen2.5-14B-Instruct |
单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.00325元/千tokens
|
0.0065元/千tokens |
0.013元/千tokens |
| LoRA |
0.00225元/千tokens
|
0.0045元/千tokens |
0.009元/千tokens |
Qwen2.5-1.5B-Instruct |
单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 |
全量更新 |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| LoRA |
0.005元/千tokens
|
0.01元/千tokens |
0.02元/千tokens |
| ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Lite-8K-0308 |
单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 |
奖励模型训练 |
0.0065元/千tokens
|
0.013元/千tokens |
0.026元/千tokens |
| 强化学习训练 |
0.05元/千tokens
|
0.1元/千tokens |
0.2元/千tokens |
| ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 |
| 基础模型版本 |
说明 |
训练方法 |
闲时调度价 |
非闲时价(折后价) |
原价 |
| ERNIE-Tiny-8K |
单条数据支持8192 tokens。 |
奖励模型训练 |
0.00125元/千tokens
|
0.0025元/千tokens |
0.005元/千tokens |
| 强化学习训练 |
0.01元/千tokens
|
0.02元/千tokens |
0.04元/千tokens |
特别注意:强化学习计算公式为以下:
训练总价(最高) = (训练集tokens) x epoch(迭代轮次) x token单价
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/268117.html原文链接:https://javaforall.net