模型精调

模型精调

CodeLlama 由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 CodeLlama-7B 单条数据支持4096 tokens。由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解,模型参数规模为70亿。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 Qwen3-0.6B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens Qwen3-1.7B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens Qwen3-4B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens LoRA

0.00125元/千tokens

0.0025元/千tokens 0.005元/千tokens Qwen3-8B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens Qwen3-14B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.0045元/千tokens

0.009元/千tokens 0.018元/千tokens LoRA

0.00325元/千tokens

0.0065元/千tokens 0.013元/千tokens Qwen3-32B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens QwQ-32B 单条数据支持32k tokens。模型数学代码等核心指标及部分通用指标达到DeepSeek-R1 满血版水平。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens Qwen2.5-1.5B-Instruct

文心一言 ERNIE Bot 教程

单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens Qwen2.5-7B-Instruct 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens Qwen2.5-14B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.003元/千tokens

0.006元/千tokens 0.012元/千tokens LoRA

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens Qwen2.5-32B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02~~~~元/千tokens

SFT中大模型训练字符转换token系数为(0.5~0.8)。

需注意:基于基础模型Meta-Llama-3-8B训练和Meta-Llama-3.1-8B全量更新产生的计费账单,将合并于Llama2-7B的训练模型的账单中,并非单独记账。

资源配置计费:

计费项目 说明 单价 模型精调资源实例 大模型公有云训练服务-按小时计费 (5折后)112元/小时
大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。

LLaVA LLaVA模型是多模态大模型,是Haotian Liu等人基于Vicuna/Llama等大模型使用多模态数据训练得到。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 LLaVA-V1.6-13B LLaVA-v1.6-13B 是基于Vicuna-13B模型训练得到,在多个benchmark数据集上表现优异。该模型仅供研究使用,需要遵循模型许可。 全量更新

0.0425元/千tokens

0.085元/千tokens

0.017元/千tokens LoRA

0.0225元/千tokens

0.045元/千tokens

0.09元/千tokens

InternLM-XComposer InternLM是在2.6万亿token的高质量语料上训练得到的,包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。多图训练时需要保证图片长宽尺寸相同。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 InternLM-XComposer2.5-7B InternLM-XComposer2.5在各种文本-图像理解和创作应用中表现出色。 全量更新

0.0075元/千tokens

0.015元/千tokens

0.03元/千tokens LoRA

0.004元/千tokens

0.008元/千tokens

0.016元/千tokens

InternVL2 InternVL2.0在文档和图表理解、数理问题解决,以及集成多模态能力等方面表现出较强竞争力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 InternVL2.5-8B 基于 InternVL 构建的先进多模式大型语言模型,保留了其核心模型架构,同时在训练和测试策略以及数据质量方面进行了显著的改进。 全量更新

0.00275元/千tokens

0.0055元/千tokens

0.011元/千tokens LoRA

0.002元/千tokens

0.004元/千tokens

0.008元/千tokens InternVL2-2B InternVL2-2B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2-chat-1_8b,参数规模达20亿。 该模型仅供研究使用,需要遵循模型许可。 全量更新

0.0015元/千tokens

0.003元/千tokens

0.006元/千tokens LoRA

0.00125元/千tokens

0.0025元/千tokens

0.005元/千tokens InternVL2-8B InternVL2-8B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2_5-7b-chat,参数规模达80亿。 全量更新

0.00225元/千tokens

0.0055元/千tokens

0.011元/千tokens LoRA

0.002元/千tokens

0.004元/千tokens

0.008元/千tokens

Qwen-VL 引入了朴素动态分辨率机制,使模型能够将不同分辨率的图像动态处理成不同数量的视觉标记,重新定义了视觉处理中传统的预定分辨率方法。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 Qwen2.5-VL-32B-Instruct Qwen2.5-VL-32B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 全量更新

0.04元/千tokens

0.08元/千tokens

0.16元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens

0.02元/千tokens Qwen2.5-VL-7B-Instruct Qwen2.5-VL-7B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 全量更新

0.004元/千tokens

0.008元/千tokens

0.016元/千tokens LoRA

0.0025元/千tokens

0.005元/千tokens

0.01元/千tokens Qwen2.5-VL-3B-Instruct Qwen2.5-VL-3B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 全量更新

0.0035元/千tokens

0.007元/千tokens

0.014元/千tokens LoRA

0.002元/千tokens

0.004元/千tokens

0.008元/千tokens Qwen2-VL-7B Qwen2-VL-7B支持图像、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 全量更新

0.004元/千tokens

0.008元/千tokens

0.016元/千tokens LoRA

0.0025元/千tokens

0.005元/千tokens

0.01元/千tokens Qwen2-VL-2B Qwen2-VL-2B支持图像、多图、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 全量更新

0.00275元/千tokens

0.0055元/千tokens

0.011元/千tokens LoRA

0.00175元/千tokens

0.0035元/千tokens

0.007元/千tokens

偏好对齐训练分为RFT、KTO、DPO和RLHF四种训练模式。

DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-32B蒸馏得到的。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens GRPO全量更新

0.0375元/千tokens

0.075元/千tokens 0.15元/千tokens DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens GRPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 PPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens GRPO全量更新

0.075元/千tokens

0.075元/千tokens 0.15元/千tokens

Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 Qwen3-32B 单条数据支持16k tokens。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens GRPO全量更新

0.075元/千tokens

0.015元/千tokens 0.3元/千tokens Qwen2.5-32B-Instruct 单条数据支持16k tokens。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens GRPO全量更新

0.075元/千tokens

0.015元/千tokens 0.3元/千tokens Qwen2.5-14B-Instruct 单条数据支持32k tokens。 PPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens GRPO全量更新

0.0375元/千tokens

0.075元/千tokens 0.15元/千tokens Qwen2.5-7B-Instruct 单条数据支持32k tokens。 PPO全量更新

0.035元/千tokens

0.07元/千tokens 0.14元/千tokens GRPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens QwQ-32B 单条数据支持32k tokens。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens GRPO全量更新

0.075元/千tokens

0.15元/千tokens 0.3元/千tokens
ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-3.5-8K 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens LoRA

0.0125元/千tokens

0.025元/千tokens 0.05元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时(折后价) 原价 ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens ERNIE-Lite-128K-0419 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens ERNIE-Character-8K-0321 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-4.0-Turbo-128K 单条数据支持32k tokens。该模型在性能和效果上表现优异。 全量更新

0.1元/千tokens

0.2元/千tokens 0.4元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-3.5-8K 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens LoRA

0.0125元/千tokens

0.025元/千tokens 0.05元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens ERNIE-Lite-128K-0722 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Character-8K- 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens ERNIE-Character-8K-0321 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 DeepSeek-R1 单条数据支持8k tokens。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 LoRA

0.3元/千tokens

0.6元/千tokens 1.2元/千tokens DeepSeek-R1-Distill-Qwen-14B 单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens

Qianfan  Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。



基础模型版本说明训练方法闲时调度价非闲时价(折后价)原价 Qianfan-Sug 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens LoRA

0.00075元/千tokens

0.0015元/千tokens 0.003元/千tokens

Llama Meta AI推出的开源大语言模型。



基础模型版本说明训练方法闲时调度价非闲时价(折后价)原价 Meta-Llama-3.1-8B 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。



基础模型版本说明训练方法闲时调度价非闲时价(折后价)原价 Baichuan2-7B-Chat 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Qwen  Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本



基础模型版本说明训练方法闲时调度价非闲时价(折后价)原价 Qwen3-0.6B 单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.004元/千tokens

0.008元/千tokens 0.016元/千tokens LoRA

0.0035元/千tokens

0.007元/千tokens 0.014元/千tokens Qwen3-4B 单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.02元/千tokens

0.04元/千tokens 0.08元/千tokens LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens Qwen3-8B 单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.02元/千tokens

0.04元/千tokens 0.08元/千tokens LoRA

0.02元/千tokens

0.04元/千tokens 0.08元/千tokens Qwen3-14B 单条数据支持8k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.08元/千tokens

0.16元/千tokens 0.32元/千tokens LoRA

0.06元/千tokens

0.12元/千tokens 0.24元/千tokens Qwen3-32B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.075元/千tokens

0.15元/千tokens 0.3元/千tokens LoRA

0.03元/千tokens

0.06元/千tokens 0.12元/千tokens Qwen2.5-32B-Instruct 单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.075元/千tokens

0.15元/千tokens 0.3元/千tokens LoRA

0.03元/千tokens

0.06元/千tokens 0.12元/千tokens Qwen2.5-14B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.00325元/千tokens

0.0065元/千tokens 0.013元/千tokens LoRA

0.00225元/千tokens

0.0045元/千tokens 0.009元/千tokens Qwen2.5-1.5B-Instruct 单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 奖励模型训练

0.0065元/千tokens

0.013元/千tokens 0.026元/千tokens 强化学习训练

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价 ERNIE-Tiny-8K 单条数据支持8192 tokens。 奖励模型训练

0.00125元/千tokens

0.0025元/千tokens 0.005元/千tokens 强化学习训练

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

特别注意:强化学习计算公式为以下:
训练总价(最高) = (训练集tokens) x epoch(迭代轮次) x token单价




模型精调



















版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/268117.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午5:26
下一篇 2026年3月12日 下午5:26


相关推荐

关注全栈程序员社区公众号