2025 Together Fine-tuning API 全解析:长上下文微调、对话数据支持与高性能 LLM 定制指南
随着大语言模型来提升特定任务的性能。本文将介绍Together平台Fine-tuning API的新功能,这些功能旨在帮助机器学习团队更高效地定制开源模型。以下是主要更新内容的详细说明。
长上下文微调
当前许多语言模型在处理长序列数据时表现有限,而通过更长上下文的训练,可以显著提升模型在处理大型文档和复杂数据输入方面的能力。这对于文档审阅和长文本生成等任务尤为重要。
Together平台现支持Llama 3.1 8B和70B模型的微调,最高可扩展至32K的上下文长度。用户只需在创建微调任务时指定以下模型名称之一即可:
meta-llama/Meta-Llama-3.1-8B-32k-Instruct-Referencemeta-llama/Meta-Llama-3.1-70B-32k-Instruct-Reference
在实际应用中,通过合成重复任务和长文档摘要的实验结果表明,微调后的Llama 3.1-8B在ROUGE分数上比70B基础模型提升了10%以上。这不仅降低了推理成本,还显著提升了任务性能。
对话与指令数据格式支持
为了简化开发者的工作流程,Fine-tuning 聊天机器人和虚拟助手等需要高质量上下文感知响应的应用。
开发者可以通过上传JSON Lines文件提交对话数据,每行包含一个带消息列表的JSON对象。例如:
{
"messages": [
{"role": "system", "content": "这是系统提示。"},
{"role": "user", "content": "你好吗?"},
{"role": "assistant", "content": "我很好,谢谢!需要什么帮助?"}
]
}
此外,通过--train-on-inputs选项,用户可以选择训练完整示例或仅训练助理消息。默认情况下,仅训练模型输出,但在某些情况下,设为false可能会带来更好的效果。
案例研究表明,使用该功能后,对话问答任务的精确匹配分数从0.043提升至0.62,显著提高了模型的性能。
训练质量提升
通过优化训练流程,Fine-tuning API在不增加超参数和成本的前提下,显著提升了模型性能。例如,在Llama 3.1-8B模型上的实验显示,相比之前的微调结果,性能提升了10%-200%。
这些改进使用户能够在上传自有数据集后,持续获得稳定的质量提升,即使与强大的基线模型相比,性能仍有显著进步。
验证数据集支持
验证数据集功能允许用户在训练期间监控模型在未见数据上的表现,从而评估其泛化能力。这一功能有助于选择最佳的超参数和训练配置。
用户可以通过以下参数启动周期性评估任务:
--validation-file:指定验证文件ID--n-evals:设置评估次数
示例命令如下:
together fine-tuning create --training-file $TRAINING_FILE_NAME --validation-file $VALIDATION_FILE_NAME --n-evals 10 --model "meta-llama/Meta-Llama-3.1-8B-Instruct-Reference"
体验优化
为了提升用户体验,Fine-tuning API还新增了多项细节改进:
- 增强的Weights & Biases集成:支持指定实验项目名和运行名,并允许自定义基础URL。
- 自动批次大小设置:通过
--batch-size max选项,自动启用最大批次大小,无需手动调整。 - 更多学习率调度选项:新增
--warmup-ratio和--min-lr-ratio参数,分别控制预热步数比例和最终学习率与峰值的比率。 - 可配置权重衰减和梯度裁剪:用户可以调整正则化强度,并通过增大梯度范数上限或禁用裁剪行为来优化训练。
这些改进进一步简化了微调任务的配置和执行流程。
选择Together微调API的理由
Together平台的Fine-tuning API提供了以下优势:
- 提升模型质量并降低成本:通过微调,小型高效的LLM也能实现媲美大型模型的性能。
- 完全所有权与灵活性:用户在训练后可完全控制模型,包括下载最终和中间检查点以供本地运行。
- 高度可配置性:支持多种数据格式和超参数选择,满足不同需求。
- 快速迭代实验:支持快速测试和优化,加速开发周期。
总结
Together平台的Fine-tuning API通过引入长上下文微调、对话与指令数据格式支持、训练质量提升、验证数据集支持以及多项体验优化,为开发者提供了更强大的工具集。无论是提升模型性能还是优化开发流程,这些新功能都能帮助用户更高效地实现目标。
原文链接: https://www.together.ai/blog/fine-tuning-api-introducing-long-context-training-conversation-data-support-and-more-configuration-options
最新文章
- 如何使用 OpenAI 的 Sora API:综合使用指南
- 如何使用 amazon scraper api 进行商品数据采集
- 推荐一款支持加入数据库的AI项目:让你的数据库秒变AI数据库!
- 什么是 API Key 密钥以及如何使用它们?
- API 身份验证与授权:OAuth2、JWT 与最佳实践
- 支付宝财富黑卡权益是什么?如何充分利用这些权益?
- API Settings详解:如何通过配置优化API性能与安全性
- Jenkins API使用教程
- 如何通过MCP+魔搭免费API搭建本地数据助手
- 微软翻译API密钥获取、API对接实战指南
- 10 个最佳 API 设计实践
- 10 个保障 API 安全的认证最佳实践