2025 Together Fine-tuning API 全解析:长上下文微调、对话数据支持与高性能 LLM 定制指南

作者:API传播员 · 2025-10-03 · 阅读时间:6分钟

随着大语言模型来提升特定任务的性能。本文将介绍Together平台Fine-tuning API的新功能,这些功能旨在帮助机器学习团队更高效地定制开源模型。以下是主要更新内容的详细说明。


长上下文微调

当前许多语言模型在处理长序列数据时表现有限,而通过更长上下文的训练,可以显著提升模型在处理大型文档和复杂数据输入方面的能力。这对于文档审阅和长文本生成等任务尤为重要。

Together平台现支持Llama 3.1 8B和70B模型的微调,最高可扩展至32K的上下文长度。用户只需在创建微调任务时指定以下模型名称之一即可:

  • meta-llama/Meta-Llama-3.1-8B-32k-Instruct-Reference
  • meta-llama/Meta-Llama-3.1-70B-32k-Instruct-Reference

在实际应用中,通过合成重复任务和长文档摘要的实验结果表明,微调后的Llama 3.1-8B在ROUGE分数上比70B基础模型提升了10%以上。这不仅降低了推理成本,还显著提升了任务性能。


对话与指令数据格式支持

为了简化开发者的工作流程,Fine-tuning 聊天机器人和虚拟助手等需要高质量上下文感知响应的应用。

开发者可以通过上传JSON Lines文件提交对话数据,每行包含一个带消息列表的JSON对象。例如:

{
  "messages": [
    {"role": "system", "content": "这是系统提示。"},
    {"role": "user", "content": "你好吗?"},
    {"role": "assistant", "content": "我很好,谢谢!需要什么帮助?"}
  ]
}

此外,通过--train-on-inputs选项,用户可以选择训练完整示例或仅训练助理消息。默认情况下,仅训练模型输出,但在某些情况下,设为false可能会带来更好的效果。

案例研究表明,使用该功能后,对话问答任务的精确匹配分数从0.043提升至0.62,显著提高了模型的性能。


训练质量提升

通过优化训练流程,Fine-tuning API在不增加超参数和成本的前提下,显著提升了模型性能。例如,在Llama 3.1-8B模型上的实验显示,相比之前的微调结果,性能提升了10%-200%。

这些改进使用户能够在上传自有数据集后,持续获得稳定的质量提升,即使与强大的基线模型相比,性能仍有显著进步。


验证数据集支持

验证数据集功能允许用户在训练期间监控模型在未见数据上的表现,从而评估其泛化能力。这一功能有助于选择最佳的超参数和训练配置。

用户可以通过以下参数启动周期性评估任务:

  • --validation-file:指定验证文件ID
  • --n-evals:设置评估次数

示例命令如下:

together fine-tuning create --training-file $TRAINING_FILE_NAME --validation-file $VALIDATION_FILE_NAME --n-evals 10 --model "meta-llama/Meta-Llama-3.1-8B-Instruct-Reference"

体验优化

为了提升用户体验,Fine-tuning API还新增了多项细节改进:

  • 增强的Weights & Biases集成:支持指定实验项目名和运行名,并允许自定义基础URL。
  • 自动批次大小设置:通过--batch-size max选项,自动启用最大批次大小,无需手动调整。
  • 更多学习率调度选项:新增--warmup-ratio--min-lr-ratio参数,分别控制预热步数比例和最终学习率与峰值的比率。
  • 可配置权重衰减和梯度裁剪:用户可以调整正则化强度,并通过增大梯度范数上限或禁用裁剪行为来优化训练。

这些改进进一步简化了微调任务的配置和执行流程。


选择Together微调API的理由

Together平台的Fine-tuning API提供了以下优势:

  • 提升模型质量并降低成本:通过微调,小型高效的LLM也能实现媲美大型模型的性能。
  • 完全所有权与灵活性:用户在训练后可完全控制模型,包括下载最终和中间检查点以供本地运行。
  • 高度可配置性:支持多种数据格式和超参数选择,满足不同需求。
  • 快速迭代实验:支持快速测试和优化,加速开发周期。

总结

Together平台的Fine-tuning API通过引入长上下文微调、对话与指令数据格式支持、训练质量提升、验证数据集支持以及多项体验优化,为开发者提供了更强大的工具集。无论是提升模型性能还是优化开发流程,这些新功能都能帮助用户更高效地实现目标。

原文链接: https://www.together.ai/blog/fine-tuning-api-introducing-long-context-training-conversation-data-support-and-more-configuration-options