2025 Together Fine-tuning API 全解析:长上下文微调、对话数据支持与高性能 LLM 定制指南

作者:API传播员 · 2025-09-10 · 阅读时间:5分钟
Together平台的Fine-tuning API引入了长上下文训练和对话数据支持,显著提升了Llama 3.1模型在处理大型文档和复杂数据输入方面的能力。通过优化训练流程和支持验证数据集,该API不仅提高了模型性能,还降低了推理成本。此外,新增的对话与指令数据格式支持简化了开发者的工作流程,特别适合开发聊天机器人和虚拟助手。

一. Together 平台 Fine-tuning API 新功能概览

随着 生成式 AI 的快速发展,各组织纷纷通过微调大语言模型来提升特定任务性能。
Together 平台 Fine-tuning API 的新功能旨在帮助机器学习团队更高效地定制开源模型,实现更长上下文处理、更高训练质量和更简化的开发流程。

原文链接: Together Blog


二. 长上下文微调

1. 提升长文本处理能力

当前许多语言模型在处理长序列数据时表现有限。通过 长上下文微调,模型在处理大型文档和复杂数据输入时性能显著提升。

a. 支持模型与上下文长度

Together 平台现支持 Llama 3.1 8B 和 70B 模型的微调,最高可扩展至 32K 上下文长度

  • meta-llama/Meta-Llama-3.1-8B-32k-Instruct-Reference
  • meta-llama/Meta-Llama-3.1-70B-32k-Instruct-Reference

b. 性能提升示例

实验表明,微调后的 Llama 3.1-8B 在 ROUGE 分数上比 70B 基础模型提升 10% 以上,不仅降低了推理成本,还显著提升了任务性能。


三. 对话与指令数据格式支持

1. 简化数据输入

Fine-tuning API 现在支持 直接上传对话历史和指令数据集,无需手动格式化示例,适用于聊天机器人和虚拟助手等应用。

a. JSON Lines 文件格式示例

{
  "messages": [
    {"role": "system", "content": "这是系统提示。"},
    {"role": "user", "content": "你好吗?"},
    {"role": "assistant", "content": "我很好,谢谢!需要什么帮助?"}
  ]
}

b. 完整示例训练选项

使用 --train-on-inputs 可选择训练完整示例或仅训练助理消息。默认仅训练模型输出,在某些场景下设置为 false 可获得更佳效果。

c. 性能提升案例

使用此功能后,对话问答任务的精确匹配分数从 0.043 提升至 0.62,显著增强了模型性能。


四. 训练质量提升

1. 优化训练流程

通过优化训练流程,Fine-tuning API 在不增加超参数和成本的情况下,显著提升模型性能。

a. 实验数据

在 Llama 3.1-8B 上实验显示,相比之前微调结果,性能提升 10%-200%

b. 持续质量提升

上传自有数据集后,用户可持续获得稳定性能提升,即使与强大基线模型相比,依然表现显著。


五. 验证数据集支持

1. 监控泛化能力

验证数据集功能允许用户在训练期间监控模型在未见数据上的表现,有助于选择最佳超参数和训练配置。

a. 参数说明

  • --validation-file:指定验证文件 ID
  • --n-evals:设置评估次数

b. 示例命令

together fine-tuning create --training-file $TRAINING_FILE_NAME --validation-file $VALIDATION_FILE_NAME --n-evals 10 --model "meta-llama/Meta-Llama-3.1-8B-Instruct-Reference"

六. 体验优化

1. 使用便捷性增强

Fine-tuning API 新增多项细节优化,提升使用体验:

a. Weights & Biases 集成增强

支持指定实验项目名、运行名,并允许自定义基础 URL。

b. 自动批次大小设置

通过 --batch-size max 自动启用最大批次大小,无需手动调整。

c. 学习率调度优化

新增 --warmup-ratio--min-lr-ratio,分别控制预热步数比例和最终学习率与峰值比率。

d. 可配置权重衰减与梯度裁剪

用户可调整正则化强度,并通过增大梯度范数上限或禁用裁剪优化训练。


七. 选择 Together 微调 API 的理由

1. 优势概览

  • 提升模型性能并降低成本:微调后,小型 LLM 可实现媲美大型模型性能。
  • 完全所有权与灵活性:训练后可下载最终及中间检查点,本地运行无忧。
  • 高度可配置:支持多种数据格式和超参数选择。
  • 快速迭代实验:快速测试与优化,加速开发周期。

八. 总结

Together Fine-tuning API 的新功能包括 长上下文微调、对话数据格式支持、训练质量提升、验证数据集支持及体验优化

这些更新帮助开发者:

  • 高效提升模型性能
  • 简化微调配置与执行流程
  • 支持快速实验迭代

无论是优化 LLM 性能还是提升开发效率,Together 平台 Fine-tuning API 都为机器学习团队提供了强大工具集。

原文链接: Together Blog