
REST API命名规范的终极指南:清晰度和一致性的最佳实践
2025 年 8 月 5 日,美国西海岸时间,OpenAI 宣布推出两款革命性的开源大模型——GPT-OSS 120B 与 GPT-OSS 20B。这些模型的权重、技术报告以及相关代码通过 Apache 2.0 许可证 开放,标志着 OpenAI 在沉寂五年后正式重返开源,开发者可以直接下载并商用。
在本文中,我们将深入分析 GPT-OSS 系列的架构、性能表现、部署方式以及其对 AI 生态的潜在影响。如果你是 AI 开发者、研究人员,或者对 OpenAI 的最新进展感兴趣,本文将为你提供一份完整的技术指南。
时间节点 | 事件 | 开源程度 |
---|---|---|
2019-02 | 发布 GPT-2(7.74 亿参数)“部分开源” | 🔒 |
2019-11 | 完整开源 GPT-2(15 亿参数) | 🟡 |
2020-2024 | GPT-3/3.5/4 系列封闭 | 🔒 |
2025-08 | GPT-OSS 120B/20B 开源 | ✅ Apache 2.0 |
在 GPT-2 部分开源后,OpenAI 遇到了一些挑战,尤其是在安全、商业化和可控性方面。随着 GPT-3 和 GPT-4 系列的发布,OpenAI 选择了封闭的开发模式。然而,随着开源理念的深入与技术的发展,OpenAI 终于决定重返开源。Sam Altman 在公开声明中提到:“我们希望将 GPT 级别的能力交到每个人手中,而不仅仅是云端租户。”
维度 | GPT-OSS 120B | GPT-OSS 20B |
---|---|---|
总参数 | 1170 亿 | 209 亿 |
激活/Token | 51 亿 | 36 亿 |
架构 | MoE 128 专家 Top-4 | MoE 32 专家 Top-4 |
量化 | 原生 MXFP4 | 原生 MXFP4 |
上下文长度 | 128 K | 128 K |
最低显存 | 单张 80 GB H100 | 16 GB 消费级 GPU |
评测对齐 | ≈ o4-mini | ≈ o3-mini |
与传统的“后量化”方法不同,GPT-OSS 在训练阶段就使用了 4.25 bit/参数的精度,避免了训练后量化可能带来的性能下降。
系统提示 cot_level={low|medium|high}
实时切换,完整推理链可见,便于调试。
Benchmark | GPT-OSS 120B | GPT-OSS 20B | o4-mini (闭源) |
---|---|---|---|
MMLU | 86.4 | 82.1 | 87.9 |
MATH | 74.8 | 68.3 | 76.2 |
HumanEval | 81.7 % | 76.4 % | 83.0 % |
SWE-Bench Verified | 62.4 % | — | 64.1 % |
pip install transformers accelerate torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tok = AutoTokenizer.from_pretrained("openai/gpt-oss-20b")
model = AutoModelForCausalLM.from_pretrained(
"openai/gpt-oss-20b",
torch_dtype="auto",
device_map="auto")
问题 | 官方回答 |
---|---|
是否可以商用? | Apache 2.0,零版税、无专利限制 |
数据截止时间? | 2024-06 |
幻觉率如何? | CoT 模式下略高,建议生产环境结合 RAG |
安全性如何保证? | 官方已内置对齐与过滤机制 |
gpt-oss-20b
OpenAI 通过 GPT-OSS 把“够用”的性能以最低门槛交给开发者,把“最强”的性能留在云端。
“如果 AI 要成为基础设施,它必须能在你的笔记本上运行。”——Sam Altman
现在就下载权重,开始你的本地超级大脑之旅吧!