
在 AI 领域,OpenAI 的每一次动作都足以引发行业震动。这一次,这家以 GPT 系列闭源模型著称的 AI 巨头,正式向全球开发者社区敞开怀抱,推出全新的开源权重模型系列——gpt-oss。
gpt-oss 并不是简单地把模型开源出来。它是 OpenAI 为强推理能力、复杂 AI 智能体任务,以及多样化开发者场景,精心打磨的成果。这不仅是 OpenAI 战略上的重要一步,也为开源生态注入了强劲的新动力。(一家叫 Open AI 的公司,一直玩闭源,你闹呢?)
两款模型,精准覆盖不同场景
为了满足不同层级的需求,OpenAI 首批推出了两款 gpt-oss 模型,各有侧重:
gpt-oss-120b:旗舰级性能担当
面向生产环境、通用场景和高强度推理任务。参数规模为 1170 亿(其中 51 亿为激活参数),高度优化,可在单张 NVIDIA H100 GPU 上高效部署。
gpt-oss-20b:轻量级敏捷先锋
适用于追求低延迟、本地部署或垂直领域应用。参数规模为 210 亿(其中 36 亿为激活参数),对硬件要求更为友好。
这两款模型都基于 OpenAI 独有的「harmony」响应格式训练。开发者必须按照该格式使用,否则无法保证模型正常工作并输出预期结果。

gpt-oss 的 6 大亮点
- 采用 Apache 2.0 许可证:你可以自由实验、定制、商用部署,无需担心 copyleft 限制或潜在专利风险。
- 灵活推理引擎:内置可配置的推理强度(低/中/高)。根据场景和延迟敏感度,随时调整模型「思考深度」,在效果与成本之间找到最佳平衡。
- 思考过程透明:允许访问完整推理过程,这对调试、提示词优化、结果可解释性都很关键。
- 深度定制:支持参数微调(fine-tuning)。结合你的私有数据,对模型进行深度定制,让它贴合具体业务逻辑或知识领域,打造专属高性能模型。
- 天生的智能体:从设计之初,就内建 AI 智能体能力,原生支持函数调用、网页浏览、Python 代码执行、结构化输出等高级功能,方便你搭建可执行复杂任务的自动化系统。
- 原生 MXFP4 量化:在训练阶段,MoE(专家混合)层即采用原生 MXFP4 精度量化。让 gpt-oss-120b 能在单卡 H100 上运行,gpt-oss-20b 更能塞进 16 GB 显存,部署门槛直线下降。
Ollama 率先集成:即刻上手体验
- 为了让大家第一时间体验 gpt-oss,知名本地大模型平台 Ollama 已经与 OpenAI 展开合作,率先集成 gpt-oss-20b 和 gpt-oss-120b。
- 现在,你就能在本地环境通过 Ollama 轻松部署,试用,开启全新的本地聊天与 AI 应用开发体验。
最新评论
也很逃逸到虚拟机之外》,文章很好,本来还在纠结要不要部署DockerDesktop的,从bing逛进来的
没有硬件写保护,文件只能读取,不能删减,想删除都没办法删除,格式化每次都会提示存在写保护无法格式化
写的不错
还有【任务栏美化助手】这个也很不错