OpenAI这次要open了,奥尔特曼所说的“开放权重模型”是什么?

:memo: 作者: 科创板日报 朱凌| :date: 发布时间:2025-04-01 12:51:38

:fire:OpenAI 宣布即将发布“开放权重模型”!重磅拥抱开源?:rocket:

摘要: OpenAI CEO 奥尔特曼宣布将在未来几个月内发布一个具有推理能力的全新“开放权重模型”,这是自2019年以来首次。此举或旨在应对来自 DeepSeek 等开源模型的竞争压力,但具体开放程度以及影响仍待观察。


正文

北京时间 2025 年 4 月 1 日凌晨,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 在 X 平台宣布:OpenAI 将在未来几个月内发布一个**“强大的带有推理能力的全新开放权重(open-weight)模型”**。:tada:

这是自 2019 年发布 GPT-2 以来,OpenAI 时隔六年首次宣布新的开放模型计划。

回顾过往,OpenAI 虽然以“开放”命名,但自从 GPT-3 开始,逐步转向封闭。尤其是 ChatGPT 问世后,OpenAI 模型只能通过其自家平台或者微软 Azure 等合作伙伴访问或使用 API 接口。用户无法在自己的硬件上自行部署运行 GPT-3、4、4o、4.5 等,无法对它们进行修改或二次开发。

或许是随着 DeepSeek 等开放模型迅速崛起,OpenAI 压力逐渐增大。今年 2 月 1 日 OpenAI o3-mini 产品发布后,奥尔特曼公开承认 DeepSeek 削弱了 OpenAI 在 AI 领域的领先地位:scream: 他认为,OpenAI 在开源 AI 方面一直站在历史的错误一边,“我们需要想出一个不同的开源策略”。

并非完全开源模型

2 月 18 日,奥尔特曼在 X 平台上发起对 OpenAI 下一个开源项目的民意调查:是做一个虽然体积小、但仍需要 GPU 运行的 o3-mini 级别模型,还是做一个适配手机的轻量模型? 投票结果偏向前者,这也预示了这次开放模型可能是 o3-mini 级别模型。但从奥尔特曼发起投票时的措辞来看,不会直接是 o3-mini,而是一个与 o3-mini 类似,但有所不同的模型。

即便是开放模型,OpenAI 依旧会保留一些“秘方”——例如模型训练数据、预训练细节或者关键架构组件等。换句话说,这是一个开放权重模型,但不是一个完全开源的模型

事实上,由于 AI 模型不仅包括代码,还涉及数据、参数和权重等,开源模型的定义并不像开源软件般清晰,目前尚未形成统一定义。 Linux 基金会提出的模型开放性框架(MOF)把开放模型分为了三个逐步扩展的层级——第三级“开放模型”、第二级“开放工具”和第一级“开放科学”。 Deepseek、Qwen2.5 等模型只通过了 MOF 第三级评估,第三级“开放模型”开放范围包括模型架构、模型参数(最终参数)、模型卡、数据卡、技术报告和评估结果,距离最开放的第一级“开放科学”仍有空间。 而 OpenAI 将发布的开放模型是否能达到第三级,目前还不得而知。

开放权重模型意味着什么?

奥尔特曼在 X 上表示,“我们希望与开发者深入探讨如何最大化发挥其作用,我们很高兴能将它打造为一个非常非常优秀的模型。” 他还透露,OpenAI 将在旧金山、欧洲和亚太地区举办开发者活动,以收集反馈并提供早期原型试用机会。 奥尔特曼称,很期待看到开发人员的成果,以及大公司和政府如何使用它来运行自己的模型。

这似乎表明,这次开放模型主要针对开发人员、企业和政府,而不是个人用户。

开放模型可以本地部署,在特殊应用场景中具有更大的优势。企业和政府可以在自己的服务器上运行开放模型,无需连接外网或接入云端算力,在本地处理数据,利用特定领域的数据进行训练,能够保护隐私,还可以摆脱对 OpenAI 平台的依赖,避免云服务带来的延迟、安全和成本问题,同时提供紧急情况下的快速响应。

而且,开放模型可控性和可审计性增强,开发者可以深入理解模型运行机制,更容易调试和调整策略。此外,开发者可以基于自有数据对模型进行开放模型微调,开发专属的垂直领域应用,构建衍生模型,甚至将其提炼为在智能手机等智能终端上就能单机运行起来的 AI 模型。 英伟达也推出了个人 AI 超级计算机,使企业和开发者能够以相对较低的成本运行开放模型。

不过,对于普通个人用户而言,能够流畅运行开放模型的硬件成本仍然较高,云端模型依然具有更高的实用性,尤其在面对复杂任务时,云端模型在算力和易用性方面仍拥有明显优势。


结论:

  • OpenAI 将发布“开放权重模型”,或将推动 AI 领域的开源进程。
  • 该模型并非完全开源,具体开放程度仍有待观察。
  • 开放模型主要面向开发者、企业和政府,在特定领域应用和数据安全方面具有优势。
  • 普通个人用户在硬件成本方面仍面临挑战,云端模型在易用性方面依然占据优势。

:light_bulb: 延伸阅读
原文链接