OpenAI 开源 AI 模型泄漏:1200 亿个参数

最新泄密的内容表明 OpenAI 即将发款一款功能强大的全新开源 AI 模型,可能会在数小时内发布。

证据来自广大开发人员热切研究的一连串数字线索。其中最核心的是几张截图,展示了一系列名为
yofo-deepcurrent/gpt-oss-120b 和
yofo-wildflower/gpt-oss-20b 的模型库。这些模型库现已被删除,但帐户中显示的是 OpenAI 团队成员。

gpt-oss 标签是确凿的证据,似乎明确指向“GPT 开源软件”。对于一家日益严格保守其顶级模型的公司来说,这在某种程度上可以说是回归本源。我们看到多个版本,每个版本有不同的代号名称和大小,这表明一个精心策划的模型系列即将横空出世。

由于一份泄露的配置文件,我们得以窥视这个疑似拥有 1200 亿个参数的版本的内部信息。

该模型似乎建立在混合专家(MoE)架构之上。与其说它是一个试图无所不知的单一、庞大的大脑,不如说是一个由 128 位专家顾问组成的智囊团。收到用户输入的查询后,系统会智能地选择四位最佳专家来完成当前的工作。这使得该模型能够从数量庞大的参数中获取丰富的知识,但又拥有小巧得多的系统具有的速度和灵活性,因为在任何时刻只有模型的一小部分在运行。

这种设计使 OpenAI 的开源 AI 模型得以与业界翘楚展开正面竞争,比如Mistral AI 的 Mixtral 和 Meta 的 Llama 系列。

而且,其规格远不止于此。

OpenAI 的开源 AI 模型似乎拥有庞大的词汇库,这应该使其能够更高效地支持种类更广泛的语言,并使用滑动窗口注意力(Sliding Window Attention)机制轻松处理长文本流。实际上,所有这些都表明该模型运行起来既强大又实用。

那么,OpenAI 为何现在要做出这样的举动呢?

多年来,这家公司一直因偏离更加开放的初衷而面临各种含蓄的抨击和直截了当的炮轰。推出功能强大的 gpt-oss 将是对那些感到被抛弃的开发人员和研究人员发起的一场大规模的魅力攻势。

当然,这也是一个精明的竞争策略。Meta 和 Mistral 已经展示了蓬勃发展的开源生态系统如何可以推动创新。通过发布像这样一款强大的开源 AI模型,OpenAI不仅仅加入竞争,更是试图重新定义赛道。

在我们得到 OpenAI 的官方消息之前,严格来说,这仍然只是坊间传闻。但这是一个有真材实料的传闻,有代码和配置文件作为佐证。

如果 AI 领域名气最大的公司能够发布一款高性能、拥有 1200 亿个参数的开源 MoE 模型,那将是一个里程碑式的事件,这一幕似乎即将到来。



展开阅读全文

更新时间:2025-08-05

标签:科技   模型   参数   庞大   竞争   版本   专家   系列   功能强大   公司   证据

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top