
【速報】OpenAI、ついにGPT-OSSシリーズをHugging Faceで公開
こんにちは。Altam Ease代表の本田直輝と申します。
なんと今回はopenAIがついに新しいローカルLLMを出したので早速記事にしていきます。
閉鎖的だったOpenAIが、ついに扉を開けた
これまでOpenAIは、高性能な大規模言語モデル(LLM)を開発しつつも、その重み(weights)を外部に公開しない方針を取ってきました。GPT-3、GPT-4、GPT-4o などのモデルはAPI経由での利用に限られ、開発者や研究者が自由にローカル環境で実行・改良することはできませんでした。
そんな中、2025年8月——
OpenAIはついに初の公式オープンウェイトモデル群「GPT-OSSシリーズ」を発表。Hugging Face上で無償公開を開始し、世界中のAI開発者に衝撃を与えました。
gpt-oss-20bとgpt-oss-120b、WhisperやCLIPも再注目
今回公開されたモデルは以下の通りです。
gpt-oss-20b
-
パラメータ数:約20B(200億)
-
文章生成、会話、要約、創作などに最適
-
ローカルGPUでも十分に動作する軽量モデル
gpt-oss-120b(主力モデル)
-
パラメータ数:約120B
-
Mixture-of-Experts(MoE) アーキテクチャを採用
-
各レイヤーに128人の「専門家(エキスパート)」を持ち、1トークンごとに4人が選出されて処理に当たる
-
実質的な計算負荷は約5.1Bの活性化パラメータに抑えられ、高性能と高速性を両立
さらに、過去に話題となった以下のモデルも一緒に公開されています:
-
Whisper:高精度の音声認識モデル(マルチリンガル対応)
-
CLIP:テキストと画像を結びつけるマルチモーダルモデル(画像分類や検索に最適)
なぜ今「OSSモデル」なのか? OpenAIの変化の背景
OpenAIはかつて「安全性」と「商用戦略」を理由に、モデルの重み公開に否定的な立場を取っていました。ではなぜ、今になって方針を転換したのでしょうか?
その背景には、以下の要因があると考えられています:
-
Meta(LLaMAシリーズ)やMistral、Google(Gemma)など、OSS LLM競争の激化
-
政府・研究機関・企業からの「透明性」の要望
-
AIの社会実装における民主化とリスク分散の必要性
-
MoEアーキテクチャにより、大規模でもローカル動作が可能に
結果、OpenAIは「責任ある形でのオープンモデル公開」に踏み切ったと見られています。
ローカルで動く時代へ、AI開発の民主化が加速する
GPT-OSSシリーズの登場により、これまでAPI制限下にあった開発環境が一変します。
たとえば:
-
セキュアな社内LLMチャットボット
-
ネット接続不要のAI支援ツール
-
機密情報を含むローカルデータでの学習
-
音声認識や画像分類も含めた統合型AIシステム
が誰でも構築可能になります。
AIの力を「限られた企業」だけでなく「誰でも使えるインフラ」に変える——
OpenAIの新たな一歩は、まさにその象徴と言えるでしょう。
この記事へのコメントはありません。