超大規模オープンソースモデルの登場
米 Arcee AI は1月27日、自社ブログで新しいオープンソース大規模言語モデル(LLM) 「Trinity Large」 を発表した。約4000億パラメータのスパース・ミクスチャー・オブ・エキスパーツ(MoE)アーキテクチャを採用し、Apache 2.0ライセンス下で自由な商用利用や改変が可能となっている。プレビュー版は既に公開され、研究者や開発者が試用可能だ。専門家によるアクティブパラメータを活用する設計で、高速かつ効率的な推論を実現している。
モデル仕様と学習プロセス
Trinity Large は256のExpertsを用い、1トークンあたり約130億パラメータを計算に投入する設計で、効率的な学習と推論の両立を実現した。モデルは17兆トークン規模のデータで 2048基のGPUを33日間 で学習済み。ブログ記事によれば、軽量な指示対応後訓練済みの 「Trinity-Large-Preview」 に加え、前訓練チェックポイントの 「Trinity-Large-Base」、指示データを含まない研究用チェックポイント 「TrueBase」 も公開され、用途に応じた利用が可能となっている。
米国メディアも注目、AI競争の新たな一手
TechCrunch など米国メディアも本発表を報じ、「Trinity Large は Meta の Llama 4 Maverick 400B や中国の Z.ai GLM-4.5 と比較しても競争力がある」と指摘。小規模モデルを含む「Trinity ファミリー」の存在が、生成AI開発の民主化につながるとしている。Arcee の経営陣は今後、視覚や音声モードの追加、商用API提供、企業向けサポート強化を進める方針。米国発の恒久オープンモデルとして、生成AI領域における競争力向上を目指す動きが注目される。


