GoogleがGemma 2.0をオープンソース化:1500億パラメータの大規模モデルがMeta Llamaに挑戦
GoogleはI/Oカンファレンスで最新の大規模モデルGemma 2.0をオープンソース化し、1500億パラメータを持つバージョンを発表しました。この動きはMeta Llamaシリーズへの強力な対抗と見なされており、開発者コミュニティの主導
GoogleはI/Oカンファレンスで最新の大規模モデルGemma 2.0をオープンソース化し、1500億パラメータを持つバージョンを発表しました。この動きはMeta Llamaシリーズへの強力な対抗と見なされており、開発者コミュニティの主導
DeepSeekは中国のAI分野でのリーダー企業として、最新のV4モデルを発表しました。このモデルは技術的な進化を遂げただけでなく、引き続きオープンソースの特性を保ち、業界の発展に新たな活力を注入しています。
MozillaはThunderbolt AIクライアントを発表し、自社ホスティング基盤に特化した新たなツールを提供します。このツールは、オープンソースAIエコシステムの非中央集権化を推進することを目的としています。
MiniMax社は、229Bパラメータを持つM2.7モデルをオープンソース化し、技術界で注目を集めています。しかし、このモデルのライセンス条項については議論が生じています。
マイクロソフトは最新のMAIシリーズAIモデルをオープンソース化し、業界の注目を集めました。この戦略は企業AI市場での地位を強化する重要な一歩ですが、モデルの具体的な性能指標はまだ不明です。
SGLang-Diffusionは2025年11月の公開以来、速度が初期版の2.5倍に向上し、新モデルサポート、LoRA対応、並列処理の強化など多くの改善を実現しました。
中国のAIスタートアップDeepSeekが新世代オープンソース大規模言語モデルDeepSeek-V2を発表し、中国語ベンチマークテストでGPT-4oを上回る性能を示した。革新的なアーキテクチャにより、2360億パラメータでありながら効率的な
中国のオープンソースAIプロジェクトDeepSeek-V2が権威ある中国語ベンチマークテストでOpenAIのGPT-4oを全面的に上回り、わずか236Bのパラメータ規模で高効率な推論と低コスト展開を実現した。
イーロン・マスクがX(旧Twitter)でOpenAIの閉鎖ソース化を激しく非難し、15万件超の反響を呼び、AI業界における開源vs閉源の議論が再燃している。