オリジナル DeepSeek-V2オープンソース版リリース:671Bパラメータから37Bのみ活性化、性能はGPT-4oに迫る 中国のAIスタートアップDeepSeekが最新のオープンソース大規模言語モデルDeepSeek-V2を発表。総パラメータ数671億から37億のみを活性化する高効率MoEアーキテクチャで、GPT-4oに匹敵する性能を実現した。 DeepSeek-V2 开源大模型 MoE架构 AI性能基准 2026年2月22日 391