オリジナル DeepSeek-V2オープンソースモデルが重大発表:236Bパラメータ MoEアーキテクチャがGPT-4oに匹敵、推論コストはわずか1/30 中国のAIスタートアップDeepSeekが新世代オープンソース大規模言語モデルDeepSeek-V2を発表。236億パラメータのMoEアーキテクチャでGPT-4oに匹敵する性能を実現しながら、推論コストを30分の1に削減した。 DeepSeek-V2 开源MoE 低成本推理 大语言模型 2026年3月3日 8,374