DeepSeek-V2オープンソース版リリース:671Bパラメータから37Bのみ活性化、性能はGPT-4oに迫る
中国のAIスタートアップDeepSeekが最新のオープンソース大規模言語モデルDeepSeek-V2を発表。総パラメータ数671億から37億のみを活性化する高効率MoEアーキテクチャで、GPT-4oに匹敵する性能を実現した。
中国のAIスタートアップDeepSeekが最新のオープンソース大規模言語モデルDeepSeek-V2を発表。総パラメータ数671億から37億のみを活性化する高効率MoEアーキテクチャで、GPT-4oに匹敵する性能を実現した。
中国AIスタートアップDeepSeekが最新の開源大規模言語モデルDeepSeek V2を発表。推論コストはGPT-4oの1/30で、Hugging Faceプラットフォームで急速に人気ランキングトップに躍進した。
中国のAIスタートアップ企業DeepSeekが最新の大規模言語モデルDeepSeek-V2を発表しました。このモデルは、中国語の数学推論ベンチマークでOpenAIのGPT-4oを超える性能を示し、ユニークなMoEアーキテクチャを使用して効率
DeepSeekチームは、236億パラメータで16GBのVRAMのみで効率的に推論できる大規模言語モデルDeepSeek-V2を発表しました。このモデルは数学ベンチマークでMetaのLlama3を上回り、中国のAI業界における大きな突破口と