DeepSeek-V2リリース:中国語推論能力でトップランナーに、236Bオープンソースモデルが世界のAI構図に挑戦
中国のAIスタートアップDeepSeekが最新の大規模言語モデルDeepSeek-V2を正式リリースし、中国語の数学推論とコード生成能力でAnthropic社のClaude 3.5 Sonnetを大幅に上回り、これらの分野で世界初のリーディ
中国のAIスタートアップDeepSeekが最新の大規模言語モデルDeepSeek-V2を正式リリースし、中国語の数学推論とコード生成能力でAnthropic社のClaude 3.5 Sonnetを大幅に上回り、これらの分野で世界初のリーディ
中国のAIスタートアップDeepSeekが新世代オープンソース大規模言語モデルDeepSeek-V2を発表。236億パラメータのMoEアーキテクチャでGPT-4oに匹敵する性能を実現しながら、推論コストを30分の1に削減した。
中国のAIスタートアップDeepSeekが最新のオープンソース大規模言語モデルDeepSeek-V2を発表。総パラメータ数671億から37億のみを活性化する高効率MoEアーキテクチャで、GPT-4oに匹敵する性能を実現した。
DeepSeekチームが発表したV2版オープンソース大規模モデルが、複数の中国語ベンチマークテストで優れた性能を示し、特に数学とコード生成タスクでMetaのLlama3を上回った。訓練コストはLlama3の1/10という驚異的な効率性で、中
DeepSeekチームは、236億パラメータで16GBのVRAMのみで効率的に推論できる大規模言語モデルDeepSeek-V2を発表しました。このモデルは数学ベンチマークでMetaのLlama3を上回り、中国のAI業界における大きな突破口と