DeepSeek V4オープンソースモデル発表:1.6兆パラメータで100万トークンのコンテキスト、クローズドソースの覇権を覆せるか?
2026年4月25日、中国のAI企業DeepSeekがV4シリーズの大規模モデルを正式にオープンソース化しました。Proバージョンは1.6兆パラメータを持ち、100万トークンのコンテキストウィンドウをサポートします。
2026年4月25日、中国のAI企業DeepSeekがV4シリーズの大規模モデルを正式にオープンソース化しました。Proバージョンは1.6兆パラメータを持ち、100万トークンのコンテキストウィンドウをサポートします。
DeepSeekは最近、V4シリーズのオープンソース大型モデルプレビュー版を正式にリリースしました。これにより、オープンソースAIがクローズドモデルに挑戦する重要なマイルストーンと見なされています。
本文はWinzheng.com Research Labによる突発信号の追跡分析であり、すべての「事実」とマークされた内容はZ AI内部で公開されたテスト通知に由来しています。信号の確認状態は<strong>未確認</strong>であり、
中国のAIスタートアップDeepSeekが最新のオープンソース大規模言語モデルDeepSeek-V2を発表。総パラメータ数671億から37億のみを活性化する高効率MoEアーキテクチャで、GPT-4oに匹敵する性能を実現した。
DeepSeekチームは、236億パラメータで16GBのVRAMのみで効率的に推論できる大規模言語モデルDeepSeek-V2を発表しました。このモデルは数学ベンチマークでMetaのLlama3を上回り、中国のAI業界における大きな突破口と