Meta Llama 3.2ビジュアルモデルが重大発表:オープンソースマルチモーダルAIがモバイル時代へ
MetaがLlama 3.2ビジュアルモデルシリーズ(11B・90Bパラメータ版)を発表し、Llamaファミリー初の視覚機能を搭載。軽量11Bモデルはスマートフォンで効率的に動作可能で、オープンソース化後わずか数日でダウンロード記録を更新し
MetaがLlama 3.2ビジュアルモデルシリーズ(11B・90Bパラメータ版)を発表し、Llamaファミリー初の視覚機能を搭載。軽量11Bモデルはスマートフォンで効率的に動作可能で、オープンソース化後わずか数日でダウンロード記録を更新し
Meta AIチームがLlama 3.2シリーズモデルを発表し、Llamaファミリー初のビジョン機能を導入。軽量1B・3Bパラメータ版はスマートフォンでの動作に最適化され、マルチモーダルAIの消費者向けデバイスへの展開における重要な一歩とな
Metaが初のエッジデバイス向け視覚マルチモーダルモデルLlama 3.2(1B/3B)を発表し、オープンソースコミュニティで大反響を呼び、AIのクラウドからデバイスへの大規模移行を示す。
Meta AIチームがLlama 3.2シリーズモデルを正式リリースし、1Bと3Bパラメータの軽量マルチモーダルモデルがエッジデバイス向けに最適化され、画像理解や視覚的質問応答などの機能をサポート。オープンソース特性により、AIのクラウドか
Meta AIチームがLlama 3.2シリーズを発表し、オープンソースAIが多モーダル時代に突入。視覚と言語を統合したモデルで、画像理解や視覚推論をサポートし、エッジデバイスでの展開に大きな潜在力を持つ。
Meta AIはLlama 3.2シリーズのビジョンモデルをオープンソースとして公開しました。これは、Llamaシリーズが初めて大規模なビジョン機能を導入し、エッジデバイスでの効率的な動作を可能にするものです。