Meta Llama 3.2ビジュアルモデルが重大発表:オープンソースマルチモーダルAIがモバイル時代へ
MetaがLlama 3.2ビジュアルモデルシリーズ(11B・90Bパラメータ版)を発表し、Llamaファミリー初の視覚機能を搭載。軽量11Bモデルはスマートフォンで効率的に動作可能で、オープンソース化後わずか数日でダウンロード記録を更新し
MetaがLlama 3.2ビジュアルモデルシリーズ(11B・90Bパラメータ版)を発表し、Llamaファミリー初の視覚機能を搭載。軽量11Bモデルはスマートフォンで効率的に動作可能で、オープンソース化後わずか数日でダウンロード記録を更新し
Meta AIチームがLlama 3.2シリーズモデルを発表し、Llamaファミリー初のビジョン機能を導入。軽量1B・3Bパラメータ版はスマートフォンでの動作に最適化され、マルチモーダルAIの消費者向けデバイスへの展開における重要な一歩とな
Metaが初のエッジデバイス向け視覚マルチモーダルモデルLlama 3.2(1B/3B)を発表し、オープンソースコミュニティで大反響を呼び、AIのクラウドからデバイスへの大規模移行を示す。
Meta AIはLlama 3.2シリーズのビジョンモデルをオープンソースとして公開しました。これは、Llamaシリーズが初めて大規模なビジョン機能を導入し、エッジデバイスでの効率的な動作を可能にするものです。