Meta Llama 3.2軽量モデル登場:エッジデバイスAIビジョンの新時代が幕開け
Metaが初のエッジデバイス向け視覚マルチモーダルモデルLlama 3.2(1B/3B)を発表し、オープンソースコミュニティで大反響を呼び、AIのクラウドからデバイスへの大規模移行を示す。
Metaが初のエッジデバイス向け視覚マルチモーダルモデルLlama 3.2(1B/3B)を発表し、オープンソースコミュニティで大反響を呼び、AIのクラウドからデバイスへの大規模移行を示す。
Meta AIチームがLlama 3.2シリーズモデルを正式リリースし、1Bと3Bパラメータの軽量マルチモーダルモデルがエッジデバイス向けに最適化され、画像理解や視覚的質問応答などの機能をサポート。オープンソース特性により、AIのクラウドか
Meta AIはLlama 3.2シリーズのビジョンモデルをオープンソースとして公開しました。これは、Llamaシリーズが初めて大規模なビジョン機能を導入し、エッジデバイスでの効率的な動作を可能にするものです。