海外 Ollama MLXサポートでMacローカルAIモデルの実行が高速化 OllamaがAppleのMLX機械学習フレームワークをサポートし、Apple SiliconのMacで大規模言語モデルの実行速度が大幅に向上。統一メモリアーキテクチャの活用により、従来比2-4倍の性能向上を実現。 Ollama MLX Apple Silicon 本地AI模型 2026年4月1日 385