とほほのローカルAI入門
ARANK
初版:2026年4月19日更新:2026年4月19日目次ローカルAIとはHugging FaceCan I Run AI locally?Llama.cppOllamaFoundry LocalローカルAIとはローカルの PC やサーバーに LLM をインストールして使用する方式です。情報をクラウドに送信する必要がないため、高セキュアな AI システムを構築することができます。8GB RAM で GPU 無しでも試すことはできますが応答はかなり遅いです。実務としては 32GB RAM/GPU あたりは必要となります。下記などのOSS 系モデルを利用することができます。Llama (Meta) : 軽量〜大規模まで幅広く対応。Gemma (Google) : 軽量・高効率で商用利用しやすい。Qwen (Alibaba) : 多言語・コード・長文に強い。中国アリババ社。DeepSeek (DeepSeek) : 推論・数学・コードに強い。中国DeepSeek社。Mistral (Mistral AI) : 高性能かつ軽量、推論効率に優れている。欧州Mistral AI社。GPT-OSS (OpenAI) : 高汎用・高品質だが学習データは含まないオープンウェイトモデル。Phi (Microsoft) : 小型でも高性能、教育データ重視の軽量モデル。簡単に試すなら、下記の Ollama をインストールして試してみてください。Hugging Face概要利用方法様々な利用方法が…