Docker Model Runnerが2025年4月にリリースされました。ローカルでLLMを動かす新しい選択肢です。また、Ollamaの代替として注目を集めています。この記事ではDocker Model Runnerの特徴と使い方を解説します。

Docker Model Runnerとは何か

Docker Model RunnerはDocker Desktop 4.40で登場しました。具体的にはローカルでAIモデルを実行するツールです。つまりクラウドAPIなしでLLMが使えます。さらにllama.cppをエンジンとして採用しています。そのためGGUF形式のモデルに対応しています。特にDocker既存ユーザーにとって導入が容易です。

Docker Model RunnerとOllamaの比較

OllamaはローカルLLMの先駆者です。しかしDocker Model Runnerにはいくつかの優位点があります。たとえばOpenAI互換のAPIエンドポイントを標準提供します。また、NVIDIAとApple Silicon(Metal)のGPUに自動対応します。さらにDocker Desktop統合で追加セットアップが不要です。一方でOllamaはコミュニティの規模で勝っています。

Docker Model Runnerのパフォーマンス

GPU利用時は50〜80トークン/秒の速度が出ます。実際にミッドレンジGPUでも十分な速度です。また、モデルはホスト上で直接実行されます。そのためコンテナ化のオーバーヘッドがありません。さらにGoogleやHugging Faceと提携してモデル配布も行っています。つまり信頼性の高いモデルを簡単に入手できます。

Docker Model Runnerの始め方

Docker Desktopを最新版に更新するだけで始められます。また、localhost:8080でAPIにアクセスできます。具体的には/v1/chat/completionsエンドポイントを使います。さらにdocker model pullでモデルをダウンロードします。特にVMware Tanzuのモデルカタログも利用可能です。このように数分で環境が整います。

Docker Model Runnerの今後と選び方

Docker Model RunnerはDockerワークフロー重視の開発者に最適です。しかしシンプルさを求めるならOllamaも良い選択です。そのため用途に応じた使い分けが重要です。また、両ツールとも今後の機能拡充が期待されます。このようにローカルLLM環境の選択肢は確実に広がっています。