メインコンテンツへスキップ
MCP(Model Context Protocol) は、Anthropic によって提唱されたモデルコンテキストプロトコルで、AI モデル(Claude、GPT など)が標準化されたインターフェースを通じて外部ツールを呼び出すことを可能にします。AceData Cloud が提供する Luma MCP サーバーを使用することで、Claude Desktop、VS Code、Cursor などの AI クライアントで直接 AI ビデオを生成できます。

機能概要

Luma MCP サーバーは以下のコア機能を提供します:
  • テキストからビデオ生成 — テキストプロンプトを使用して高品質のビデオを生成
  • 画像からビデオ生成 — 画像を起点または終点としてビデオを生成
  • ビデオの続き書き — 既存のビデオの最後のフレームから続けて生成
  • 多様なアスペクト比 — 16:9、9:16、1:1 などのさまざまな比率をサポート
  • 画質向上 — オプションの視覚品質向上機能
  • タスククエリ — 生成進捗を監視し、結果を取得

前提準備

使用する前に、AceData Cloud API トークンを取得する必要があります:
  1. AceData Cloud プラットフォーム に登録またはログイン
  2. Luma Videos API ページに移動
  3. 「Acquire」をクリックして API トークンを取得(初回申請で無料枠をプレゼント)

インストール設定

方法一:pip インストール(推奨)

pip install mcp-luma

方法二:ソースコードインストール

git clone https://github.com/AceDataCloud/MCPLuma.git
cd MCPLuma
pip install -e .
インストールが完了したら、mcp-luma コマンドでサービスを起動できます。

Claude Desktop での使用

Claude Desktop の設定ファイルを編集します:
  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json
以下の設定を追加します:
{
  "mcpServers": {
    "luma": {
      "command": "mcp-luma",
      "env": {
        "ACEDATACLOUD_API_TOKEN": "あなたのAPIトークン"
      }
    }
  }
}
uvx を使用する場合(事前にパッケージをインストールする必要はありません):
{
  "mcpServers": {
    "luma": {
      "command": "uvx",
      "args": ["mcp-luma"],
      "env": {
        "ACEDATACLOUD_API_TOKEN": "あなたのAPIトークン"
      }
    }
  }
}
設定を保存した後、Claude Desktop を再起動すると、対話の中で Luma 関連ツールを使用できるようになります。

VS Code / Cursor での使用

プロジェクトのルートディレクトリに .vscode/mcp.json を作成します:
{
  "servers": {
    "luma": {
      "command": "mcp-luma",
      "env": {
        "ACEDATACLOUD_API_TOKEN": "あなたのAPIトークン"
      }
    }
  }
}
または uvx を使用する場合:
{
  "servers": {
    "luma": {
      "command": "uvx",
      "args": ["mcp-luma"],
      "env": {
        "ACEDATACLOUD_API_TOKEN": "あなたのAPIトークン"
      }
    }
  }
}

利用可能なツール一覧

ツール名説明
luma_generate_videoテキストプロンプトからビデオを生成
luma_generate_video_from_image画像からビデオを生成
luma_extend_video既存のビデオを続けて生成
luma_extend_video_from_urlURL 指定のビデオから続けて生成
luma_get_task単一タスクの状態をクエリ
luma_get_tasks_batchバッチでタスクの状態をクエリ

使用例

設定が完了したら、AI クライアントで自然言語を使ってこれらの機能を直接呼び出すことができます。例えば:
  • 「日没の海辺のビデオを生成して」
  • 「この写真を最初のフレームとして、5 秒のビデオを生成して」
  • 「このビデオを続けて、さらに延長して」
  • 「縦型のビデオを生成して、比率は 9:16 で」

さらなる情報