Strategic AI Group/MLOpsチームでアルバイトをしている木村です。アルバイトでは最新技術の調査を担当し、社内や案件にて活用することを想定したシステム導入の検証を実施しています。プライベートではエンジニアにありがちな(?)運動不足解消として、マラソンをしていて、47都道府県制覇を目指しています。
今回はAWS上のLambdaで自作したプライベートなMCPサーバーをDify上で使用する手順について記事にします。これから社内でもどんどん広がっていくであろうMCPを使っていてとても面白かったので、ぜひ皆さんも本記事を参考に試してみてください!
概要
「社内でLLMに様々なスキルを持たせたい」というのは、多くの企業が抱える要望です。本記事では、AWS Lambda上に自作のプライベートなMCP(Model Context Protocol)サーバーを構築し、それをDifyから呼び出す手順を解説します。
セキュリティを担保しつつ、誰もが簡単にAIアプリを構築できる環境の「第一歩」を目指します。
最終的には以下のようにDifyからMCPサーバーにアクセスできます。
以下のツールではこんにちはに対してHELLOを返すcalculate_helloというmcpツール、計算について、足し算、掛け算、引き算を行うcalculate_add,calculate_product,calculate_subというmcpツールが使われています。
これを応用してWeb検索を行ったり、Googleカレンダーに予定を自動で入れることができます。
本記事のキーテクノロジー
Dify
Difyは、LLMアプリを直感的に開発できるオープンソースのLLMアプリ開発プラットフォームです。RAG(検索拡張生成)やエージェント機能を手軽に実装できるのが特徴です。
本記事では社内ネットワークのEC2でDifyを動かすことでプライベートな構築を実現しています。
MCP
Anthropicが公開したMCPは(参考:Model Context Protocol(MCP)とは)、LLMと外部データ(DB、API、ローカルファイル等)を接続するためのオープンプロトコルです。これまではツールごとに専用の繋ぎ込みが必要でしたが、MCPという「共通規格」を通すことで、一つのMCPサーバーを作るだけで様々なAIクライアントからデータを利用可能になります。似ているものでRAGがありますがRAGは「知識の検索・参照」に特化しているのに対し、MCPは「機能(ツール)の呼び出し・実行」に特化しています。
API Gateway+Lambdaによるプライベートな環境
社内DBや秘匿性の高い情報が流出するリスクを排除するため、社内ネットワーク内での運用が求められるケースがあります。
今回は上記を実現するべく、API Gatewayのアクセスを社内ネットワークからに制限し、すべてのリソースを社内に置いておくことでプライベートな環境を実現することを目指しました。
※前提として、社内ネットワークとAWS環境がVPN接続されていることとします。
通信方式
MCPには、ローカルMCP(stdio)とリモートMCP(Streamable HTTP)の2種類があります。ローカルMCPの場合、同じ環境を相手のPCにも構築する必要があり、共有に手間がかかってしまうので、リモートMCPを採用しました。
また、リモートMCPをサーバレスで実行するために通信方式は以下の設定にしています。(参考:MCPの通信方式)
- stateless_http: stateless_http=True に設定し、本来Statefulな通信を前提とするMCPプロトコルをステートレスなHTTP通信に変換することでLambdaのような1回切りのリクエストに対応させます
- Streamable_http:Lambdaでの1回限りの重い処理を、タイムアウトで切断される前に小出しで届けて完結させる
構成図
本構成では、セキュリティを最優先し、API Gatewayを「プライベート」モードでデプロイします。これにより、社内ネットワークからのみAIツールを呼び出すことが可能になります。
Lambda採用理由
EC2でMCPサーバをホストした場合、常時EC2を起動しておく必要があり、利用していない期間も不要な料金が発生します。そこでサーバレスなLambdaでホストすることで、MCPサーバーが呼ばれた時だけ料金が発生するので、コストを抑えられます。
本構成のデメリット
大量のログ解析や複雑なデータ集計など、完了までに時間がかかるタスクを依頼すると、AIに結果が返る前にAPI Gatewayのタイムアウト制限より、接続が切れてエラーになる可能性があります。
また、VPCエンドポイントは月10ドルほどの固定費がかかるというデメリットも挙げられます。
構築手順
- まずは開発環境(EC2)にAWS SAM CLIやPython 3.11をインストールし、必要なIAMロールを付与します
- コードを作成してAWSにデプロイ
ファイル構成は以下の通りです。
. |
mcp_server/__init__.py は空ファイルで大丈夫です。
touch mcp_server/'__init__.py' |
import uvicorn |
|
run.shに実行権限を付与。
chmod +x run.sh |
fastmcp==2.14.5 |
- AWSリソースの構築
以下のSam templateを実行すれば本記事のAWSリソースが構築できます。
[]内は各々の環境に合わせて変更してください。
Transform: |
本構成で重要な部分をピックアップして解説します。
API Gateway:
- エンドポイントタイプ:プライベート
- VPCエンドポイントID:[エンドポイントID(vpce-xxxx)]
- リソースポリシー:特定のVPCエンドポイント経由のアクセスのみ許可
- 統合タイプ:Lambda関数
- Lambdaプロキシ統合:ON
- Lambda関数:SAMで作った関数の名前(mcp-server-stack-Function-xxx)
- デプロイの際のステージ名:prod
Lambda:
- LambdaをVPCのプライベートサブネットを指定することで、インターネットからは直接見えない状態に設定
VPCエンドポイント:
- VPCEndpoint(Interface型)の採用によりAPI Gatewayをインターネットに公開せず、VPC内部のプライベートIPだけで叩けるようにします。
Difyからの接続
Difyのツール>MCPからツールを追加します。
- サーバー名:https://[自分のVPCEのDNS名(上から2つ目)]/prod/mcp
- ヘッダー名:HOST
- ヘッダーの値:[自分のAPIのID].execute-api.ap-northeast-1.amazonaws.com
利用結果
Difyのツール設定から外部MCPツールを登録し、実際に計算を依頼した結果です。
VPCエンドポイント経由の閉域網通信でありながら、Difyのエージェント機能によってmcpツールが呼び出されていることが確認できました。
まとめ
- したことまとめ
- AWS Lambda + API Gateway (Private) によるセキュアでサーバレスなMCPサーバーの構築
- Dify との連携による実用的なAIエージェント環境の構築
- 次やりたいこと
- 今回は数値計算のシンプルなツールでしたが、次はGoogleカレンダーAPIとの連携によるスケジュール調整の自動化に挑戦し、最終的には秘書のようなAIを作りたいと考えています