일타 저스틴의 MCP 강의 3. MCP 서버를 거대 언어 모델(LLM)과 연결
일타 강사 저스틴입니다! 오늘은 여러분의 MCP 서버를 세계 최고의 거대 언어 모델(LLM)과 연결하는 비법을 전수해 드리겠습니다. 이전 강의에서 MCP 서버의 기본기를 다졌다면, 이제는 그 잠재력을 폭발시킬 시간입니다.
자, 이제 AI에게 새로운 ‘도구’를 쥐여주는 마법을 시작해볼까요?
우리는 나만의 MCP 서버를 만들고, 도구를 정의하며, 로컬과 HTTP를 통해 통신하는 방법을 마스터했습니다. 이제는 우리가 만든 이 똑똑한 서버를 저~ 멀리 클라우드에 있는 LLM들과 연결해서, 그들에게 없던 능력을 선물하는 방법을 배울 겁니다.
오늘 강의의 목표는 딱 세 가지입니다.
- 로컬 MCP 서버를
ngrok
을 이용해 인터넷에 공개하기! - Anthropic의 Claude, Google의 Gemini, OpenAI의 ChatGPT와 여러분의 서버를 연동하기!
- 스테이트풀(Stateful) 서버와 스테이트리스(Stateless) 서버의 결정적인 차이를 이해하고, 왜 이것이 중요한지 뼛속까지 새기기!
준비되셨죠? 자, 이 부분은 별표 세 개! 시작합니다!
1. 모든 LLM이 함께 쓸 만능 도구 만들기: 글자 수 세기 서버
LLM들은 언어를 이해하고 생성하는 데는 천재지만, 정밀하고 결정적인 작업, 예를 들어 문자열의 글자 수를 정확히 세는 것 같은 일에는 의외로 약점을 보입니다. 마치 제가 영어 문법은 기가 막히게 알려줘도, 여러분의 숙제 글자 수는 일일이 세기 귀찮은 것과 같죠! 이런 일은 누가 해야 할까요? 바로, 우리가 만든 MCP 서버
가 나설 차례입니다.
원문에서는 fastmcp
라이브러리를 사용해서 아주 간단한 count_characters
서버를 만듭니다.
mcp_server_count_characters.py (핵심 코드)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
from fastmcp import FastMCP # 1. MCP 서버를 설명적인 이름으로 초기화합니다. mcp = FastMCP("Characters Counting MCP Server") # 2. 도구를 정의합니다. LLM은 이런 데 약하지만, Python은 최고죠! @mcp.tool def count_characters(string: str) -> int: """주어진 문자열의 문자 수를 셉니다.""" return len(string) # 3. HTTP를 통해 스크립트를 실행 가능하게 만듭니다. if __name__ == "__main__": mcp.run(transport="http", port=9000) |
이 코드는 지난 시간 원격 서버와 거의 똑같죠? count_characters
라는 도구를 하나 정의하고, 9000번 포트에서 HTTP 서비스로 실행합니다. 이 서버를 백그라운드에서 계속 실행시켜 두세요.
1 2 |
> python .\mcp_server_count_characters.py |
서버가 잘 실행되면 http://127.0.0.1:9000
에서 실행 중이라는 메시지를 볼 수 있을 겁니다.
2. 로컬에서 전 세계로: ngrok
으로 서버를 공개하자!
자, 여기서 문제가 하나 터집니다. 여러분의 서버는 지금 localhost
라는 곳에서 실행 중입니다. localhost
는 오직 여러분의 컴퓨터만 이해하는 개인 주소예요. 그런데 Anthropic, Google, OpenAI 같은 LLM들은 거대한 클라우드 데이터센터에서 돌아가고 있죠? 여러분의 로컬 머신에 닿을 방법이 전혀 없습니다! 마치 제가 대치동 학원에 있는데, 여러분이 안방에서 저를 부르는 격이죠. 제가 안 들립니다!
해결책은 바로 ngrok
입니다! 이 친구는 인터넷상의 공개 URL에서 여러분의 로컬 머신 포트로 안전한 터널을 뚫어줍니다. 마치 대치동에서 여러분 집까지 전용선을 깔아주는 것과 같죠!
ngrok
설치: 공식 사이트(https://ngrok.com/downloads)에서 다운로드하고 설치하세요.- 계정 연결 (필수):
ngrok 대시보드
(https://dashboard.ngrok.com/)에서 계정에 연결해서 영구 도메인을 확보하는 것이 좋습니다. 개발 시 정말 유용합니다. ngrok
실행: MCP 서버가 실행 중인 터미널 외에, 새 터미널 창을 열고 다음 명령어를 실행합니다.
12> ngrok http http://127.0.0.1:9000 --domain=your-ngrok-endpoint
your-ngrok-endpoint
는 여러분이ngrok 대시보드
에서 설정한 고정 도메인으로 바꾸세요. 고정 도메인이 없다면--domain
부분을 생략해도 되지만, 그럴 경우ngrok
이 실행될 때마다 랜덤한 임시 URL이 생성되니 클라이언트 코드를 매번 업데이트해야 합니다.
ngrok
이 실행되면 Forwarding
이라는 줄에 https://uniquename-1234.ngrok-free.app
같은 공개 URL이 보일 겁니다. 자, 이 주소는 별표 세 개! 바로 이 주소가 여러분의 MCP 서버에 접근할 수 있는 공개 주소입니다. 이 URL로 전송되는 모든 요청은 9000번 포트에서 실행 중인 여러분의 로컬 파이썬 스크립트로 안전하게 전달됩니다.
3. Anthropic (Claude) 연동하기: API 키와 mcp_servers
의 만남!
이제 Claude에게 우리의 새 도구를 사용하는 방법을 알려줄 시간입니다.
- API 키 발급: Anthropic 개발자 콘솔(https://console.anthropic.com/)에서 API 키를 받으세요.
- 라이브러리 설치:
12> uv add anthropic - 클라이언트 스크립트 작성 (anthropic_interact_with_mcp.py):
1234567891011121314151617181920212223242526272829import osimport anthropicurl = os.environ.get('MCP_SERVER_URL') # 1. 환경 변수에서 MCP 서버 URL 가져오기input_string = """Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua."""prompt = f"Count how many characters are in this string: {input_string}"client = anthropic.Anthropic() # 2. Anthropic 클라이언트 초기화response = client.beta.messages.create( # 3. API 호출model="claude-sonnet-4-20250514",max_tokens=2000,messages=[{"role": "user", "content": prompt}],mcp_servers=[ # 이 부분은 별표 세 개!{"type": "url","url": url,"name": "characters-counting-server",}],extra_headers={ # MCP 통합은 현재 베타이므로 이 헤더가 필요합니다."anthropic-beta": "mcp-client-2025-04-04"})print(response.content) # 4. 응답 출력
코드 해설:- 1. 서버 URL:
MCP_SERVER_URL
환경 변수에서 공개 URL을 가져옵니다. 중요한 정보는 소스코드에 직접 넣지 않는 좋은 습관이죠. - 2. 클라이언트 초기화:
anthropic
라이브러리의 표준 설정입니다.ANTHROPIC_API_KEY
라는 환경 변수에서 API 키를 자동으로 찾습니다. - 3. API 호출: 가장 중요한 부분!
client.beta.messages.create
안에mcp_servers
라는 새 파라미터가 보이시나요? 여기에 Claude가 인식할 서버 리스트를 넘겨줍니다.url
과 Claude가 이 도구를 참조할name
을 제공합니다.extra_headers
는 현재 MCP 통합이 베타 기능이라 필수입니다. - 4. 응답 출력: 응답은 단순한 문자열이 아니라, 도구 호출을 포함한 대화 전체를 보여주는 구조화된 객체입니다.
- 1. 서버 URL:
- 클라이언트 실행 전 환경 변수 설정:
- Anthropic API 키:
12345# Bash$ export ANTHROPIC_API_KEY="여러분의-api-키"# PowerShell> $Env:ANTHROPIC_API_KEY = "여러분의-api-키" - 공개 MCP 서버 URL (가장 중요!):
ngrok
URL 뒤에/mcp/
를 꼭 붙여주세요!fastmcp
가 노출하는 엔드포인트입니다.
12345# Bash$ export MCP_SERVER_URL="https://your-ngrok-endpoint/mcp/"# PowerShell> $Env:MCP_SERVER_URL = "https://your-ngrok-endpoint/mcp/"
- Anthropic API 키:
- 클라이언트 실행:
12> python .\anthropic_interact_with_mcp.py
출력 내용을 자세히 살펴보면, Claude가 여러분의count_characters
도구를 호출하고(BetaMCPToolUseBlock
), 그 결과(123)를 받아 자연어 답변(BetaTextBlock
)을 형성하는 과정을 보실 수 있을 겁니다. 축하합니다! Claude에게 새로운 능력을 부여했습니다!
4. Google (Gemini) 연동하기: mcp_client.session
으로 연결!
다음은 Gemini입니다. 과정은 비슷해요. API 키를 받고, 클라이언트 스크립트를 작성하고, 실행하면 됩니다.
- API 키 발급: Google AI Studio(https://aistudio.google.com/app/apikey)에서 Gemini API 키를 받으세요.
- 라이브러리 설치:
12> uv add google-genai - 클라이언트 스크립트 작성 (google_gemini_interact_with_mcp.py):
123456789101112131415161718192021222324252627282930import osimport asynciofrom fastmcp import Client # 이 부분이 별표 세 개!from google import genaiurl = os.environ.get('MCP_SERVER_URL') # 1. 공개 MCP 서버 URL 가져오기input_string = """Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua."""prompt = f"Count how many characters are in this string: {input_string}"gemini_client = genai.Client() # 2. Gemini 클라이언트 객체 생성mcp_client = Client(url) # 3. MCP 클라이언트 인스턴스 생성async def main():async with mcp_client: # 4. MCP 클라이언트 연결response = await gemini_client.aio.models.generate_content( # 5. API 호출model="gemini-2.0-flash",contents=f"Count how many characters are in this string: {input_string}",config=genai.types.GenerateContentConfig(temperature=0,tools=[mcp_client.session], # 이 부분은 별표 세 개!),)print(response)if __name__ == "__main__":asyncio.run(main())
코드 해설:- 1. 서버 URL: 이전과 동일하게 환경 변수에서
ngrok
URL을 가져옵니다. - 2. Gemini 클라이언트 초기화:
genai
에서 GeminiClient
객체를 만듭니다. - 3. MCP 클라이언트 생성: Anthropic 예제와 다른 점은 바로 이겁니다. 여기서는
fastmcp
라이브러리에서Client
를 인스턴스화하고, 우리 서버의 공개 URL을 가리키도록 합니다. - 4. MCP 클라이언트 연결:
async with mcp_client:
블록이 서버와의 연결을 설정합니다. 비동기 환경에서 작업을 처리하는 코드입니다. - 5. API 호출: 핵심은
tools
파라미터입니다. 우리는 활성 MCP 연결을 나타내는 객체인[mcp_client.session]
을 전달합니다. Gemini의 SDK는 이 객체를 이해하고, 여러분의 서버에서 도구를 찾아 호출하는 방법을 알고 있습니다.
- 1. 서버 URL: 이전과 동일하게 환경 변수에서
- 클라이언트 실행 전 환경 변수 설정:
- Gemini API 키:
12345# Bash$ export GEMINI_API_KEY="여러분의-api-키"# PowerShell> $Env:GEMINI_API_KEY = "여러분의-api-키" MCP_SERVER_URL
변수는 이전 예제에서 설정한 대로 유지하면 됩니다.
- Gemini API 키:
- 클라이언트 실행:
12> python .\google_gemini_interact_with_mcp.py
출력이 길지만,function_call
블록에서 Gemini가 여러분의count_characters
도구를 호출하기로 결정했음을, 그리고function_response
블록에서 MCP 서버의 응답이 대화에 다시 전달되는 것을 확인할 수 있을 겁니다. 역시 성공입니다!
5. OpenAI (ChatGPT) 연동하기: 스테이트풀 vs. 스테이트리스, 이 차이가 핵심!
마지막으로 가장 인기 있는 플랫폼, OpenAI의 ChatGPT를 연결해 봅시다. 역시 API 키와 클라이언트 스크립트가 필요하겠죠.
- API 키 발급: OpenAI 플랫폼(https://platform.openai.com/api-keys)에서 키를 받으세요.
- 라이브러리 설치:
12> uv add openai - 클라이언트 스크립트 작성 (openai_interact_with_mcp.py):
123456789101112131415161718192021222324import osfrom openai import OpenAIclient = OpenAI()url = os.environ.get('MCP_SERVER_URL')input_string = """Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua."""prompt = f"Count how many characters are in this string: {input_string}"resp = client.responses.create(model="gpt-4.1",tools=[ # 이 부분은 별표 세 개!{"type": "mcp","server_label": "characters_counting_server","server_url": url,"require_approval": "never",},],input=prompt,)print(resp)
이 스크립트는type: "mcp"
인 도구를 정의하고 서버의 URL을 제공하는 것처럼 보입니다. 그런데 이대로 실행하면 LLM이 MCP 도구를 호출하는 데 실패할 겁니다. 왜일까요?자, 이 부분은 별표 열 개입니다! 바로 MCP 서버 설계의 핵심 개념, **스테이트풀(Stateful)과 스테이트리스(Stateless)**의 차이 때문입니다.
- 스테이트풀 서버 (Stateful Server): 여러분이 지금까지 실행했던 MCP 서버는 스테이트풀이었습니다. 마치 전용 전화 통화와 같아요. 클라이언트가 연결되면 서버는 영구적인 세션을 설정하고, 해당 클라이언트의 상태를 추적합니다. 이후 동일한 클라이언트의 모든 요청은 동일한 세션로 라우팅되어, 지속적인 대화에 빠르고 효율적입니다.
fastmcp
의 기본 동작이 바로 이겁니다. - 스테이트리스 서버 (Stateless Server): 반면에 스테이트리스 서버는 일련의 문자 메시지를 보내는 것과 같습니다. 각 요청이 완전히 새롭고 독립적인 상호 작용으로 처리됩니다. 서버는 요청을 위해 새로운 트랜스포트를 생성하고, 처리하고, 응답을 보낸 다음, 해당 상호 작용에 대한 모든 것을 즉시 잊어버립니다. 세션도, 영구적인 연결도 없습니다.
OpenAI 클라이언트 구현은 스테이트리스 MCP 서버를 요구합니다. OpenAI는 우리의 기본 서버가 기대하는 세션 상태를 유지하지 않아요. 따라서 OpenAI 클라이언트를 작동시키려면 서버를 스테이트리스 모드로 다시 시작해야 합니다.
먼저, 실행 중인 서버를 멈추세요(
Ctrl+C
).mcp_server_count_characters_stateless.py (핵심 코드)
12345678910111213from fastmcp import FastMCP# 유일한 변경점은 stateless_http=True를 추가한 것입니다.mcp = FastMCP("Characters Counting MCP Server", stateless_http=True) # 이 부분은 별표 세 개!@mcp.tooldef count_characters(string: str) -> int:"""Counts the number of characters in the given string."""return len(string)if __name__ == "__main__":mcp.run(transport="http", port=9000)FastMCP
생성자에stateless_http=True
인수를 추가하는 것이 유일한 차이점입니다. 이 하나의 플래그가 서버에게 세션을 추적하지 않고 모든 요청을 독립적으로 처리하도록 지시합니다.이제 이 새로운 스테이트리스 서버를 실행하세요.
ngrok
터널이 자동으로 다시 연결될 겁니다.12> python .\mcp_server_count_characters_stateless.py - 스테이트풀 서버 (Stateful Server): 여러분이 지금까지 실행했던 MCP 서버는 스테이트풀이었습니다. 마치 전용 전화 통화와 같아요. 클라이언트가 연결되면 서버는 영구적인 세션을 설정하고, 해당 클라이언트의 상태를 추적합니다. 이후 동일한 클라이언트의 모든 요청은 동일한 세션로 라우팅되어, 지속적인 대화에 빠르고 효율적입니다.
- OpenAI 클라이언트 실행 전 환경 변수 설정:
- OpenAI API 키:
12345# Bash$ export OPENAI_API_KEY="여러분의-api-키"# PowerShell> $Env:OPENAI_API_KEY = "여러분의-api-키"
- OpenAI API 키:
- 클라이언트 실행:
12> python .\openai_interact_with_mcp.py
이번엔 작동합니다! 출력에 여러분의 MCP 도구 호출을 명확하게 보여주는
McpCall
객체가 포함될 겁니다. 대화 흐름에서 모델이 이 정보를 사용하여 최종 답변을 생성하는 것을 확인할 수 있습니다.
강의 마무리: 이제 여러분은 AI 도구 장인입니다!
여러분, 오늘 강의는 정말 큰 도약이었습니다! 로컬에서만 실험하던 파이썬 코드를 세계에서 가장 강력한 AI 모델들과 연결하는 방법을 배웠습니다.
오늘의 핵심 내용을 다시 한번 정리해 볼까요?
- 공개 접근이 핵심입니다! 클라우드 기반 LLM이 여러분의 도구를 사용하려면 MCP 서버에 공개 URL이 필요하며, 개발 중에는
ngrok
이 최고의 도구라는 것을 기억하세요. - 플랫폼별 통합 방식이 다릅니다! Anthropic의
mcp_servers
파라미터부터 Gemini에게mcp_client.session
을 전달하는 방식, 그리고 OpenAI의tools
객체까지, 각 LLM 플랫폼은 MCP 서버를 인식하는 방식이 조금씩 다르다는 것을 명심해야 합니다. - 스테이트풀 vs. 스테이트리스는 매우 중요한 아키텍처적 결정입니다! 스테이트풀 서버는 기본값이며 세션을 유지할 수 있는 클라이언트에 효율적입니다. 반면, 각 요청을 독립적인 트랜잭션으로 처리하는 클라이언트에게는 스테이트리스 서버가 필수입니다. 어떤 것을 사용할지 아는 것이 성공적인 통합의 핵심이죠.
이제 여러분은 공식적으로 ‘AI 도구 장인’이 되었습니다! 어떤 작업이든 파이썬 함수로 작성하고, 그것을 Claude, Gemini, ChatGPT에게 새로운 능력으로 제공할 수 있게 된 겁니다.
다음 강의에서는 더 풍부하고 역동적인 상호 작용의 수준을 열어젖힐 겁니다. 단순한 도구를 정교하고 상황 인식 능력이 있는 LLM의 파트너로 바꾸는 핵심 구성 요소를 탐구할 것입니다.
AI에게 ‘도구’를 쥐여주는 법을 배웠다면, 다음 시간엔 ‘종합 작업실’을 통째로 쥐여주는 법을 배우게 될 겁니다. 기대하셔도 좋습니다! 오늘 강의는 여기까지! 수고 많으셨습니다!