일타 저스틴의 MCP 강의 3. MCP 서버를 거대 언어 모델(LLM)과 연결

일타 강사 저스틴입니다! 오늘은 여러분의 MCP 서버를 세계 최고의 거대 언어 모델(LLM)과 연결하는 비법을 전수해 드리겠습니다. 이전 강의에서 MCP 서버의 기본기를 다졌다면, 이제는 그 잠재력을 폭발시킬 시간입니다.

자, 이제 AI에게 새로운 ‘도구’를 쥐여주는 마법을 시작해볼까요?


우리는 나만의 MCP 서버를 만들고, 도구를 정의하며, 로컬과 HTTP를 통해 통신하는 방법을 마스터했습니다. 이제는 우리가 만든 이 똑똑한 서버를 저~ 멀리 클라우드에 있는 LLM들과 연결해서, 그들에게 없던 능력을 선물하는 방법을 배울 겁니다.

오늘 강의의 목표는 딱 세 가지입니다.

  1. 로컬 MCP 서버를 ngrok을 이용해 인터넷에 공개하기!
  2. Anthropic의 Claude, Google의 Gemini, OpenAI의 ChatGPT와 여러분의 서버를 연동하기!
  3. 스테이트풀(Stateful) 서버와 스테이트리스(Stateless) 서버의 결정적인 차이를 이해하고, 왜 이것이 중요한지 뼛속까지 새기기!

준비되셨죠? 자, 이 부분은 별표 세 개! 시작합니다!


1. 모든 LLM이 함께 쓸 만능 도구 만들기: 글자 수 세기 서버

LLM들은 언어를 이해하고 생성하는 데는 천재지만, 정밀하고 결정적인 작업, 예를 들어 문자열의 글자 수를 정확히 세는 것 같은 일에는 의외로 약점을 보입니다. 마치 제가 영어 문법은 기가 막히게 알려줘도, 여러분의 숙제 글자 수는 일일이 세기 귀찮은 것과 같죠! 이런 일은 누가 해야 할까요? 바로, 우리가 만든 MCP 서버가 나설 차례입니다.

원문에서는 fastmcp 라이브러리를 사용해서 아주 간단한 count_characters 서버를 만듭니다.

mcp_server_count_characters.py (핵심 코드)

이 코드는 지난 시간 원격 서버와 거의 똑같죠? count_characters라는 도구를 하나 정의하고, 9000번 포트에서 HTTP 서비스로 실행합니다. 이 서버를 백그라운드에서 계속 실행시켜 두세요.

서버가 잘 실행되면 http://127.0.0.1:9000에서 실행 중이라는 메시지를 볼 수 있을 겁니다.


2. 로컬에서 전 세계로: ngrok으로 서버를 공개하자!

자, 여기서 문제가 하나 터집니다. 여러분의 서버는 지금 localhost라는 곳에서 실행 중입니다. localhost는 오직 여러분의 컴퓨터만 이해하는 개인 주소예요. 그런데 Anthropic, Google, OpenAI 같은 LLM들은 거대한 클라우드 데이터센터에서 돌아가고 있죠? 여러분의 로컬 머신에 닿을 방법이 전혀 없습니다! 마치 제가 대치동 학원에 있는데, 여러분이 안방에서 저를 부르는 격이죠. 제가 안 들립니다!

해결책은 바로 ngrok입니다! 이 친구는 인터넷상의 공개 URL에서 여러분의 로컬 머신 포트로 안전한 터널을 뚫어줍니다. 마치 대치동에서 여러분 집까지 전용선을 깔아주는 것과 같죠!

  1. ngrok 설치: 공식 사이트(https://ngrok.com/downloads)에서 다운로드하고 설치하세요.
  2. 계정 연결 (필수): ngrok 대시보드(https://dashboard.ngrok.com/)에서 계정에 연결해서 영구 도메인을 확보하는 것이 좋습니다. 개발 시 정말 유용합니다.
  3. ngrok 실행: MCP 서버가 실행 중인 터미널 외에, 새 터미널 창을 열고 다음 명령어를 실행합니다.

    your-ngrok-endpoint는 여러분이 ngrok 대시보드에서 설정한 고정 도메인으로 바꾸세요. 고정 도메인이 없다면 --domain 부분을 생략해도 되지만, 그럴 경우 ngrok이 실행될 때마다 랜덤한 임시 URL이 생성되니 클라이언트 코드를 매번 업데이트해야 합니다.

ngrok이 실행되면 Forwarding이라는 줄에 https://uniquename-1234.ngrok-free.app 같은 공개 URL이 보일 겁니다. 자, 이 주소는 별표 세 개! 바로 이 주소가 여러분의 MCP 서버에 접근할 수 있는 공개 주소입니다. 이 URL로 전송되는 모든 요청은 9000번 포트에서 실행 중인 여러분의 로컬 파이썬 스크립트로 안전하게 전달됩니다.


3. Anthropic (Claude) 연동하기: API 키와 mcp_servers의 만남!

이제 Claude에게 우리의 새 도구를 사용하는 방법을 알려줄 시간입니다.

  1. API 키 발급: Anthropic 개발자 콘솔(https://console.anthropic.com/)에서 API 키를 받으세요.
  2. 라이브러리 설치:
  3. 클라이언트 스크립트 작성 (anthropic_interact_with_mcp.py):

    코드 해설:

    • 1. 서버 URL: MCP_SERVER_URL 환경 변수에서 공개 URL을 가져옵니다. 중요한 정보는 소스코드에 직접 넣지 않는 좋은 습관이죠.
    • 2. 클라이언트 초기화: anthropic 라이브러리의 표준 설정입니다. ANTHROPIC_API_KEY라는 환경 변수에서 API 키를 자동으로 찾습니다.
    • 3. API 호출: 가장 중요한 부분! client.beta.messages.create 안에 mcp_servers라는 새 파라미터가 보이시나요? 여기에 Claude가 인식할 서버 리스트를 넘겨줍니다. url과 Claude가 이 도구를 참조할 name을 제공합니다. extra_headers는 현재 MCP 통합이 베타 기능이라 필수입니다.
    • 4. 응답 출력: 응답은 단순한 문자열이 아니라, 도구 호출을 포함한 대화 전체를 보여주는 구조화된 객체입니다.
  4. 클라이언트 실행 전 환경 변수 설정:
    • Anthropic API 키:
    • 공개 MCP 서버 URL (가장 중요!): ngrok URL 뒤에 /mcp/를 꼭 붙여주세요! fastmcp가 노출하는 엔드포인트입니다.
  5. 클라이언트 실행:

    출력 내용을 자세히 살펴보면, Claude가 여러분의 count_characters 도구를 호출하고( BetaMCPToolUseBlock), 그 결과(123)를 받아 자연어 답변(BetaTextBlock)을 형성하는 과정을 보실 수 있을 겁니다. 축하합니다! Claude에게 새로운 능력을 부여했습니다!

4. Google (Gemini) 연동하기: mcp_client.session으로 연결!

다음은 Gemini입니다. 과정은 비슷해요. API 키를 받고, 클라이언트 스크립트를 작성하고, 실행하면 됩니다.

  1. API 키 발급: Google AI Studio(https://aistudio.google.com/app/apikey)에서 Gemini API 키를 받으세요.
  2. 라이브러리 설치:
  3. 클라이언트 스크립트 작성 (google_gemini_interact_with_mcp.py):

    코드 해설:

    • 1. 서버 URL: 이전과 동일하게 환경 변수에서 ngrok URL을 가져옵니다.
    • 2. Gemini 클라이언트 초기화: genai에서 Gemini Client 객체를 만듭니다.
    • 3. MCP 클라이언트 생성: Anthropic 예제와 다른 점은 바로 이겁니다. 여기서는 fastmcp 라이브러리에서 Client를 인스턴스화하고, 우리 서버의 공개 URL을 가리키도록 합니다.
    • 4. MCP 클라이언트 연결: async with mcp_client: 블록이 서버와의 연결을 설정합니다. 비동기 환경에서 작업을 처리하는 코드입니다.
    • 5. API 호출: 핵심은 tools 파라미터입니다. 우리는 활성 MCP 연결을 나타내는 객체인 [mcp_client.session]을 전달합니다. Gemini의 SDK는 이 객체를 이해하고, 여러분의 서버에서 도구를 찾아 호출하는 방법을 알고 있습니다.
  4. 클라이언트 실행 전 환경 변수 설정:
    • Gemini API 키:
    • MCP_SERVER_URL 변수는 이전 예제에서 설정한 대로 유지하면 됩니다.
  5. 클라이언트 실행:

    출력이 길지만, function_call 블록에서 Gemini가 여러분의 count_characters 도구를 호출하기로 결정했음을, 그리고 function_response 블록에서 MCP 서버의 응답이 대화에 다시 전달되는 것을 확인할 수 있을 겁니다. 역시 성공입니다!

5. OpenAI (ChatGPT) 연동하기: 스테이트풀 vs. 스테이트리스, 이 차이가 핵심!

마지막으로 가장 인기 있는 플랫폼, OpenAI의 ChatGPT를 연결해 봅시다. 역시 API 키와 클라이언트 스크립트가 필요하겠죠.

  1. API 키 발급: OpenAI 플랫폼(https://platform.openai.com/api-keys)에서 키를 받으세요.
  2. 라이브러리 설치:
  3. 클라이언트 스크립트 작성 (openai_interact_with_mcp.py):

    이 스크립트는 type: "mcp"인 도구를 정의하고 서버의 URL을 제공하는 것처럼 보입니다. 그런데 이대로 실행하면 LLM이 MCP 도구를 호출하는 데 실패할 겁니다. 왜일까요?

    자, 이 부분은 별표 열 개입니다! 바로 MCP 서버 설계의 핵심 개념, **스테이트풀(Stateful)과 스테이트리스(Stateless)**의 차이 때문입니다.

    • 스테이트풀 서버 (Stateful Server): 여러분이 지금까지 실행했던 MCP 서버는 스테이트풀이었습니다. 마치 전용 전화 통화와 같아요. 클라이언트가 연결되면 서버는 영구적인 세션을 설정하고, 해당 클라이언트의 상태를 추적합니다. 이후 동일한 클라이언트의 모든 요청은 동일한 세션로 라우팅되어, 지속적인 대화에 빠르고 효율적입니다. fastmcp의 기본 동작이 바로 이겁니다.
    • 스테이트리스 서버 (Stateless Server): 반면에 스테이트리스 서버는 일련의 문자 메시지를 보내는 것과 같습니다. 각 요청이 완전히 새롭고 독립적인 상호 작용으로 처리됩니다. 서버는 요청을 위해 새로운 트랜스포트를 생성하고, 처리하고, 응답을 보낸 다음, 해당 상호 작용에 대한 모든 것을 즉시 잊어버립니다. 세션도, 영구적인 연결도 없습니다.

    OpenAI 클라이언트 구현은 스테이트리스 MCP 서버를 요구합니다. OpenAI는 우리의 기본 서버가 기대하는 세션 상태를 유지하지 않아요. 따라서 OpenAI 클라이언트를 작동시키려면 서버를 스테이트리스 모드로 다시 시작해야 합니다.

    먼저, 실행 중인 서버를 멈추세요(Ctrl+C).

    mcp_server_count_characters_stateless.py (핵심 코드)

    FastMCP 생성자에 stateless_http=True 인수를 추가하는 것이 유일한 차이점입니다. 이 하나의 플래그가 서버에게 세션을 추적하지 않고 모든 요청을 독립적으로 처리하도록 지시합니다.

    이제 이 새로운 스테이트리스 서버를 실행하세요. ngrok 터널이 자동으로 다시 연결될 겁니다.

  4. OpenAI 클라이언트 실행 전 환경 변수 설정:
    • OpenAI API 키:

  5. 클라이언트 실행:

    이번엔 작동합니다! 출력에 여러분의 MCP 도구 호출을 명확하게 보여주는 McpCall 객체가 포함될 겁니다. 대화 흐름에서 모델이 이 정보를 사용하여 최종 답변을 생성하는 것을 확인할 수 있습니다.


강의 마무리: 이제 여러분은 AI 도구 장인입니다!

여러분, 오늘 강의는 정말 큰 도약이었습니다! 로컬에서만 실험하던 파이썬 코드를 세계에서 가장 강력한 AI 모델들과 연결하는 방법을 배웠습니다.

오늘의 핵심 내용을 다시 한번 정리해 볼까요?

  • 공개 접근이 핵심입니다! 클라우드 기반 LLM이 여러분의 도구를 사용하려면 MCP 서버에 공개 URL이 필요하며, 개발 중에는 ngrok이 최고의 도구라는 것을 기억하세요.
  • 플랫폼별 통합 방식이 다릅니다! Anthropic의 mcp_servers 파라미터부터 Gemini에게 mcp_client.session을 전달하는 방식, 그리고 OpenAI의 tools 객체까지, 각 LLM 플랫폼은 MCP 서버를 인식하는 방식이 조금씩 다르다는 것을 명심해야 합니다.
  • 스테이트풀 vs. 스테이트리스는 매우 중요한 아키텍처적 결정입니다! 스테이트풀 서버는 기본값이며 세션을 유지할 수 있는 클라이언트에 효율적입니다. 반면, 각 요청을 독립적인 트랜잭션으로 처리하는 클라이언트에게는 스테이트리스 서버가 필수입니다. 어떤 것을 사용할지 아는 것이 성공적인 통합의 핵심이죠.

이제 여러분은 공식적으로 ‘AI 도구 장인’이 되었습니다! 어떤 작업이든 파이썬 함수로 작성하고, 그것을 Claude, Gemini, ChatGPT에게 새로운 능력으로 제공할 수 있게 된 겁니다.

다음 강의에서는 더 풍부하고 역동적인 상호 작용의 수준을 열어젖힐 겁니다. 단순한 도구를 정교하고 상황 인식 능력이 있는 LLM의 파트너로 바꾸는 핵심 구성 요소를 탐구할 것입니다.

AI에게 ‘도구’를 쥐여주는 법을 배웠다면, 다음 시간엔 ‘종합 작업실’을 통째로 쥐여주는 법을 배우게 될 겁니다. 기대하셔도 좋습니다! 오늘 강의는 여기까지! 수고 많으셨습니다!

About the Author
(주)뉴테크프라임 대표 김현남입니다. 저에 대해 좀 더 알기를 원하시는 분은 아래 링크를 참조하세요. http://www.umlcert.com/kimhn/

Leave a Reply

*