본문 바로가기
AI/AI 활용법

MCP(Model Context Protocol)란 무엇인가 : AI 에이전트가 도구를 연결하는 표준

by AI시대의 컴공 졸업생 2026. 4. 22.
반응형

 

2026년 4월 22일 읽기 12분 AI 기술 시리즈
핵심 요약
  • MCP(Model Context Protocol)는 AI 모델과 외부 도구·데이터가 통신하는 방식을 표준화한 개방형 규약입니다.
  • Anthropic이 2024년 11월 공개했으며, 2025년 3월 OpenAI가 공식 채택을 발표했습니다.
  • Host(AI 앱) - Client(연결 처리) - Server(도구·데이터) 3계층 구조로 작동하며, JSON-RPC 2.0 기반입니다.
  • 파일 시스템, GitHub, Slack, Google Drive 등 다수의 공개 MCP 서버가 이미 존재합니다.
  • 신뢰할 수 없는 MCP 서버는 데이터 유출 위험이 있으므로, 공식 저장소 서버만 사용을 권장합니다.

MCP(Model Context Protocol)는 AI 모델이 외부 도구·데이터와 통신하는 방법을 표준화한 개방형 규약으로, Anthropic이 2024년 11월 공개했습니다. 2025년 3월 OpenAI, 2025년 Google이 공식 채택하면서 AI 업계 사실상의 표준으로 빠르게 자리 잡고 있습니다.

AI가 캘린더를 열어 일정을 확인하고, 로컬 파일을 요약하고, GitHub 이슈를 자동으로 분류하는 장면이 가능해진 건 AI 모델이 똑똑해져서만은 아닙니다. AI와 외부 도구 사이를 연결하는 공통 규격이 생겼기 때문입니다. 이 글에서는 MCP가 왜 등장했는지, 어떻게 작동하는지, 실제로 무엇에 쓸 수 있는지를 차근차근 짚겠습니다.

MCP란 무엇인가 : 30초 안에 이해하는 핵심 정의

MCP는 AI 모델이 외부 도구·데이터와 대화하는 방법을 표준화한 개방형 통신 규약입니다. Anthropic이 2024년 11월 공개했고, 2025년 3월 OpenAI가 공식 채택을 발표하면서 AI 업계의 사실상 표준으로 자리 잡기 시작했습니다(Anthropic 공식 블로그, 2024).

가장 직관적인 비유는 USB-C 포트입니다. 과거에는 스마트폰마다 충전 단자가 달라서 케이블을 여러 개 들고 다녀야 했습니다. 그러다 USB-C라는 표준이 생기면서 기기가 달라도 케이블 하나로 연결할 수 있게 됐죠. MCP는 AI 세계의 USB-C와 같습니다. 어떤 AI 모델이든, 어떤 외부 도구든, MCP 규격만 맞추면 연결이 됩니다.

MCP 이전에는 AI 모델마다 별도의 플러그인이나 함수 연동 코드가 필요했습니다. Claude용으로 만든 파일 읽기 기능을 GPT-4에서 쓰려면 처음부터 다시 개발해야 했습니다. MCP는 이 "각자도생" 구조를 끊어내고, 한 번 만든 연결 도구를 모든 호환 AI에서 재사용할 수 있게 해줍니다.

MCP 개념 설명용 인포그래픽

MCP 등장 이전 : AI 에이전트의 연결 지옥

MCP가 등장하기 전, AI 에이전트에 외부 도구를 붙이는 작업은 모델 하나를 바꿀 때마다 연동 코드 전체를 다시 짜야 하는 일이었습니다. 단순한 불편함이 아니라 구조적인 문제였습니다.

첫 번째 문제는 모델 교체 비용입니다. 특정 LLM에 맞춰 API 연동을 완성해 놓으면, 다른 모델로 옮길 때 연동 로직을 전부 다시 짜야 했습니다. 모델 제공업체마다 함수 호출 방식과 컨텍스트 전달 형식이 달랐기 때문이죠.

두 번째 문제는 보안입니다. 도구 연동마다 API 키와 액세스 토큰을 코드에서 개별 관리해야 해서, 자격증명 노출 위험이 도구 수에 비례해 커졌습니다. 세 번째는 컨텍스트 전달 방식의 불일치입니다. 도구가 반환한 결과를 AI 모델에 어떤 형식으로 넘겨야 하는지 표준이 없어서 개발자마다 제각각이었습니다.

실무 경험

저는 작년에 사내 RAG 시스템에 외부 캘린더 API를 붙이는 작업을 맡았습니다. 처음에는 Claude API 기준으로 연동 코드를 완성했는데, 팀에서 비용 비교를 위해 다른 LLM도 테스트해 보자는 요청이 들어왔습니다. LLM을 교체하자마자 함수 호출 포맷과 컨텍스트 전달 방식이 달라 약 400줄의 연동 코드를 다시 짜야 했고, 이틀이 통째로 사라졌습니다. MCP가 그때 있었다면 달라졌을 겁니다.

AI 에이전트가 무엇인지 아직 낯설다면 블로그의 AI 카테고리 글을 먼저 읽어두시면 이번 내용이 훨씬 잘 들어올 겁니다.

MCP의 작동 방식 : 클라이언트, 서버, 호스트 3계층

MCP는 Host, Client, Server 세 역할이 협력하는 구조로 작동합니다. 이 3계층을 이해하면 MCP의 전체 흐름이 명확해집니다(Anthropic MCP 공식 문서, 2024).

Host : AI가 실행되는 앱

Host는 AI 모델을 품고 있는 애플리케이션입니다. Claude Desktop, VS Code의 Copilot, Cursor 같은 AI 통합 에디터가 여기 속합니다. 사용자는 이 Host 앱을 통해 AI와 대화하고, Host가 MCP 연결 전반을 담당합니다.

Client : 연결을 처리하는 중간자

Client는 Host 내부에서 동작하며, 각 MCP 서버와 일대일 연결을 유지합니다. AI 모델이 "파일을 읽어줘"라고 요청하면 Client가 그 요청을 받아 적절한 MCP 서버로 넘겨줍니다.

Server : 실제 도구·데이터를 제공

Server는 파일 시스템, GitHub, Slack, 데이터베이스 같은 실제 도구나 데이터에 접근하는 경량 프로세스입니다. MCP 서버 하나가 특정 도구 하나를 담당하는 구조라서, 도구를 추가할 때 서버만 새로 연결하면 됩니다.

"로컬 파일 읽기" 요청을 예로 들어 전체 흐름을 짚어보면 이렇습니다.

1. 사용자가 Claude Desktop(Host)에 "프로젝트 폴더의 README 파일 요약해줘"라고 입력합니다.

2. Claude 모델이 파일 시스템 MCP 서버의 read_file 도구를 호출하기로 결정합니다.

3. Client가 그 요청을 파일 시스템 MCP 서버로 전달합니다.

4. MCP 서버가 실제 파일을 읽어 내용을 반환합니다.

5. Claude가 반환된 내용을 바탕으로 요약 답변을 생성합니다.

이 통신은 JSON-RPC 2.0 프로토콜 위에서 이루어집니다. 기술적 배경이 궁금하다면 한 줄만 정리하면 됩니다. JSON-RPC는 요청과 응답을 JSON 형식으로 주고받는 경량 원격 호출 규약입니다.

 

MCP Host-Client-Server 3계층 아키텍처

MCP로 무엇을 연결할 수 있는가 : 실제 사용 사례

2025년 말 기준, Anthropic이 관리하는 공식 레퍼런스 저장소(github.com/modelcontextprotocol/servers)에는 Filesystem, GitHub, Git, Memory, Fetch, PostgreSQL, Slack 등 약 10여 개의 핵심 서버가 공개되어 있습니다. 커뮤니티 생태계까지 합치면 규모는 훨씬 큽니다. Glama MCP Registry 같은 집계 사이트에는 수천 개의 서드파티 서버가 등록돼 있고, 지금도 빠르게 늘고 있죠.

 

Anthropic 공식 MCP 서버 저장소(github.com/modelcontextprotocol/servers) 기반

실제로 어떻게 쓰이는지, 세 가지 사례로 정리했습니다.

사례 1 : Claude가 로컬 파일 요약. 파일 시스템 MCP 서버를 연결하면, Claude Desktop에서 "내 다운로드 폴더의 계약서 PDF를 요약해줘"라고 입력하는 것만으로 실제 파일을 읽고 요약한 결과를 받을 수 있습니다. 별도의 파일 업로드 과정 없이 로컬 경로를 직접 참조합니다.

사례 2 : AI가 GitHub 이슈 자동 분류. GitHub MCP 서버를 연결하면 AI 에이전트가 저장소의 새 이슈를 읽고, 라벨을 붙이고, 담당자까지 지정하는 흐름을 자동화할 수 있습니다. 버그·기능 요청·문서 오류를 구분하는 분류 에이전트를 MCP 기반으로 구현하는 방식이 실무에서 빠르게 퍼지고 있습니다.

사례 3 : 회의 내용을 캘린더에 자동 등록. Google Calendar MCP 서버와 결합하면, 회의록 텍스트를 AI에게 넘겼을 때 다음 미팅 날짜·시간·참석자를 파싱해서 캘린더 이벤트를 자동으로 만들어주는 워크플로우를 구성할 수 있습니다.

Claude Desktop 같은 GUI 클라이언트 덕분에 이 기능들이 비개발자에게도 열려 있습니다. 설정 파일에 서버 경로를 추가하는 정도의 작업이면 기본 연결이 가능합니다.

RAG 시스템에 MCP를 결합하면 훨씬 강력한 에이전트를 만들 수 있습니다. RAG가 벡터 DB에서 관련 문서를 찾아주는 역할이라면, MCP는 그 검색 결과를 AI 모델에 표준 방식으로 전달하는 파이프 역할을 합니다. RAG 원리가 궁금하다면 이 글을 참고하세요.

MCP vs 기존 API·플러그인 비교

기존 API 연동 방식은 모델별 맞춤 개발, 즉 "일대일 계약"이었습니다. MCP는 한 번 만들면 모든 호환 AI에서 재사용하는 "공통 표준"입니다. 이 차이가 실제 개발 비용과 유지보수 부담에서 어떻게 나타나는지 표로 정리했습니다.

비교 항목 기존 API / 플러그인 MCP
재사용성 모델별 별도 구현 필요 호환 AI 모델 전체에서 재사용
보안 관리 도구마다 개별 자격증명 처리 Host 레벨에서 통합 권한 관리
구현 복잡도 높음 (모델 종속 로직 필요) 낮음 (표준 인터페이스 준수)
현재 지원 모델 개별 제공사 문서 참조 Claude, OpenAI Agents SDK, 다수 오픈소스
표준화 여부 없음 (제공사마다 상이) 오픈소스 사양, 누구나 구현 가능

OpenAI는 2025년 3월 26일 Sam Altman이 X를 통해 MCP 채택을 공식 발표했고, Responses API와 Agents SDK에 MCP 지원을 통합했습니다(TechCrunch, 2025년 3월 26일). Google 역시 Gemini SDK와 Google Cloud 서비스에서 MCP를 채택해 관리형 서버를 제공 중입니다(Google Cloud Blog, 2025). 주요 AI 업체들이 잇달아 합류하면서 MCP는 사실상 업계 표준으로 굳어지고 있습니다.

LLM 자체가 어떻게 작동하는지 아직 낯설다면, AI 카테고리의 LLM 해설 글을 먼저 보고 오면 MCP가 훨씬 구체적으로 들어옵니다.

MCP의 보안과 주의점

MCP 서버는 파일 시스템, 네트워크, 경우에 따라 코드 실행 권한까지 가질 수 있습니다. 신뢰할 수 없는 서버를 연결하면 민감한 데이터가 외부로 샐 위험이 있죠. Anthropic 공식 문서는 "최소 권한 원칙(Principle of Least Privilege)"을 권고합니다. 서버에 꼭 필요한 범위의 권한만 부여하라는 뜻입니다(Anthropic MCP 공식 문서, 2024).

실제로 나타날 수 있는 위험 시나리오는 두 가지입니다. 하나는 악성 MCP 서버입니다. 커뮤니티에서 내려받은 비공식 서버가 파일 시스템 접근 권한을 이용해 개인 문서를 외부로 보낼 수 있습니다. 다른 하나는 프롬프트 인젝션 공격입니다. MCP 서버를 통해 AI 모델에 전달되는 데이터 안에 악의적인 명령을 심어, AI가 의도치 않은 동작을 하도록 유도하는 방식입니다.

MCP 사용 전 확인할 실천 팁
  • 공식 저장소(github.com/modelcontextprotocol/servers)에 등록된 서버만 사용합니다.
  • 로컬 파일 서버라면 접근 허용 디렉터리를 최소한으로 제한합니다.
  • 네트워크 접근 권한이 있는 서버는 반드시 소스 코드를 확인한 후 실행합니다.
  • 업무용 민감 데이터가 있는 환경에서는 새 서버를 격리된 환경에서 먼저 테스트합니다.

MCP 관련 자주 묻는 질문

MCP는 무료로 쓸 수 있나요?
MCP 자체는 Anthropic이 오픈소스로 공개한 프로토콜이라 무료입니다. 단, MCP를 통해 연결하는 AI 서비스나 클라우드 인프라 비용은 별도로 발생할 수 있습니다. 공식 저장소(github.com/modelcontextprotocol)에서 사양과 SDK를 누구나 무료로 이용할 수 있습니다.
MCP를 쓰려면 코딩을 알아야 하나요?
Claude Desktop 같은 GUI 클라이언트를 이용하면 설정 파일(JSON) 수정 정도만으로도 기본 MCP 서버를 연결할 수 있습니다. 직접 MCP 서버를 개발하려면 Python이나 TypeScript 지식이 필요하지만, 공개된 서버를 가져다 쓰는 수준은 비개발자도 충분히 가능합니다.
ChatGPT도 MCP를 지원하나요?
OpenAI는 2025년 3월 에이전트 빌딩 도구 발표 시 MCP 지원을 공식화했습니다. 현재 Agents SDK에서 MCP 서버 연결 기능을 제공하고 있어, ChatGPT 에코시스템에서도 MCP 기반 도구 연결이 가능합니다.
MCP와 RAG는 함께 쓸 수 있나요?
함께 쓸 수 있고 자주 조합됩니다. RAG는 벡터 DB에서 관련 문서를 검색해 LLM에 전달하는 기술이고, MCP는 그 검색 시스템을 AI 모델과 연결하는 표준 통신 규약입니다. MCP 서버로 RAG 파이프라인을 노출하면 어떤 호환 AI 클라이언트에서도 동일한 검색 기능을 재사용할 수 있습니다.
MCP 서버를 직접 만들 수 있나요?
가능합니다. Anthropic이 Python, TypeScript, Java, Kotlin, C# SDK를 공식 제공하며, 공식 문서(modelcontextprotocol.io)에 상세한 개발 가이드가 있습니다. 기본 MCP 서버는 수십 줄의 코드로 구현할 수 있어, 사내 API나 데이터베이스를 감싸는 커스텀 서버 제작에 활용됩니다.
MCP와 LangChain의 차이는 무엇인가요?
LangChain은 AI 애플리케이션을 구축하는 Python 프레임워크로, 모델·체인·에이전트 로직을 코드로 조합합니다. MCP는 코드 수준의 연동이 아니라 서버-클라이언트 간 통신을 표준화한 프로토콜입니다. LangChain 기반 시스템에 MCP를 도입해 도구 연결 부분을 표준화하는 조합도 가능합니다.

MCP가 여는 AI 에이전트 시대의 공통 언어

MCP는 단순한 기술 스펙이 아닙니다. AI 모델과 외부 세계 사이에 처음으로 공통 언어가 생겼다는 의미입니다. 도구 하나를 만들면 Claude든 GPT든 그 다음 어떤 모델이 나오든 재사용할 수 있는 생태계가 만들어지고 있습니다. Anthropic이 2024년 11월에 씨앗을 뿌렸고, 2025년 OpenAI와 Google이 합류하면서 그 생태계가 본격적으로 넓어졌습니다.

지금 MCP를 직접 개발할 계획이 없더라도, 이 흐름을 알아두면 AI 에이전트 관련 뉴스와 제품을 읽는 눈이 달라집니다. AI가 "왜 갑자기 캘린더를 열 수 있게 됐는지", "이 새 AI 도구가 기존 환경과 어떻게 붙는지" — 맥락이 보이기 시작하거든요.

지금 바로 해볼 수 있는 것들

  • Claude Desktop에서 파일 시스템 MCP 서버를 연결해 로컬 파일 요약을 실험해봅니다.
  • Anthropic 공식 MCP 서버 저장소(github.com/modelcontextprotocol/servers)를 북마크해 업데이트를 확인합니다.
  • 다음 글에서 다룰 멀티 에이전트 시스템을 기대해주세요. MCP가 여러 AI 에이전트가 협력하는 구조에서 어떤 역할을 하는지 이어서 정리할 예정입니다.

 

반응형