- MCP(Model Context Protocol)는 AI 모델과 외부 도구·데이터가 통신하는 방식을 표준화한 개방형 규약입니다.
- Anthropic이 2024년 11월 공개했으며, 2025년 3월 OpenAI가 공식 채택을 발표했습니다.
- Host(AI 앱) - Client(연결 처리) - Server(도구·데이터) 3계층 구조로 작동하며, JSON-RPC 2.0 기반입니다.
- 파일 시스템, GitHub, Slack, Google Drive 등 다수의 공개 MCP 서버가 이미 존재합니다.
- 신뢰할 수 없는 MCP 서버는 데이터 유출 위험이 있으므로, 공식 저장소 서버만 사용을 권장합니다.
MCP(Model Context Protocol)는 AI 모델이 외부 도구·데이터와 통신하는 방법을 표준화한 개방형 규약으로, Anthropic이 2024년 11월 공개했습니다. 2025년 3월 OpenAI, 2025년 Google이 공식 채택하면서 AI 업계 사실상의 표준으로 빠르게 자리 잡고 있습니다.
AI가 캘린더를 열어 일정을 확인하고, 로컬 파일을 요약하고, GitHub 이슈를 자동으로 분류하는 장면이 가능해진 건 AI 모델이 똑똑해져서만은 아닙니다. AI와 외부 도구 사이를 연결하는 공통 규격이 생겼기 때문입니다. 이 글에서는 MCP가 왜 등장했는지, 어떻게 작동하는지, 실제로 무엇에 쓸 수 있는지를 차근차근 짚겠습니다.
MCP란 무엇인가 : 30초 안에 이해하는 핵심 정의
MCP는 AI 모델이 외부 도구·데이터와 대화하는 방법을 표준화한 개방형 통신 규약입니다. Anthropic이 2024년 11월 공개했고, 2025년 3월 OpenAI가 공식 채택을 발표하면서 AI 업계의 사실상 표준으로 자리 잡기 시작했습니다(Anthropic 공식 블로그, 2024).
가장 직관적인 비유는 USB-C 포트입니다. 과거에는 스마트폰마다 충전 단자가 달라서 케이블을 여러 개 들고 다녀야 했습니다. 그러다 USB-C라는 표준이 생기면서 기기가 달라도 케이블 하나로 연결할 수 있게 됐죠. MCP는 AI 세계의 USB-C와 같습니다. 어떤 AI 모델이든, 어떤 외부 도구든, MCP 규격만 맞추면 연결이 됩니다.
MCP 이전에는 AI 모델마다 별도의 플러그인이나 함수 연동 코드가 필요했습니다. Claude용으로 만든 파일 읽기 기능을 GPT-4에서 쓰려면 처음부터 다시 개발해야 했습니다. MCP는 이 "각자도생" 구조를 끊어내고, 한 번 만든 연결 도구를 모든 호환 AI에서 재사용할 수 있게 해줍니다.

MCP 등장 이전 : AI 에이전트의 연결 지옥
MCP가 등장하기 전, AI 에이전트에 외부 도구를 붙이는 작업은 모델 하나를 바꿀 때마다 연동 코드 전체를 다시 짜야 하는 일이었습니다. 단순한 불편함이 아니라 구조적인 문제였습니다.
첫 번째 문제는 모델 교체 비용입니다. 특정 LLM에 맞춰 API 연동을 완성해 놓으면, 다른 모델로 옮길 때 연동 로직을 전부 다시 짜야 했습니다. 모델 제공업체마다 함수 호출 방식과 컨텍스트 전달 형식이 달랐기 때문이죠.
두 번째 문제는 보안입니다. 도구 연동마다 API 키와 액세스 토큰을 코드에서 개별 관리해야 해서, 자격증명 노출 위험이 도구 수에 비례해 커졌습니다. 세 번째는 컨텍스트 전달 방식의 불일치입니다. 도구가 반환한 결과를 AI 모델에 어떤 형식으로 넘겨야 하는지 표준이 없어서 개발자마다 제각각이었습니다.
저는 작년에 사내 RAG 시스템에 외부 캘린더 API를 붙이는 작업을 맡았습니다. 처음에는 Claude API 기준으로 연동 코드를 완성했는데, 팀에서 비용 비교를 위해 다른 LLM도 테스트해 보자는 요청이 들어왔습니다. LLM을 교체하자마자 함수 호출 포맷과 컨텍스트 전달 방식이 달라 약 400줄의 연동 코드를 다시 짜야 했고, 이틀이 통째로 사라졌습니다. MCP가 그때 있었다면 달라졌을 겁니다.
AI 에이전트가 무엇인지 아직 낯설다면 블로그의 AI 카테고리 글을 먼저 읽어두시면 이번 내용이 훨씬 잘 들어올 겁니다.
MCP의 작동 방식 : 클라이언트, 서버, 호스트 3계층
MCP는 Host, Client, Server 세 역할이 협력하는 구조로 작동합니다. 이 3계층을 이해하면 MCP의 전체 흐름이 명확해집니다(Anthropic MCP 공식 문서, 2024).
Host : AI가 실행되는 앱
Host는 AI 모델을 품고 있는 애플리케이션입니다. Claude Desktop, VS Code의 Copilot, Cursor 같은 AI 통합 에디터가 여기 속합니다. 사용자는 이 Host 앱을 통해 AI와 대화하고, Host가 MCP 연결 전반을 담당합니다.
Client : 연결을 처리하는 중간자
Client는 Host 내부에서 동작하며, 각 MCP 서버와 일대일 연결을 유지합니다. AI 모델이 "파일을 읽어줘"라고 요청하면 Client가 그 요청을 받아 적절한 MCP 서버로 넘겨줍니다.
Server : 실제 도구·데이터를 제공
Server는 파일 시스템, GitHub, Slack, 데이터베이스 같은 실제 도구나 데이터에 접근하는 경량 프로세스입니다. MCP 서버 하나가 특정 도구 하나를 담당하는 구조라서, 도구를 추가할 때 서버만 새로 연결하면 됩니다.
"로컬 파일 읽기" 요청을 예로 들어 전체 흐름을 짚어보면 이렇습니다.
1. 사용자가 Claude Desktop(Host)에 "프로젝트 폴더의 README 파일 요약해줘"라고 입력합니다.
2. Claude 모델이 파일 시스템 MCP 서버의 read_file 도구를 호출하기로 결정합니다.
3. Client가 그 요청을 파일 시스템 MCP 서버로 전달합니다.
4. MCP 서버가 실제 파일을 읽어 내용을 반환합니다.
5. Claude가 반환된 내용을 바탕으로 요약 답변을 생성합니다.
이 통신은 JSON-RPC 2.0 프로토콜 위에서 이루어집니다. 기술적 배경이 궁금하다면 한 줄만 정리하면 됩니다. JSON-RPC는 요청과 응답을 JSON 형식으로 주고받는 경량 원격 호출 규약입니다.

MCP로 무엇을 연결할 수 있는가 : 실제 사용 사례
2025년 말 기준, Anthropic이 관리하는 공식 레퍼런스 저장소(github.com/modelcontextprotocol/servers)에는 Filesystem, GitHub, Git, Memory, Fetch, PostgreSQL, Slack 등 약 10여 개의 핵심 서버가 공개되어 있습니다. 커뮤니티 생태계까지 합치면 규모는 훨씬 큽니다. Glama MCP Registry 같은 집계 사이트에는 수천 개의 서드파티 서버가 등록돼 있고, 지금도 빠르게 늘고 있죠.

실제로 어떻게 쓰이는지, 세 가지 사례로 정리했습니다.
사례 1 : Claude가 로컬 파일 요약. 파일 시스템 MCP 서버를 연결하면, Claude Desktop에서 "내 다운로드 폴더의 계약서 PDF를 요약해줘"라고 입력하는 것만으로 실제 파일을 읽고 요약한 결과를 받을 수 있습니다. 별도의 파일 업로드 과정 없이 로컬 경로를 직접 참조합니다.
사례 2 : AI가 GitHub 이슈 자동 분류. GitHub MCP 서버를 연결하면 AI 에이전트가 저장소의 새 이슈를 읽고, 라벨을 붙이고, 담당자까지 지정하는 흐름을 자동화할 수 있습니다. 버그·기능 요청·문서 오류를 구분하는 분류 에이전트를 MCP 기반으로 구현하는 방식이 실무에서 빠르게 퍼지고 있습니다.
사례 3 : 회의 내용을 캘린더에 자동 등록. Google Calendar MCP 서버와 결합하면, 회의록 텍스트를 AI에게 넘겼을 때 다음 미팅 날짜·시간·참석자를 파싱해서 캘린더 이벤트를 자동으로 만들어주는 워크플로우를 구성할 수 있습니다.
Claude Desktop 같은 GUI 클라이언트 덕분에 이 기능들이 비개발자에게도 열려 있습니다. 설정 파일에 서버 경로를 추가하는 정도의 작업이면 기본 연결이 가능합니다.
MCP vs 기존 API·플러그인 비교
기존 API 연동 방식은 모델별 맞춤 개발, 즉 "일대일 계약"이었습니다. MCP는 한 번 만들면 모든 호환 AI에서 재사용하는 "공통 표준"입니다. 이 차이가 실제 개발 비용과 유지보수 부담에서 어떻게 나타나는지 표로 정리했습니다.
| 비교 항목 | 기존 API / 플러그인 | MCP |
|---|---|---|
| 재사용성 | 모델별 별도 구현 필요 | 호환 AI 모델 전체에서 재사용 |
| 보안 관리 | 도구마다 개별 자격증명 처리 | Host 레벨에서 통합 권한 관리 |
| 구현 복잡도 | 높음 (모델 종속 로직 필요) | 낮음 (표준 인터페이스 준수) |
| 현재 지원 모델 | 개별 제공사 문서 참조 | Claude, OpenAI Agents SDK, 다수 오픈소스 |
| 표준화 여부 | 없음 (제공사마다 상이) | 오픈소스 사양, 누구나 구현 가능 |
OpenAI는 2025년 3월 26일 Sam Altman이 X를 통해 MCP 채택을 공식 발표했고, Responses API와 Agents SDK에 MCP 지원을 통합했습니다(TechCrunch, 2025년 3월 26일). Google 역시 Gemini SDK와 Google Cloud 서비스에서 MCP를 채택해 관리형 서버를 제공 중입니다(Google Cloud Blog, 2025). 주요 AI 업체들이 잇달아 합류하면서 MCP는 사실상 업계 표준으로 굳어지고 있습니다.
LLM 자체가 어떻게 작동하는지 아직 낯설다면, AI 카테고리의 LLM 해설 글을 먼저 보고 오면 MCP가 훨씬 구체적으로 들어옵니다.
MCP의 보안과 주의점
MCP 서버는 파일 시스템, 네트워크, 경우에 따라 코드 실행 권한까지 가질 수 있습니다. 신뢰할 수 없는 서버를 연결하면 민감한 데이터가 외부로 샐 위험이 있죠. Anthropic 공식 문서는 "최소 권한 원칙(Principle of Least Privilege)"을 권고합니다. 서버에 꼭 필요한 범위의 권한만 부여하라는 뜻입니다(Anthropic MCP 공식 문서, 2024).
실제로 나타날 수 있는 위험 시나리오는 두 가지입니다. 하나는 악성 MCP 서버입니다. 커뮤니티에서 내려받은 비공식 서버가 파일 시스템 접근 권한을 이용해 개인 문서를 외부로 보낼 수 있습니다. 다른 하나는 프롬프트 인젝션 공격입니다. MCP 서버를 통해 AI 모델에 전달되는 데이터 안에 악의적인 명령을 심어, AI가 의도치 않은 동작을 하도록 유도하는 방식입니다.
- 공식 저장소(github.com/modelcontextprotocol/servers)에 등록된 서버만 사용합니다.
- 로컬 파일 서버라면 접근 허용 디렉터리를 최소한으로 제한합니다.
- 네트워크 접근 권한이 있는 서버는 반드시 소스 코드를 확인한 후 실행합니다.
- 업무용 민감 데이터가 있는 환경에서는 새 서버를 격리된 환경에서 먼저 테스트합니다.
MCP 관련 자주 묻는 질문
MCP가 여는 AI 에이전트 시대의 공통 언어
MCP는 단순한 기술 스펙이 아닙니다. AI 모델과 외부 세계 사이에 처음으로 공통 언어가 생겼다는 의미입니다. 도구 하나를 만들면 Claude든 GPT든 그 다음 어떤 모델이 나오든 재사용할 수 있는 생태계가 만들어지고 있습니다. Anthropic이 2024년 11월에 씨앗을 뿌렸고, 2025년 OpenAI와 Google이 합류하면서 그 생태계가 본격적으로 넓어졌습니다.
지금 MCP를 직접 개발할 계획이 없더라도, 이 흐름을 알아두면 AI 에이전트 관련 뉴스와 제품을 읽는 눈이 달라집니다. AI가 "왜 갑자기 캘린더를 열 수 있게 됐는지", "이 새 AI 도구가 기존 환경과 어떻게 붙는지" — 맥락이 보이기 시작하거든요.
지금 바로 해볼 수 있는 것들
- Claude Desktop에서 파일 시스템 MCP 서버를 연결해 로컬 파일 요약을 실험해봅니다.
- Anthropic 공식 MCP 서버 저장소(github.com/modelcontextprotocol/servers)를 북마크해 업데이트를 확인합니다.
- 다음 글에서 다룰 멀티 에이전트 시스템을 기대해주세요. MCP가 여러 AI 에이전트가 협력하는 구조에서 어떤 역할을 하는지 이어서 정리할 예정입니다.
참고 자료
- Anthropic MCP 공식 문서 — Model Context Protocol Introduction (2024)
- Anthropic 공식 블로그 — Introducing the Model Context Protocol (2024년 11월)
- TechCrunch — OpenAI adopts rival Anthropic's standard for connecting AI models to data (2025년 3월 26일)
- Google Cloud Blog — Announcing official MCP support for Google services (2025)
- MCP GitHub 공식 저장소 — modelcontextprotocol/servers
'AI > AI 활용법' 카테고리의 다른 글
| 멀티 에이전트(Multi-Agent)란 무엇인가 : AI 팀이 협력해 일하는 방법 (0) | 2026.04.23 |
|---|---|
| AI 에이전트, 챗봇이랑 뭐가 달라요? 컴공 출신이 쉽게 설명합니다. (1) | 2026.04.22 |
| RAG란 무엇인가? ChatGPT가 헛소리를 줄이는 핵심 기술 (0) | 2026.04.21 |
| ChatGPT는 어떻게 말을 만들까? LLM 작동 원리를 컴공 출신이 쉽게 설명합니다 (1) | 2026.04.17 |
| AI 일자리 대체 완전 분석 : 한국 직종별 위험도와 자본소득 전략 (2026) (0) | 2026.04.15 |