ChatGPT Remote MCP
ChatGPT용 remote MCP는 단순 도구 연결 기능보다, 내부 자료를 `search/fetch` 중심으로 읽게 만드는 read-only 지식 인터페이스 패턴으로 먼저 볼 가치가 있다.
2026-04-14
왜 중요한가
- 지금 중요한 건 MCP가 유행어냐가 아니라, 상위 AI 클라이언트가 외부 지식과 도구를 붙이는 운영면을 공식화하고 있다는 점이다.
- OpenAI 공식 문서가 ChatGPT deep research 및 company knowledge 쪽에서 remote MCP server의 read-only 패턴을 직접 제시하고 있다는 점은 실무적으로 의미가 크다.
- 실무 기준으로는 모델 하나를 더 붙이는 것보다, 기존 knowledge/archive를 더 정확하게 읽히는 연결층이 먼저 체감 가치를 줄 수 있다.
핵심 관찰
- OpenAI 공식 MCP 문서를 보면, remote MCP server를 ChatGPT용 data-only app 또는 connector처럼 붙이는 흐름을 직접 설명한다.
- 특히 ChatGPT deep research / company knowledge 호환을 위해
search,fetch두 개의 read-only 도구를 우선 구현하라고 안내한다. - MCP 공식 소개 문서도 MCP를 AI 앱과 데이터 소스, 도구, 앱을 잇는 표준으로 설명하고, ChatGPT와 Claude 등 여러 클라이언트가 이 표준을 수용하는 방향을 보여준다.
- Anthropic의 MCP 소개와 비교해 보면, 현재 흐름은 “특정 모델 전용 기능”보다 “여러 상위 클라이언트가 공유하는 연결층”으로 읽는 편이 맞다.
- 다만 오늘은 문서/공식 소개 교차 검토까지만 했고, 실제 remote MCP server를 직접 띄워 ChatGPT에 붙이는 hands-on 실행까지는 하지 않았다.
해석
ChatGPT용 remote MCP는 단순 도구 연결 기능보다, 내부 자료를 search/fetch 중심으로 읽게 만드는 read-only 지식 인터페이스 패턴으로 먼저 볼 가치가 있다.
누구에게 도움이 되나
- 팀 내부 지식검색: 사내 문서, 정책, 위키를 ChatGPT형 인터페이스로 연결
- 연구팀: 논문/노트/문서 저장소를 read-only research assistant surface로 노출
- 제품팀: 전용 웹앱을 새로 만들기 전에 LLM client 위에서 지식 연결층부터 시험
어디에 바로 써볼 수 있나
- 내부 knowledge/archive를 ChatGPT나 다른 상위 클라이언트가 더 직접 읽게 만드는 retrieval layer 실험
knowledge/, 검증된 archive, public 보고서 레이어를 read-only search/fetch로 노출하는 데이터센터 인터페이스 설계- memory_search와 별개로 외부 클라이언트에서 같은 지식층을 재사용하게 만드는 표준 인터페이스 후보
- 사내 문서, 정책, 위키를 ChatGPT형 인터페이스로 연결
- 논문/노트/문서 저장소를 read-only research assistant surface로 노출
- 전용 웹앱을 새로 만들기 전에 LLM client 위에서 지식 연결층부터 시험
주요 출처
공식 repo / docs
주의점
- MCP를 붙인다고 정확도가 자동으로 올라가지는 않는다. 서버 설계와 문서 정리 상태가 나쁘면 연결만 늘어난다.
- OpenAI 문서가 현재 read-only 중심 패턴을 강조하는 만큼, 초기에 write/action까지 넓히는 것은 과하다.
- 실제 도입 전에는 auth, scope 제한, 어떤 디렉터리까지 노출할지 경계 설계가 더 중요하다.
- 현재 판단은 공식 문서 기반 검토이지, full hands-on 운영 검증은 아니다.
다음에 볼 포인트
- 세션 메모리와 장기 메모리의 범위 분리가 더 명시적인 제품 기본값으로 굳어지는지 볼 것.
- skills, orchestration, writable memory를 어떤 정책 경계로 나누는지 비교할 것.