포스트

Claude Max 한도가 좁아진 것 같다, Codex를 같이 써야 할 텐데

Claude Max 한도가 좁아진 것 같다, Codex를 같이 써야 할 텐데

듀얼 모니터 워크스페이스. Photo by Jakub Żerdzicki on Unsplash

회사 지원으로 Claude Max 5x(월 100달러)를 쓰고 있다. 두어 달 전 2배 토큰 이벤트가 2주 정도 열렸을 때, 마침 회사 큰 프로젝트가 그 창 안에 들어가서 무사히 끝냈다. 지금 와서 보면 운이 좋았던 것 같다. 이벤트가 끝난 뒤로 100달러어치 토큰을 일시적으로 한 번 더 받기는 했는데 그것도 금방 사라졌다. 그 다음부터는 체감상 클로드가 자꾸 작은 단위로만 일을 하고 끝을 내려 한다. “오늘은 여기까지가 좋겠다”거나 “수고하셨다”라며 마감을 거는 식. 정책이 그 사이 좁아진 건지, 같은 한도 안에서 사용 빈도가 누적된 건지는 단언 못 하겠지만, 여러 에이전트를 같이 돌리기엔 분명히 부족해졌다.

같은 시기에 Codex를 같이 쓴다는 후기들이 부쩍 늘었고, OpenAI가 Claude Code용 공식 플러그인 codex-plugin-cc까지 내놨다. 후기 모음(GeekNews)을 한 바퀴 돌고 나니 답은 정해져 있다. 둘 다 써야 한다.

다만 결제 단위가 한 단계 올라가는 게 마음에 걸린다. Claude 100달러까지는 회사 지원으로 굴리고 있는데, ChatGPT Pro까지 얹으면 도구 비용이 한 사람당 월 200~300달러로 올라간다. 본인 카드로 차액을 메우는 건 어려운 금액이라, 회사가 더 지원해줘야 가능한 그림이 됐다. 이 글은 그래서 둘 다 쓰면 무엇이 어떻게 좋아지는지, 후기들이 어디서 의견이 모이는지를 정리해두는 메모에 가깝다. 본인이 직접 굴려본 결과는 실제로 두 도구를 같이 돌리게 됐을 때 후속 글로 따로 적는다.

한쪽만 쓰면 어디서 깨지는지

본인 경험은 위 도입에 적은 정도까지다. Max 5x에서 한도가 좁아진 것처럼 느껴지고, 작은 단위로 끊어 일을 마감하는 빈도가 늘었다는 것. 그 외 수치와 비교는 모두 외부 후기에서 가져온다.

사용량 한도(외부 후기). Claude Code는 5시간 롤링 윈도우와 주간 캡이 같이 걸리는 구조라고 안내된다(2026년 5월 기준). 큰 컨텍스트를 한 번에 태우면 5시간 한도의 50~70퍼센트가 그 한 번에 빠진다는 후기가 흔하고, Max 20x(월 200달러)에서도 활발한 평일에는 거의 매일 닿는다는 후기가 있다. 4월에는 한도 정책 자체가 흔들리기도 했다. Codex는 ChatGPT Plus(월 20달러)나 Pro(월 200달러) 구독 안에 들어 있어서 한도가 덜 걸리는 대신, API를 직접 호출하면 종량제라 헤비하게 쓰면 월 100~200달러대 청구가 나오기 쉽다는 후기가 많다.

본인 체감과 후기를 따로 두고 보면, 한쪽 한도가 비는 시간에 다른 쪽이 받쳐주는 구조가 매력적인 건 분명하다.

자기 검수 편향(외부 측정). 같은 모델이 작성과 검수를 동시에 하면 sycophancy bias가 가장 심하게 나온다고 한다. 블라인드 코드 리뷰는 Claude가 67퍼센트 승률이라는 측정, 터미널 디버깅 정확도는 Codex 우위라는 측정이 있다. 둘을 묶어 읽으면 한쪽만 쓰면 한 종류의 실수가 누적된다는 뜻이 된다.

회복성과 토큰 효율(외부 측정). Codex는 작업이 실패하면 처음부터 다시 가는 편이고, Claude는 대화로 방향을 되돌릴 수 있다는 평이 많다. 반대로 Codex가 같은 작업당 토큰을 4배 적게 쓴다는 측정도 있다. 사실이라면 대량 리팩터링을 Claude로만 굴리는 건 정작 설계와 리뷰에 쓸 한도를 그 전에 태우는 셈.

강점이 정반대

후기들을 모아보면 두 도구 강점이 정확히 반대 방향으로 갈린다.

Claude Code 쪽은 블라인드 코드 품질에서 우위, 1M 토큰 컨텍스트, Skills와 hooks와 MCP 같은 워크플로 확장이 풍부하다고 한다. 실패해도 대화로 되돌릴 수 있는 회복성이 가장 자주 언급된다.

Codex 쪽은 토큰 효율과 터미널 디버깅 정확도, ChatGPT 그대로 가져온 UX가 강점으로 꼽힌다. macOS Seatbelt와 Linux Landlock 기반 OS 레벨 샌드박스가 들어가 있어서 보안 정책이 빡빡한 곳에서 쓰기 좋다는 평이 많다.

한쪽 약점이 정확히 다른 쪽 강점에 붙어 있다. 그래서 다들 둘 다 쓰는 쪽으로 정리되는 듯하다.

어떻게 섞나

후기에 자주 나오는 패턴 네 가지를 진입 장벽 낮은 순서로.

A. 공식 Codex 플러그인

Claude Code 안에서 바로 설치한다.

1
2
3
/plugin marketplace add openai/codex-plugin-cc
/plugin install codex@openai-codex
/codex:setup
명령용도
/codex:reviewClaude가 짠 코드를 Codex가 검수. 자기 검수 편향 회피
/codex:adversarial-review설계 자체에 시비를 거는 강한 리뷰
/codex:rescue막힌 디버깅을 Codex 백그라운드 작업으로 위임
/codex:status, /codex:result, /codex:cancel백그라운드 잡 관리

OpenAI 공식 발표가 강조하는 시나리오는 “Claude가 짠 결과를 Codex가 다시 본다”는 교차 검수다. 플래그와 옵션은 공식 README에 잘 정리되어 있다. README가 직접 경고하는 함정 하나만 옮겨두면, /codex:setup --enable-review-gate로 켜는 강제 리뷰 모드는 처음부터 켜지 않는 편이 안전하다고 한다. 패치마다 Claude와 Codex가 길게 도는 루프가 만들어져 양쪽 한도가 동시에 빠지기 때문이다. 본인이 직접 굴려본 결과는 회사 도구 예산이 한 단계 더 풀려서 한 달 정도 써본 뒤에 후속 글로 적는다.

B. Plan, Implement, Review 분업

세 단계로 도구를 나눈다.

  • Plan은 Claude Opus. 1M 컨텍스트와 회복성이 빛난다.
  • Implement는 Codex. 토큰 효율 차이가 가장 크게 나는 자리.
  • Review는 다시 Claude. 블라인드 리뷰 승률 자리.

BSWEN 통합 가이드, stellarlinkco/myclaude, catlog22/Claude-Code-Workflow가 모두 이 3단 구조를 쓴다. CLAUDE.md에 흐름을 적어두면 한 명령으로 굴러간다고 한다.

C. MCP 서버로 Codex 호출

tuannvm/codex-mcp-serverkky42/codex-as-mcp는 Codex CLI를 MCP 서버로 노출해준다. ~/.claude/config.jsonmcpServers에 등록하면 hooks와 skills에 자유롭게 묶을 수 있어서 슬래시 커맨드보다 자동화 깊이가 한 단계 더 들어간다.

D. tmux와 git worktree로 병렬

같은 레포에 두 에이전트를 동시에 띄우면 8분 안에 git index가 깨졌다는 보고가 있다. .git/index를 동시에 쓰면서 staging이 race condition에 빠진다. 해결은 에이전트당 worktree 한 개씩.

도구특징
oh-my-codexCodex CLI를 worktree-per-worker로 감싸고 30개 역할 특화 에이전트
workmuxclaude, codex, gemini, opencode 자동 감지, tmux 페인 구성
agent-of-empiresTUI나 Web에서 멀티 에이전트 관리, 모바일 지원
Anthropic Agent Teams한 세션이 팀 리드, 나머지는 독립 컨텍스트

셋업 비교, 그리고 결제 현실

월 비용을 어디에 태우느냐로 흔히 보이는 셋업이 셋이다.

셋업월 비용특징
Claude Max 5x + ChatGPT Pro약 300달러가장 흔한 답. 양쪽 한도가 서로를 보완
Claude Max 20x 단독200달러품질 우선, 한도 닿으면 API로 폴백
ChatGPT Pro + Claude API 종량제200달러 + 사용량Codex 위주로 굴리고 어려운 순간만 Opus

이미 쓰는 Max 5x 위에 ChatGPT Pro를 얹는 첫 줄이 헤비 사용자에게 가장 자주 추천된다. 본인 자리는 회사가 Claude 100달러까지 지원해주는 상황이라, 둘 다 쓰려면 한 사람당 도구 예산이 월 300달러 정도까지 올라가야 한다는 얘기가 된다. 본인 카드로 차액 200달러를 메우는 건 솔직히 어렵다. 이런 비용이 한 명짜리 일이 아니라 팀 전체에 깔리는 흐름이라면, 이건 본인 지갑이 아니라 회사가 개발자 도구 예산을 어떻게 잡을지의 문제로 넘어간 것 같다.

다음 단계

회사 지원이 더 붙는다는 가정 아래 도입을 정하면, 자주 반복하는 작업 다섯 개에 Plan, Implement, Review 라벨을 붙여두고 한 달 동안 어느 라벨에 어느 도구가 어울리는지 기록해볼 생각이다. 그 결과는 후속 글로 다시 정리한다.

참고 자료

비교와 리뷰

가격과 한도

병행 워크플로와 플러그인

병렬 실행과 worktree

기술 분석

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.