Claude Max 한도가 좁아진 것 같다, Codex를 같이 써야 할 텐데
회사 지원으로 Claude Max 5x(월 100달러)를 쓰고 있다. 두어 달 전 2배 토큰 이벤트가 2주 정도 열렸을 때, 마침 회사 큰 프로젝트가 그 창 안에 들어가서 무사히 끝냈다. 지금 와서 보면 운이 좋았던 것 같다. 이벤트가 끝난 뒤로 100달러어치 토큰을 일시적으로 한 번 더 받기는 했는데 그것도 금방 사라졌다. 그 다음부터는 체감상 클로드가 자꾸 작은 단위로만 일을 하고 끝을 내려 한다. “오늘은 여기까지가 좋겠다”거나 “수고하셨다”라며 마감을 거는 식. 정책이 그 사이 좁아진 건지, 같은 한도 안에서 사용 빈도가 누적된 건지는 단언 못 하겠지만, 여러 에이전트를 같이 돌리기엔 분명히 부족해졌다.
짧은 팁, 게으른 클로드 일 시키기. 이 체감을 풀려고 직접 고안한 노하우가 하나 있다. 작업 시작할 때 시간 여유를 명시적으로 적어주는 것이다. “아직 하루 업무가 10시간이나 남았다”거나 “마감 기한이 3개월이나 있어서 제대로 하자”라고 박아두면 작업 단위가 눈에 띄게 길어진다. 시간 압박이 안 적힌 상태에서는 자기 판단으로 적당히 끊는 빈도가 높았다. 근거가 있다고 본다. Claude Code 최신 업데이트가 작업 크기를 AI가 직접 결정하게 하는 방향으로 바뀐 게 힌트였다. 모델이 작업 크기를 스스로 정한다면, 그 결정의 입력으로 시간 여유를 명시하는 게 효과 있을 거라는 가설이고, 체감상 통한다.
같은 시기에 Codex를 같이 쓴다는 후기들이 부쩍 늘었고, OpenAI가 Claude Code용 공식 플러그인 codex-plugin-cc까지 내놨다. 후기 모음(GeekNews)을 한 바퀴 돌고 나니 답은 정해져 있다. 둘 다 써야 한다.
다만 결제 단위가 한 단계 올라가는 게 마음에 걸린다. Claude 100달러까지는 회사 지원으로 굴리고 있는데, ChatGPT Pro까지 얹으면 도구 비용이 한 사람당 월 200~300달러로 올라간다. 개인 카드로 차액을 메우는 건 어려운 금액이라, 회사가 더 지원해줘야 가능한 그림이 됐다. 이 글은 그래서 둘 다 쓰면 무엇이 어떻게 좋아지는지, 후기들이 어디서 의견이 모이는지를 정리해두는 메모에 가깝다. 직접 굴려본 결과는 실제로 두 도구를 같이 돌리게 됐을 때 후속 글로 따로 적는다.
한쪽만 쓰면 어디서 깨지는지
직접 겪은 건 위 도입에 적은 정도까지다. Max 5x에서 한도가 좁아진 것처럼 느껴지고, 작은 단위로 끊어 일을 마감하는 빈도가 늘었다는 것. 그 외 수치와 비교는 모두 외부 후기에서 가져온다.
사용량 한도(외부 후기). Claude Code는 5시간 롤링 윈도우와 주간 캡이 같이 걸리는 구조라고 안내된다(2026년 5월 기준). 큰 컨텍스트를 한 번에 태우면 5시간 한도의 50~70퍼센트가 그 한 번에 빠진다는 후기가 흔하고, Max 20x(월 200달러)에서도 활발한 평일에는 거의 매일 닿는다는 후기가 있다. 4월에는 한도 정책 자체가 흔들리기도 했다. Codex는 ChatGPT Plus(월 20달러)나 Pro(월 200달러) 구독 안에 들어 있어서 한도가 덜 걸리는 대신, API를 직접 호출하면 종량제라 헤비하게 쓰면 월 100~200달러대 청구가 나오기 쉽다는 후기가 많다.
개인 체감과 후기를 따로 두고 보면, 한쪽 한도가 비는 시간에 다른 쪽이 받쳐주는 구조가 매력적인 건 분명하다.
자기 검수 편향(외부 측정). 같은 모델이 작성과 검수를 동시에 하면 sycophancy bias가 가장 심하게 나온다고 한다. 블라인드 코드 리뷰는 Claude가 67퍼센트 승률이라는 측정, 터미널 디버깅 정확도는 Codex 우위라는 측정이 있다. 둘을 묶어 읽으면 한쪽만 쓰면 한 종류의 실수가 누적된다는 뜻이 된다.
회복성과 토큰 효율(외부 측정). Codex는 작업이 실패하면 처음부터 다시 가는 편이고, Claude는 대화로 방향을 되돌릴 수 있다는 평이 많다. 반대로 Codex가 같은 작업당 토큰을 4배 적게 쓴다는 측정도 있다. 사실이라면 대량 리팩터링을 Claude로만 굴리는 건 정작 설계와 리뷰에 쓸 한도를 그 전에 태우는 셈.
강점이 정반대
후기들을 모아보면 두 도구 강점이 정확히 반대 방향으로 갈린다.
Claude Code 쪽은 블라인드 코드 품질에서 우위, 1M 토큰 컨텍스트, Skills와 hooks와 MCP 같은 워크플로 확장이 풍부하다고 한다. 실패해도 대화로 되돌릴 수 있는 회복성이 가장 자주 언급된다.
Codex 쪽은 토큰 효율과 터미널 디버깅 정확도, ChatGPT 그대로 가져온 UX가 강점으로 꼽힌다. macOS Seatbelt와 Linux Landlock 기반 OS 레벨 샌드박스가 들어가 있어서 보안 정책이 빡빡한 곳에서 쓰기 좋다는 평이 많다.
한쪽 약점이 정확히 다른 쪽 강점에 붙어 있다. 그래서 다들 둘 다 쓰는 쪽으로 정리되는 듯하다.
어떻게 끼워 쓸지
후기에 정리된 패턴이 여럿이다. plugin, MCP 서버, worktree 병렬, agent teams. 한도를 아끼면서 굴리는 조건에서는 가설이 단순해진다.
Codex CLI 직접, Plan-Implement-Review 분업, hook은 직접 짠다.
세 줄을 풀면.
첫째, Codex는 CLI로 직접 부른다. 자유도가 가장 높고, Codex의 모든 플래그와 모드를 그대로 활용할 수 있다. plugin이나 MCP 래퍼는 노출되는 인터페이스가 좁아진다는 트레이드오프가 있다. 다만 Claude 세션 안에서 “방금 짠 코드 Codex가 다시 봐줘”가 한 줄로 끝나는 편의는 의미 있다. 그 정도가 필요해지면 openai/codex-plugin-cc를 그때 깔면 된다.
둘째, 역할 분리는 Plan-Implement-Review 3단. Plan은 Claude Opus가 강하다는 평이 많다. 1M 컨텍스트와 대화로 되돌릴 수 있는 회복성이 설계 단계에서 빛난다고 한다. Implement는 Codex. 토큰 효율이 4배 좋다는 측정이 사실에 가깝다면 대량 변경에서 한도가 가장 덜 빠지는 자리. Review는 다시 Claude로 가져와서 블라인드 리뷰 승률 67퍼센트 쪽에 맡긴다. 이 3단 구조는 BSWEN 통합 가이드, stellarlinkco/myclaude, catlog22/Claude-Code-Workflow가 비슷하게 채택한다.
셋째, hook은 직접 짠다. Claude Code의 hooks와 skills에서 셸로 codex를 호출하면 그만이다. MCP 서버(codex-mcp-server 류)를 깔아 자동화하는 길도 있지만, MCP 도구 스키마가 컨텍스트에 상주해서 토큰을 약간 더 먹고, 자동 호출이 늘면 양쪽 한도가 같이 빠지기 쉽다. 한도가 좁아진 체감을 도입에 적은 입장에선 자동화 묶음을 깊게 가는 게 부담스럽다. 정말 필요한 자리에만 hook을 손으로 만들어 거는 쪽이 안전해 보인다.
한 가지 더. 후기를 한 바퀴 돌다 보니 Codex와 Claude Code를 같이 쓰는 사람들 대부분이 멀티 에이전트 헤비 유저였다. 운영 중인 system-agents-template와 system-agents-plugins를 그 흐름과 비교해두면 차용할 점이 보일 것 같았다. 그쪽 메모는 후속 글에 따로 적었다.
셋업 비교, 그리고 결제 현실
월 비용을 어디에 태우느냐로 흔히 보이는 셋업이 셋이다.
| 셋업 | 월 비용 | 특징 |
|---|---|---|
| Claude Max 5x + ChatGPT Pro | 약 300달러 | 가장 흔한 답. 양쪽 한도가 서로를 보완 |
| Claude Max 20x 단독 | 200달러 | 품질 우선, 한도 닿으면 API로 폴백 |
| ChatGPT Pro + Claude API 종량제 | 200달러 + 사용량 | Codex 위주로 굴리고 어려운 순간만 Opus |
이미 쓰는 Max 5x 위에 ChatGPT Pro를 얹는 첫 줄이 헤비 사용자에게 가장 자주 추천된다. 회사가 Claude 100달러까지 지원해주는 상황에서 둘 다 쓰려면 한 사람당 도구 예산이 월 300달러 정도까지 올라가야 한다는 얘기가 된다. 개인 카드로 차액 200달러를 메우는 건 솔직히 어렵다. 이런 비용이 한 명짜리 일이 아니라 팀 전체에 깔리는 흐름이라면, 이건 개인 지갑이 아니라 회사가 개발자 도구 예산을 어떻게 잡을지의 문제로 넘어간 것 같다.
결론
후기와 직관을 종합하면 결정은 단순해진다. Codex가 도입되면 Plan과 Review는 Claude Opus, Implement는 Codex로 일단 고정하고 시작한다. 이 분업은 외부 후기에서 가장 일관되게 모이는 자리고, 토큰 효율 측정과 블라인드 리뷰 승률이 그 방향을 가리킨다. 한 달 라벨링 실험으로 비율을 정하기보다, 시작점을 분명히 두고 어긋나는 자리만 그때그때 손보는 쪽이 효율이 좋다.
도구 사용 모드는 Codex CLI 직접 + 필요한 자리에만 codex-plugin-cc. MCP 자동화는 한도가 풀린 다음 고민. hooks와 skills로 채우는 자동화는 system-agents-plugins에 직접 짠다.
참고 자료
비교와 리뷰
- Codex vs Claude Code: which is the better AI coding agent? (Builder.io)
- Codex vs Claude Code: 2026 Comparison for Developers (Leanware)
- Codex vs. Claude Code (DataCamp)
- I switched from Claude Code to Codex for a week (XDA Developers)
- Claude Code vs. OpenAI Codex (Composio)
- Codex vs Claude Code 2026: Benchmarks, Agent Teams, Limits (Morph)
- What 500+ Reddit Developers Really Think (DEV)
- Claude Code vs. Codex for Heavy Users (DEV)
- Most Complete Side-by-Side (Emergent)
- Codex vs Claude Code 2026 (MindStudio)
가격과 한도
- Plans & Pricing (Claude)
- Pricing - Codex (OpenAI Developers)
- Codex rate card (OpenAI Help)
- Use Claude Code with your Pro or Max plan (Anthropic Help)
- Is Claude Code going to cost $100/month? (Simon Willison)
- Claude Code users report rapid rate limit drain (MacRumors)
병행 워크플로와 플러그인
- Introducing Codex Plugin for Claude Code (OpenAI Community)
- openai/codex-plugin-cc (GitHub)
- tuannvm/codex-mcp-server (GitHub)
- kky42/codex-as-mcp (GitHub)
- How to Use Claude Code and Codex Together (BSWEN)
- stellarlinkco/myclaude (GitHub)
- catlog22/Claude-Code-Workflow (GitHub)
- OpenAI Releases Official Claude Code Plugin (SmartScope)
병렬 실행과 worktree
- LLM Codegen go Brrr: Parallelization with Git Worktrees and Tmux (DEV)
- Run Parallel Coding Agents With the oh-my-codex Pattern (Particula)
- Running Multiple Codex Agent Instances (Daniel Vaughan)
- Orchestrate teams of Claude Code sessions (Anthropic Docs)
- agent-of-empires (GitHub)
- workmux (GitHub)
- IttyBitty for Multi-agent Claude Code (Adam Wulf)
기술 분석
