task-master mcp 에서 쓰기 좋은 경량 ollama ai 모델
https://blog.naver.com/devramyun/223922736657
[20250705] 작업 목록을 관리해주는 mcp Task master 요새 다시금 AI를 사용하는 방법들이나 추천 컨텐츠를 많이 찾아보게 되면서, Task manager의 필요성을 … 요새 다시금 AI를 사용하는 방법들이나 추천 컨텐츠를 많이 찾아보게 되면서, Task manager의 필요성을 …
요새 그래픽카드가 달린 노트북이 많이 나오는데요,
그래도 그래픽카드 vram이 굉장히 작습니다.
보통 4GB 정도 vram이 있습니다.
4GB VRAM에서 Ollama 모델을 “task-master”(예: 할 일 요약, 간단한 명령 처리, 작업 분배, 체크리스트 등 실용적인 업무용 비서 역할)로 쓸 때에는 가볍고 응답 빠른 모델이 좋습니다.
- 초경량이면서 “task-master” 스타일 Q&A, 리스트업, 명령 이해에 아주 강함
- 기본적인 작업 요청/분류/정리 잘함
- 속도 빠르고 램 점유 거의 없음
- 더 가볍고, 문장 생성은 좀 단순하지만
- 아주 빠르고, task list/분류 등 단순 업무용으론 충분
- phi:2보다 파워풀
- “업무용 보조”로도 잘 쓰임
- 가벼운 4-bit(Q4)로 추천, 약간 더 무거울 수 있으니 swap 좀 남겨두기
- 간단한 코드/명령어 보조, 스크립트 생성
- 업무 자동화/코딩 task까지 쓴다면
- 역시 Q4로 설치
1
2
3
# 최우선 추천
ollama run phi:latest
이미 task-master init을 했다면, 모델을 바꾸려면 .taskmaster/config.json에 다음처럼
1
2
3
4
"provider": "ollama",
"modelId": "phi:latest",
"maxTokens": 2048,
"temperature": 0.2
이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.