Moonshot AI Kimi K2.5: 1조 파라미터 오픈소스 비전 에이전트 AI
중국 Moonshot AI가 1조 파라미터 규모의 오픈소스 모델 Kimi K2.5를 공개했다. 비전-코드 변환과 100개 에이전트 병렬 실행이 특징이다.
중국 Moonshot AI가 1조 파라미터 규모의 오픈소스 모델 Kimi K2.5를 공개했다. 비전-코드 변환과 100개 에이전트 병렬 실행이 특징이다.
Kimi K2.5, 오픈소스 AI의 새로운 기준
Moonshot AI가 2026년 1월 27일 Kimi K2.5를 공개했다. 1조(1T) 파라미터 규모의 대형 모델로, 완전한 오픈소스로 HuggingFace와 GitHub에서 가중치를 다운로드할 수 있다. Moonshot AI는 이 모델이 Claude Opus 4.5를 에이전틱 벤치마크에서 능가한다고 주장한다.
아키텍처와 사양
Kimi K2.5는 초희소(Ultra-Sparse) MoE(Mixture of Experts) 아키텍처를 채택했다.
| 사양 | 수치 |
|---|---|
| 총 파라미터 | 1조 (1T) |
| 추론 시 활성 파라미터 | 320억 (32B) |
| 전문가(Expert) 수 | 384개 |
| 학습 토큰 | 15조 (텍스트 + 비전 혼합) |
| 컨텍스트 길이 | 256K 토큰 |
| 양자화 | 네이티브 int4 |
384개의 전문가 구성은 DeepSeek-V3의 256개보다 50% 많다. 추론 시 동적으로 32B 파라미터만 활성화되어 효율성을 높인다.
벤치마크 성능
Kimi K2.5는 SWE-bench Verified에서 76.8%를 달성했다. 이는 실제 GitHub 이슈를 자율적으로 해결할 수 있는 능력을 의미하며, 대부분의 독점 모델보다 높은 수치다.
평가에는 자체 개발한 프레임워크가 사용되었으며, bash tool, createfile tool, insert tool, view tool, strreplace tool, submit tool의 최소한의 도구 세트를 활용했다.
운영 모드
Kimi K2.5는 4가지 운영 모드를 제공한다.
| 모드 | 용도 |
|---|---|
| Instant | 간단한 질의에 빠른 응답 |
| Thinking | 복잡한 추론과 단계별 분석 |
| Agent | 연구, 문서, 슬라이드, 스프레드시트, 웹사이트, 리포트 생성 |
| Agent Swarm | 최대 100개 서브 에이전트 병렬 워크플로우 |
특히 Agent Swarm 모드는 PARL(Parallel Agent Reinforcement Learning)로 학습되어 최대 1,500개의 도구 호출/단계를 지원한다.
비전-코드 변환 능력
Kimi K2.5의 핵심 기능은 네이티브 멀티모달 능력이다. 텍스트, 이미지, 비디오를 입력받아 작동하는 프론트엔드 코드로 변환한다.
- 스크린샷 → 코드: UI 스크린샷을 HTML/CSS/JS로 변환
- 다이어그램 → 코드: 와이어프레임을 실제 웹페이지로 구현
- 비디오 → 코드: 비디오 콘텐츠를 분석하여 코드 생성 (API 전용 실험 기능)
하드웨어 요구사항
1조 파라미터 모델인 만큼 로컬 실행에는 상당한 자원이 필요하다.
| 구성 | VRAM 요구량 |
|---|---|
| Q4 양자화 (적정 컨텍스트) | 192GB - 256GB |
| 전체 정밀도 | 2TB+ |
대부분의 사용자는 Moonshot API나 NVIDIA NIM을 통해 접근하는 것이 현실적이다.
가격 및 접근성
Kimi K2.5는 무료 접근에 사용량 제한이 있으며, 확장된 사용과 고급 기능을 위한 유료 구독 티어가 있다. Kimi Code는 VSCode, Cursor, Zed와 통합되어 무료로 제공된다.
Claude Code와의 경쟁
Moonshot AI는 Kimi K2.5를 Anthropic의 Claude Code의 직접 경쟁자로 포지셔닝하고 있다. 오픈소스라는 점에서 개발자 커뮤니티의 관심을 끌고 있다.
결론
Kimi K2.5는 중국 AI 기업이 오픈소스 LLM 분야에서 보여주는 기술력의 정점이다. 1조 파라미터와 100개 에이전트 병렬 실행, 비전-코드 변환 능력은 인상적이다. 다만 실제 로컬 실행의 어려움과 중국 기업이라는 점에서 오는 데이터 주권 우려는 고려해야 할 사항이다.
장점
- 완전한 오픈소스로 가중치 다운로드 및 로컬 실행 가능
- 비전-코드 변환으로 UI 디자인에서 코드까지 자동화
- 100개 에이전트 병렬 실행으로 복잡한 작업 처리
- Kimi Code IDE 통합 무료 제공
단점/한계
- 로컬 실행에 192-256GB VRAM 필요로 진입 장벽 높음
- 중국 기업 모델로 데이터 주권 우려 가능
- 비디오-코드 변환은 아직 실험 기능
참고 자료
댓글0개
주요 기능/특징
Kimi K2.5는 1조 파라미터 규모의 오픈소스 MoE 모델로 추론 시 32B만 활성화된다. Agent Swarm 모드로 최대 100개 에이전트를 병렬 실행한다. 비전-코드 변환으로 스크린샷, 다이어그램, 비디오를 코드로 변환한다. SWE-bench Verified에서 76.8% 달성.
핵심 인사이트
- 384개 전문가 구성으로 DeepSeek-V3보다 50% 더 많은 MoE 아키텍처
- SWE-bench Verified 76.8%로 대부분의 독점 모델 능가
- Agent Swarm으로 최대 100개 서브 에이전트 병렬 워크플로우 지원
- 15조 토큰의 비전+텍스트 혼합 데이터로 학습
- 오픈소스로 HuggingFace, GitHub에서 가중치 공개
- Claude Code의 직접 경쟁자로 포지셔닝
이 리뷰가 유용했나요?
공유하기
관련 AI 리뷰
xAI-SpaceX 합병: 일론 머스크의 1.5조 달러 AI 제국 탄생
Elon Musk가 SpaceX와 xAI의 합병을 발표했습니다. 합병 기업의 가치는 1.5조 달러로 평가되며, 200억 달러 규모의 Series E 펀딩도 완료했습니다. Grok 4, Grok Voice, Tesla 차량 통합 등 xAI의 제품군이 SpaceX-Starlink 인프라와 결합하여 글로벌 AI 네트워크를 구축합니다.
Meta 'Avocado' AI: Llama 후속 모델, 오픈소스 포기하고 폐쇄형으로 전환
Meta가 Llama의 후속 모델 'Avocado'를 개발하며 오픈소스 전략을 포기합니다. TBD Lab을 이끄는 전 Scale AI CEO Alexandr Wang 주도로, Google Gemma, OpenAI gpt-oss, Alibaba Qwen 등 경쟁사 모델을 증류하여 학습 중입니다. 2026년 1분기 출시 예정이었으나 학습 안정성 문제로 지연되고 있습니다.
DeepSeek-V3.2: 오픈소스 LLM의 새로운 정점, MIT 라이선스로 완전 무료
중국 스타트업 DeepSeek이 685B 파라미터의 DeepSeek-V3.2를 MIT 라이선스로 공개했다. MMLU 94.2%로 GPT-4와 대등한 성능을 보이며, 완전히 무료로 사용 가능한 최고 성능 오픈소스 LLM이다.
