2026.05.07
75
0
0
기타 LLMNEW

Mistral Medium 3.5 출시: 128B 오픈웨이트 모델 + 클라우드 코딩 에이전트

Mistral AI가 128B 오픈웨이트 모델 Medium 3.5(SWE-Bench 77.6%)와 클라우드 비동기 코딩 에이전트 Vibe Remote Agents를 발표했다. 4개 GPU 자체 호스팅과 수정 MIT 라이선스를 지원한다.

#Mistral#MistralMedium3.5#오픈소스LLM#VibeCoding#AIエージェント
Mistral Medium 3.5 출시: 128B 오픈웨이트 모델 + 클라우드 코딩 에이전트
AI 핵심 요약

Mistral AI가 128B 오픈웨이트 모델 Medium 3.5(SWE-Bench 77.6%)와 클라우드 비동기 코딩 에이전트 Vibe Remote Agents를 발표했다. 4개 GPU 자체 호스팅과 수정 MIT 라이선스를 지원한다.

핵심 요약

2026년 4월 29일, 프랑스 AI 스타트업 Mistral AI가 새로운 플래그십 오픈웨이트 모델 Mistral Medium 3.5와 클라우드 기반 비동기 코딩 에이전트 Vibe Remote Agents를 동시에 발표했다. 5월 2일부터 3일 사이 주요 테크 미디어를 통해 공식 상세 발표가 이루어졌다. 단일 모델로 명령 따르기·추론·코딩을 통합 처리하면서 최소 4개 GPU로 자체 호스팅이 가능하다는 점이 핵심 차별점이다.

Mistral Medium 3.5 모델 사양

Mistral Medium 3.5는 Mistral AI의 첫 번째 플래그십 병합 모델(merged model)이다. 주요 사양은 다음과 같다.

  • 파라미터: 128B 밀집형(dense) 아키텍처
  • 컨텍스트 윈도우: 256K 토큰
  • 자체 호스팅 요건: 최소 4개 GPU (A100/H100 기준)
  • 라이선스: 수정된 MIT 라이선스 (월 수익 2,000만 달러 초과 기업은 엔터프라이즈 라이선스 필요)
  • 가용 경로: Hugging Face 오픈웨이트, Mistral API, Le Chat 기본 모델

API 가격

토큰 유형요금
입력 토큰백만 토큰당 $1.50
출력 토큰백만 토큰당 $7.50

벤치마크 성능

Mistral Medium 3.5는 코딩 및 에이전트 작업에서 강력한 성능을 보인다.

  • SWE-Bench Verified: 77.6% (Devstral 2 및 Qwen3.5 397B 초과)
  • τ³-Telecom: 91.4점 (에이전트 실행 능력 지표)
  • 명령 따르기, 장시간 추론, 다중 도구 호출, 구조화된 출력 생성에 최적화

SWE-Bench는 실제 GitHub 이슈를 해결하는 능력을 측정하는 표준 코딩 벤치마크로, 77.6%는 GPT-5.5(약 81%) 및 Claude Opus 4.7(64.3%)과 비교해 상당히 경쟁력 있는 수치다.

Vibe Remote Agents: 클라우드 비동기 코딩

이번 발표의 또 다른 핵심은 Vibe 플랫폼에 추가된 원격 코딩 에이전트 기능이다.

작동 방식

  1. CLI 또는 Le Chat에서 코딩 세션 시작
  2. 세션을 클라우드(격리된 샌드박스)로 텔레포트
  3. 에이전트가 독립적으로, 병렬로 실행
  4. 완료 시 사용자에게 알림

주요 특징

  • 비동기 실행: 에이전트가 백그라운드에서 실행되는 동안 다른 작업 가능
  • 병렬 처리: 여러 에이전트가 동시에 서로 다른 작업을 처리
  • 상태 보존: 로컬에서 클라우드로 세션 이전 시 히스토리와 컨텍스트 유지
  • 통합 지원: GitHub, Linear, Jira, Sentry와 네이티브 통합
  • 격리된 샌드박스: 보안을 위해 각 에이전트 세션이 독립 환경에서 실행

Work Mode와 Le Chat 통합

Medium 3.5는 Le Chat의 새로운 Work Mode(공개 미리보기)와 긴밀하게 통합된다. Work Mode는 복잡한 다단계 작업(연구, 분석, 교차 도구 작업)을 위한 에이전트 기능을 제공하며, 이메일·메시지·캘린더 통합과 받은편지함 분류를 지원한다.

Mistral Medium 3.5는 현재 Le Chat의 기본 모델로 설정되어 있다.

사용성 분석

Mistral Medium 3.5의 가장 큰 강점은 접근성과 성능의 균형이다. 기존 대형 오픈소스 모델들(Llama, Qwen 400B급)이 고사양 서버를 필요로 한 것과 달리, Medium 3.5는 4개 GPU로 자체 호스팅이 가능하다. 이는 온프레미스 AI 도입을 검토하는 중소기업과 개인 개발자에게 현실적인 선택지가 된다.

Vibe Remote Agents의 비동기 특성은 특히 긴 코딩 작업에서 유용하다. 에이전트가 수십 분~수 시간이 걸리는 작업을 클라우드에서 처리하는 동안 사용자는 다른 업무에 집중할 수 있어 생산성이 실질적으로 향상된다.

장단점 분석

장점

  • 128B 파라미터임에도 최소 4개 GPU에서 자체 호스팅 가능한 실용성
  • SWE-Bench 77.6%로 오픈소스 모델 중 최고 수준 코딩 성능
  • 수정 MIT 라이선스로 중소기업까지 무제한 상업적 활용 가능
  • 비동기 클라우드 에이전트로 복잡한 장시간 코딩 작업 자동화
  • GitHub·Linear·Jira·Sentry 등 주요 개발 도구와 네이티브 통합

단점 및 한계

  • 월 수익 2,000만 달러 이상 기업은 엔터프라이즈 라이선스가 별도 필요
  • API 출력 가격($7.50/백만 토큰)이 일부 경쟁 모델 대비 높은 편
  • Vibe Remote Agents는 현재 공개 미리보기 단계로 기능 안정성 검증 필요
  • 128B 밀집형 모델은 MoE 구조 대비 동일 사양에서 추론 비용이 높음

전망

Mistral AI는 이번 발표로 오픈소스 LLM 생태계에서 코딩 에이전트 분야 선도자 위치를 강화하고 있다. 특히 Vibe Remote Agents의 클라우드 비동기 패러다임은 향후 AI 코딩 도구의 표준이 될 가능성이 높다.

엔터프라이즈 시장에서는 자체 호스팅 가능한 오픈웨이트 모델에 대한 수요가 꾸준히 증가하고 있으며, Medium 3.5는 이 수요를 공략할 최적의 포지션을 갖추고 있다. Le Chat의 Work Mode와 통합되어 일반 사용자 시장에서도 존재감을 높일 전망이다.

결론

Mistral Medium 3.5와 Vibe Remote Agents는 오픈소스 AI와 클라우드 에이전트 기능을 결합한 완성도 높은 패키지다. 코딩 성능(SWE-Bench 77.6%)과 실용적인 자체 호스팅 요건(4개 GPU), 수정 MIT 라이선스의 조합은 프라이버시를 중시하는 기업과 개발자 모두에게 매력적이다. AI 코딩 도구 선택을 고려 중인 개발팀이라면 반드시 검토해볼 만한 옵션이다.

장점

  • SWE-Bench 77.6%로 오픈소스 동급 모델 중 최상위 코딩 성능 달성
  • 최소 4개 GPU 자체 호스팅으로 중소기업도 프라이빗 배포 가능
  • 수정 MIT 라이선스로 대부분의 기업과 개발자가 무제한 상업 활용 가능
  • 비동기 클라우드 에이전트로 복잡한 장시간 작업의 자동화 및 병렬 처리 지원
  • 주요 개발 도구(GitHub·Jira·Linear·Sentry)와 네이티브 통합 제공

단점/한계

  • 월 수익 2,000만 달러 이상 대기업은 별도 엔터프라이즈 라이선스 구매 필요
  • API 출력 비용($7.50/백만 토큰)이 DeepSeek V4-Flash 등 경쟁 모델 대비 높은 편
  • Vibe Remote Agents가 현재 공개 미리보기 단계로 엔터프라이즈 안정성 검증 필요
  • 128B 밀집형 구조 특성상 1T+ MoE 모델 대비 단위 추론 비용이 높음

댓글0

주요 기능/특징

1. 128B 밀집형 오픈웨이트 모델, 256K 컨텍스트, 최소 4개 GPU 자체 호스팅 2. SWE-Bench Verified 77.6%, τ³-Telecom 91.4점 3. 수정 MIT 라이선스 (월 2,000만 달러 미만 기업 무료 상업 이용) 4. Vibe Remote Agents: CLI·Le Chat에서 클라우드 비동기 코딩 세션 실행 5. GitHub·Linear·Jira·Sentry 네이티브 통합 6. Le Chat Work Mode 통합 및 기본 모델로 설정 7. API 가격: 입력 $1.50/백만 토큰, 출력 $7.50/백만 토큰

핵심 인사이트

  • Mistral Medium 3.5는 SWE-Bench 77.6%로 같은 용량 범주에서 Devstral 2와 Qwen3.5 397B를 제치고 오픈소스 코딩 모델 최고 점수를 기록했다.
  • 4개 GPU 자체 호스팅 가능이라는 조건은 대형 GPU 클러스터 없이도 프라이빗 LLM 운영을 원하는 중소기업에게 진입 장벽을 크게 낮춘다.
  • 비동기 클라우드 코딩 에이전트(Vibe Remote Agents)는 AI 코딩 도구가 '실시간 어시스턴트'에서 '자율 코딩 워커'로 진화하는 흐름을 보여준다.
  • 수정 MIT 라이선스 채택은 DeepSeek, Llama 시리즈 등이 선호하는 무제한 개방 정책과 비슷하게, 개발자 생태계 확장을 우선시하는 전략이다.
  • 128B 밀집형 구조는 MoE 대비 추론 비용이 높지만, 단일 가중치로 명령 따르기·추론·코딩을 모두 처리해 배포 복잡성을 줄이는 장점이 있다.
  • GitHub, Linear, Jira, Sentry와의 네이티브 통합은 기존 개발 워크플로우에 최소한의 전환 비용으로 AI 에이전트를 도입할 수 있게 한다.
  • Mistral이 Le Chat에 Work Mode를 도입한 것은 B2C 시장에서 OpenAI ChatGPT, Anthropic Claude, Google Gemini와 직접 경쟁하겠다는 의지를 보여준다.

이 리뷰가 유용했나요?

공유하기