GLM-5 출시: 화웨이 칩만으로 훈련한 745B 오픈소스 LLM의 실력
중국 Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련되었으며, SWE-bench 77.8%, API 가격 백만 토큰당 $0.11로 성능과 가격 모두에서 주목받고 있습니다.
중국 Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련되었으며, SWE-bench 77.8%, API 가격 백만 토큰당 $0.11로 성능과 가격 모두에서 주목받고 있습니다.
NVIDIA 없이 만든 최강 오픈소스 LLM
2026년 2월 11일, 중국 AI 기업 **Zhipu AI(지푸 AI)**가 차세대 대규모 언어모델 GLM-5를 공식 출시했습니다. 가장 주목할 점은 이 모델이 NVIDIA GPU를 전혀 사용하지 않고, 화웨이 Ascend 칩과 MindSpore 프레임워크만으로 훈련되었다는 것입니다.
미국의 대중국 반도체 수출 규제가 강화되는 상황에서, GLM-5는 중국 AI 업계가 자체 하드웨어 생태계로도 세계 최고 수준의 모델을 만들 수 있음을 입증한 사례로 평가받고 있습니다.
기술 사양: MoE 아키텍처의 효율성
GLM-5는 Mixture of Experts(MoE) 아키텍처를 채택하고 있습니다.
| 항목 | 사양 |
|---|---|
| 총 파라미터 | 745B (7,450억) |
| 활성 파라미터 | 44B (추론 시) |
| 전문가 수 | 256개 (8개 활성) |
| 컨텍스트 윈도우 | 200,000 토큰 |
| 최대 출력 | 131,000 토큰 |
| 훈련 하드웨어 | 화웨이 Ascend 칩 |
| 프레임워크 | MindSpore |
| 라이선스 | MIT (상업적 사용 가능) |
총 745B 파라미터 중 추론 시에는 44B만 활성화되므로, 실질적인 추론 비용은 전체 모델 크기 대비 크게 절감됩니다. DeepSeek의 Dynamically Sparse Attention 메커니즘을 도입하여 200,000 토큰의 긴 컨텍스트도 효율적으로 처리합니다.
벤치마크 성과
GLM-5는 여러 주요 벤치마크에서 인상적인 결과를 보여주고 있습니다.
| 벤치마크 | GLM-5 점수 | 비고 |
|---|---|---|
| SWE-bench Verified | 77.8% | 에이전틱 코딩 능력 |
| Humanity's Last Exam (도구 포함) | 50.4점 | 범용 추론 |
| Terminal-Bench 2.0 | 56.2~60.7% | 터미널 작업 능력 |
| Vending Bench 2 | 1위 | 에이전트 시스템 |
VentureBeat에 따르면, GLM-5는 코딩 벤치마크에서 Anthropic의 Claude Opus 4.5에 근접하는 성능을 보이며, Google의 Gemini 3 Pro를 일부 테스트에서 앞서는 결과를 기록했습니다.
특히 Vending Bench 2에서 1위를 달성한 것은 GLM-5의 에이전트 시스템 능력이 뛰어나다는 것을 보여줍니다.
파격적인 가격 정책
GLM-5의 API 가격은 경쟁사 대비 획기적으로 낮습니다.
| 모델 | 입력 가격 (백만 토큰당) |
|---|---|
| GLM-5 | ~$0.11 |
| GPT-5 | $1.25 |
| Claude Opus 4.6 | $15.00 |
GLM-5의 가격은 GPT-5 대비 약 90% 저렴하며, 이는 중국 AI 기업들이 가격 경쟁력을 핵심 무기로 활용하는 전략의 연장선상에 있습니다. DeepSeek이 시작한 "가격 파괴" 흐름을 GLM-5가 더욱 강화한 셈입니다.
환각률 최소화: "Slime" 강화학습 기법
GLM-5의 또 다른 차별점은 **역대 최저 수준의 환각률(hallucination rate)**입니다. Zhipu AI는 "Slime"이라 명명한 새로운 강화학습 기법을 적용하여, 모델이 사실에 기반한 응답을 생성하도록 훈련했습니다.
이는 LLM의 가장 큰 약점 중 하나인 환각 문제를 정면으로 공략한 것으로, 기업 환경에서의 신뢰성 확보에 중요한 진전입니다.
Zhipu AI의 성장 배경
GLM-5의 개발은 Zhipu AI의 빠른 성장에 힘입은 바가 큽니다.
2026년 1월 8일, Zhipu AI는 홍콩 증시에 상장하여 약 **43.5억 홍콩달러(5억 5,800만 달러)**를 조달했습니다. 이 자금이 GLM-5의 대규모 훈련에 투입된 것으로 분석됩니다.
Zhipu AI는 칭화대학교 컴퓨터과학과에서 스핀오프된 기업으로, 학술적 기반과 상업적 역량을 동시에 갖추고 있습니다.
오픈소스 전략과 글로벌 영향
GLM-5가 MIT 라이선스로 공개된 것은 전략적으로 중요한 선택입니다. 가장 허용적인 오픈소스 라이선스 중 하나인 MIT 라이선스는 상업적 사용, 수정, 배포에 거의 제한이 없습니다.
모델 가중치는 이미 Hugging Face와 ModelScope에 공개되어 있으며, OpenRouter를 통해 API 접근도 가능합니다.
이는 Meta의 Llama, DeepSeek, Qwen과 함께 중국 발 오픈소스 LLM 생태계가 더욱 풍부해지고 있음을 보여줍니다.
결론: 하드웨어 독립의 상징
GLM-5는 단순한 오픈소스 LLM 출시를 넘어, 미국 반도체 규제 하에서도 중국 AI 기업이 세계 수준의 모델을 개발할 수 있다는 메시지를 담고 있습니다. 화웨이 칩만으로 훈련된 이 모델이 글로벌 벤치마크에서 경쟁력을 입증한 것은, AI 반도체 공급망의 지정학적 역학에도 영향을 미칠 수 있는 사건입니다.
개발자와 기업에게는 MIT 라이선스, 파격적 가격, 우수한 에이전트 능력을 갖춘 새로운 선택지가 생겼습니다.
장점
- MIT 라이선스로 가장 자유로운 상업적 활용 가능
- GPT-5 대비 90% 저렴한 파격적 가격 경쟁력
- 에이전트 시스템 벤치마크에서 최상위권 성능
- 200,000 토큰 컨텍스트 윈도우로 긴 문서 처리 가능
- 환각률 최소화로 기업 환경 신뢰성 확보
단점/한계
- 화웨이 칩 기반 훈련의 확장성과 안정성에 대한 검증 필요
- 영어 중심 벤치마크에서의 성능이 한국어 등 다국어에서 동일하게 적용될지 미지수
- 독립적 제3자 벤치마크 검증이 아직 충분하지 않음
- 중국 기업 모델 사용에 대한 데이터 프라이버시 우려
참고 자료
댓글0개
주요 기능/특징
Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련된 이 MoE 모델은 추론 시 44B 파라미터만 활성화되며, SWE-bench 77.8%, Vending Bench 2 1위를 달성했습니다. API 가격은 백만 토큰당 $0.11로 GPT-5 대비 90% 저렴하며, 'Slime' 강화학습 기법으로 환각률을 최소화했습니다.
핵심 인사이트
- GLM-5는 NVIDIA GPU 없이 화웨이 Ascend 칩과 MindSpore로만 훈련
- MoE 아키텍처: 총 745B 파라미터 중 추론 시 44B만 활성화하여 효율성 극대화
- SWE-bench 77.8%, Vending Bench 2 1위 등 주요 벤치마크에서 경쟁력 입증
- API 가격 백만 토큰당 $0.11로 GPT-5 대비 약 90% 저렴
- MIT 라이선스로 상업적 사용 자유롭게 허용
- 'Slime' 강화학습 기법으로 역대 최저 수준의 환각률 달성
- Zhipu AI는 홍콩 IPO로 5.58억 달러 조달 후 모델 개발에 투입
- 미국 반도체 수출 규제 하에서 중국 AI의 자립 가능성을 입증
이 리뷰가 유용했나요?
공유하기
관련 AI 리뷰
Alibaba Qwen3.6-Plus 출시: 에이전틱 코딩에서 Claude를 위협하다
Alibaba가 에이전틱 AI 코딩에 특화된 Qwen3.6-Plus를 출시했다. Terminal-Bench 2.0에서 Claude Opus 4.5를 넘어서고, 100만 토큰 컨텍스트와 멀티모달 인식을 기본 탑재했다.
Mistral AI, $8.3억 부채 금융 조달: 13,800대 Nvidia GPU로 유럽 AI 자립 가속
프랑스 AI 스타트업 Mistral이 7개 은행에서 $8.3억 부채 금융을 확보했다. 파리 근교에 Nvidia GB300 13,800대 규모 데이터센터를 구축하며, 유럽 AI 인프라 자립에 나선다.
Mistral Voxtral TTS 출시: ElevenLabs에 도전하는 오픈소스 음성 합성 모델
Mistral AI가 4B 파라미터 오픈소스 TTS 모델 Voxtral을 출시했다. 9개 언어를 지원하며, 3초 음성 샘플로 화자 복제가 가능하고, ElevenLabs 대비 우수한 자연스러움을 보인다.
MiniMax M2.7 출시: 스스로 진화하는 AI 모델의 등장
MiniMax가 자기진화(self-evolving) 능력을 갖춘 M2.7 모델을 출시했다. SWE-Pro 56.22%, GDPval-AA 1495 ELO를 달성하며, 100회 이상 자율 최적화로 30% 성능 향상을 기록했다.
