2026.02.16
3.4천
0
0
기타 LLM

GLM-5 출시: 화웨이 칩만으로 훈련한 745B 오픈소스 LLM의 실력

중국 Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련되었으며, SWE-bench 77.8%, API 가격 백만 토큰당 $0.11로 성능과 가격 모두에서 주목받고 있습니다.

#GLM-5#ZhipuAI#오픈소스LLM#화웨이#MoE
GLM-5 출시: 화웨이 칩만으로 훈련한 745B 오픈소스 LLM의 실력
AI 핵심 요약

중국 Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련되었으며, SWE-bench 77.8%, API 가격 백만 토큰당 $0.11로 성능과 가격 모두에서 주목받고 있습니다.

NVIDIA 없이 만든 최강 오픈소스 LLM

2026년 2월 11일, 중국 AI 기업 **Zhipu AI(지푸 AI)**가 차세대 대규모 언어모델 GLM-5를 공식 출시했습니다. 가장 주목할 점은 이 모델이 NVIDIA GPU를 전혀 사용하지 않고, 화웨이 Ascend 칩과 MindSpore 프레임워크만으로 훈련되었다는 것입니다.

미국의 대중국 반도체 수출 규제가 강화되는 상황에서, GLM-5는 중국 AI 업계가 자체 하드웨어 생태계로도 세계 최고 수준의 모델을 만들 수 있음을 입증한 사례로 평가받고 있습니다.

기술 사양: MoE 아키텍처의 효율성

GLM-5는 Mixture of Experts(MoE) 아키텍처를 채택하고 있습니다.

항목사양
총 파라미터745B (7,450억)
활성 파라미터44B (추론 시)
전문가 수256개 (8개 활성)
컨텍스트 윈도우200,000 토큰
최대 출력131,000 토큰
훈련 하드웨어화웨이 Ascend 칩
프레임워크MindSpore
라이선스MIT (상업적 사용 가능)

총 745B 파라미터 중 추론 시에는 44B만 활성화되므로, 실질적인 추론 비용은 전체 모델 크기 대비 크게 절감됩니다. DeepSeek의 Dynamically Sparse Attention 메커니즘을 도입하여 200,000 토큰의 긴 컨텍스트도 효율적으로 처리합니다.

벤치마크 성과

GLM-5는 여러 주요 벤치마크에서 인상적인 결과를 보여주고 있습니다.

벤치마크GLM-5 점수비고
SWE-bench Verified77.8%에이전틱 코딩 능력
Humanity's Last Exam (도구 포함)50.4점범용 추론
Terminal-Bench 2.056.2~60.7%터미널 작업 능력
Vending Bench 21위에이전트 시스템

VentureBeat에 따르면, GLM-5는 코딩 벤치마크에서 Anthropic의 Claude Opus 4.5에 근접하는 성능을 보이며, Google의 Gemini 3 Pro를 일부 테스트에서 앞서는 결과를 기록했습니다.

특히 Vending Bench 2에서 1위를 달성한 것은 GLM-5의 에이전트 시스템 능력이 뛰어나다는 것을 보여줍니다.

파격적인 가격 정책

GLM-5의 API 가격은 경쟁사 대비 획기적으로 낮습니다.

모델입력 가격 (백만 토큰당)
GLM-5~$0.11
GPT-5$1.25
Claude Opus 4.6$15.00

GLM-5의 가격은 GPT-5 대비 약 90% 저렴하며, 이는 중국 AI 기업들이 가격 경쟁력을 핵심 무기로 활용하는 전략의 연장선상에 있습니다. DeepSeek이 시작한 "가격 파괴" 흐름을 GLM-5가 더욱 강화한 셈입니다.

환각률 최소화: "Slime" 강화학습 기법

GLM-5의 또 다른 차별점은 **역대 최저 수준의 환각률(hallucination rate)**입니다. Zhipu AI는 "Slime"이라 명명한 새로운 강화학습 기법을 적용하여, 모델이 사실에 기반한 응답을 생성하도록 훈련했습니다.

이는 LLM의 가장 큰 약점 중 하나인 환각 문제를 정면으로 공략한 것으로, 기업 환경에서의 신뢰성 확보에 중요한 진전입니다.

Zhipu AI의 성장 배경

GLM-5의 개발은 Zhipu AI의 빠른 성장에 힘입은 바가 큽니다.

2026년 1월 8일, Zhipu AI는 홍콩 증시에 상장하여 약 **43.5억 홍콩달러(5억 5,800만 달러)**를 조달했습니다. 이 자금이 GLM-5의 대규모 훈련에 투입된 것으로 분석됩니다.

Zhipu AI는 칭화대학교 컴퓨터과학과에서 스핀오프된 기업으로, 학술적 기반과 상업적 역량을 동시에 갖추고 있습니다.

오픈소스 전략과 글로벌 영향

GLM-5가 MIT 라이선스로 공개된 것은 전략적으로 중요한 선택입니다. 가장 허용적인 오픈소스 라이선스 중 하나인 MIT 라이선스는 상업적 사용, 수정, 배포에 거의 제한이 없습니다.

모델 가중치는 이미 Hugging Face와 ModelScope에 공개되어 있으며, OpenRouter를 통해 API 접근도 가능합니다.

이는 Meta의 Llama, DeepSeek, Qwen과 함께 중국 발 오픈소스 LLM 생태계가 더욱 풍부해지고 있음을 보여줍니다.

결론: 하드웨어 독립의 상징

GLM-5는 단순한 오픈소스 LLM 출시를 넘어, 미국 반도체 규제 하에서도 중국 AI 기업이 세계 수준의 모델을 개발할 수 있다는 메시지를 담고 있습니다. 화웨이 칩만으로 훈련된 이 모델이 글로벌 벤치마크에서 경쟁력을 입증한 것은, AI 반도체 공급망의 지정학적 역학에도 영향을 미칠 수 있는 사건입니다.

개발자와 기업에게는 MIT 라이선스, 파격적 가격, 우수한 에이전트 능력을 갖춘 새로운 선택지가 생겼습니다.

장점

  • MIT 라이선스로 가장 자유로운 상업적 활용 가능
  • GPT-5 대비 90% 저렴한 파격적 가격 경쟁력
  • 에이전트 시스템 벤치마크에서 최상위권 성능
  • 200,000 토큰 컨텍스트 윈도우로 긴 문서 처리 가능
  • 환각률 최소화로 기업 환경 신뢰성 확보

단점/한계

  • 화웨이 칩 기반 훈련의 확장성과 안정성에 대한 검증 필요
  • 영어 중심 벤치마크에서의 성능이 한국어 등 다국어에서 동일하게 적용될지 미지수
  • 독립적 제3자 벤치마크 검증이 아직 충분하지 않음
  • 중국 기업 모델 사용에 대한 데이터 프라이버시 우려

댓글0

주요 기능/특징

Zhipu AI가 745B 파라미터의 GLM-5를 MIT 라이선스로 공개했습니다. NVIDIA 없이 화웨이 Ascend 칩만으로 훈련된 이 MoE 모델은 추론 시 44B 파라미터만 활성화되며, SWE-bench 77.8%, Vending Bench 2 1위를 달성했습니다. API 가격은 백만 토큰당 $0.11로 GPT-5 대비 90% 저렴하며, 'Slime' 강화학습 기법으로 환각률을 최소화했습니다.

핵심 인사이트

  • GLM-5는 NVIDIA GPU 없이 화웨이 Ascend 칩과 MindSpore로만 훈련
  • MoE 아키텍처: 총 745B 파라미터 중 추론 시 44B만 활성화하여 효율성 극대화
  • SWE-bench 77.8%, Vending Bench 2 1위 등 주요 벤치마크에서 경쟁력 입증
  • API 가격 백만 토큰당 $0.11로 GPT-5 대비 약 90% 저렴
  • MIT 라이선스로 상업적 사용 자유롭게 허용
  • 'Slime' 강화학습 기법으로 역대 최저 수준의 환각률 달성
  • Zhipu AI는 홍콩 IPO로 5.58억 달러 조달 후 모델 개발에 투입
  • 미국 반도체 수출 규제 하에서 중국 AI의 자립 가능성을 입증

이 리뷰가 유용했나요?

공유하기