Cohere Tiny Aya: 70개 이상 언어를 지원하는 초경량 오픈소스 AI 모델
Cohere가 33.5억 파라미터로 70개 이상 언어를 지원하는 오픈소스 모델 Tiny Aya를 출시했습니다. 노트북에서 오프라인으로 실행 가능하며, 아프리카/남아시아/아시아태평양 특화 지역별 변형 모델도 함께 공개되었습니다.
Cohere가 33.5억 파라미터로 70개 이상 언어를 지원하는 오픈소스 모델 Tiny Aya를 출시했습니다. 노트북에서 오프라인으로 실행 가능하며, 아프리카/남아시아/아시아태평양 특화 지역별 변형 모델도 함께 공개되었습니다.
70개 언어를 품은 초경량 AI 모델의 등장
Cohere가 2026년 2월 17일 Tiny Aya를 공식 출시했습니다. 33.5억(3.35B) 파라미터의 초경량 모델이면서 70개 이상의 언어를 지원하는 오픈소스 다국어 AI 모델입니다. 인터넷 연결 없이도 노트북에서 직접 실행할 수 있어, 디지털 격차 해소에 기여할 수 있는 모델로 주목받고 있습니다.
Cohere는 기존 Aya 프로젝트를 통해 다국어 AI 분야를 선도해 왔으며, Tiny Aya는 그 철학을 극단적으로 경량화한 결과물입니다. 64대의 H100 GPU라는 비교적 적은 컴퓨팅 자원으로 훈련되었다는 점도 주목할 만합니다.
지역별 특화 변형 모델
Tiny Aya의 가장 독특한 점은 지역별 최적화된 변형 모델을 제공한다는 것입니다.
| 모델명 | 특화 지역 | 주요 언어 |
|---|---|---|
| TinyAya-Global | 전 세계 | 70개 이상 전체 |
| TinyAya-Earth | 아프리카 | 아프리카 토착 언어 |
| TinyAya-Fire | 남아시아 | 힌디어, 벵골어, 타밀어, 텔루구어, 펀자브어, 우르두어, 구자라트어, 마라티어 |
| TinyAya-Water | 아시아태평양/유럽 | 한국어, 일본어, 중국어 등 |
각 변형 모델은 해당 지역의 언어 데이터에 특화되어 훈련되었으며, 범용 모델 대비 해당 지역 언어에서 더 높은 성능을 발휘합니다.
로컬 실행과 오프라인 활용
Tiny Aya의 핵심 가치는 접근성입니다. 33.5억 파라미터라는 작은 크기 덕분에 고사양 GPU 없이도 일반 노트북에서 실행할 수 있습니다. HuggingFace, Kaggle, Ollama에서 다운로드 가능하며, 인터넷 연결 없이 오프라인으로 번역, 텍스트 생성 등의 작업을 수행할 수 있습니다.
이는 인터넷 인프라가 부족한 개발도상국에서 특히 의미가 큽니다. 의료, 교육, 행정 분야에서 현지 언어로 AI 서비스를 제공할 수 있는 기반이 되기 때문입니다.
Cohere의 다국어 AI 전략
Cohere는 2025년 연간 반복 매출(ARR) $2.4억을 기록하며 분기 대비 50% 성장을 이어가고 있습니다. CEO Aidan Gomez는 곧 IPO를 계획하고 있다고 밝혔습니다. Tiny Aya는 Cohere의 엔터프라이즈 제품과 함께, 개발자와 연구자를 위한 오픈소스 생태계를 동시에 성장시키는 전략의 일환입니다.
기존 Aya 모델이 대규모 서버 환경을 요구했던 것과 달리, Tiny Aya는 엣지 디바이스와 로컬 환경에 최적화되어 활용 범위를 크게 확장했습니다.
결론: 다국어 AI 민주화의 새로운 장
Tiny Aya는 AI 모델의 다국어 지원과 접근성이라는 두 가지 과제를 동시에 해결합니다. 70개 이상의 언어를 지원하면서도 노트북에서 실행 가능한 크기로, 전 세계 개발자와 비영리 단체가 현지 언어 AI 서비스를 구축할 수 있는 토대를 마련했습니다. 다국어 AI에 관심 있는 개발자라면 Ollama에서 바로 사용해볼 것을 권합니다.
장점
- 70개 이상 언어 지원으로 글로벌 커버리지 확보
- 노트북에서 오프라인 실행 가능한 초경량 크기(3.35B)
- 지역별 특화 모델로 현지 언어 성능 최적화
- 오픈웨이트로 자유로운 수정 및 상업적 활용 가능
- Ollama 지원으로 간편한 로컬 배포
단점/한계
- 3.35B 파라미터 한계로 복잡한 추론 능력에 제약
- 대형 모델(GPT, Claude 등) 대비 생성 품질 격차 존재
- 한국어 등 특정 언어의 세부 성능 벤치마크 미공개
참고 자료
댓글0개
주요 기능/특징
Cohere가 33.5억 파라미터의 초경량 오픈소스 다국어 AI 모델 Tiny Aya를 출시했습니다. 70개 이상 언어를 지원하며, 아프리카(Earth)/남아시아(Fire)/아시아태평양(Water) 특화 지역별 변형 모델을 제공합니다. 노트북에서 오프라인 실행이 가능하여 디지털 격차 해소에 기여합니다.
핵심 인사이트
- 33.5억 파라미터로 70개 이상 언어를 지원하는 초경량 다국어 AI 모델
- 지역별 특화 변형 모델(Global/Earth/Fire/Water)로 현지 언어 성능 극대화
- 64대 H100 GPU로 훈련되어 효율적인 컴퓨팅 자원 활용 입증
- Ollama, HuggingFace, Kaggle에서 오프라인 로컬 실행 가능
- 인터넷 인프라 부족 지역에서 현지 언어 AI 서비스 기반 제공
- Cohere ARR $2.4억, 분기 50% 성장과 IPO 계획 발표
- 엣지 디바이스 최적화로 기존 Aya 대비 활용 범위 대폭 확장
- 오픈웨이트 라이선스로 누구나 수정/활용 가능
이 리뷰가 유용했나요?
공유하기
관련 AI 리뷰
Google Gemma 4 출시: Apache 2.0 라이선스로 전환한 최강 오픈 모델
Google DeepMind가 Gemini 3 기반의 오픈 모델 Gemma 4를 Apache 2.0 라이선스로 출시했다. 31B 모델이 오픈 모델 Arena AI 3위에 올랐고, 2B 모델은 라즈베리파이에서도 구동된다.
Karpathy의 autoresearch: GPU 1개로 밤새 100개 AI 실험을 자동 실행
전 Tesla AI 디렉터 Andrej Karpathy가 오픈소스 프로젝트 autoresearch를 공개했다. 630줄 Python 코드로 AI 에이전트가 단일 GPU에서 밤새 자율적으로 ML 실험을 반복하며, 공개 며칠 만에 GitHub 8,000 스타를 달성했다.
AI2 Olmo Hybrid 7B: 트랜스포머와 RNN을 결합한 완전 오픈소스 LLM
Allen Institute for AI(AI2)가 Olmo Hybrid 7B를 Apache 2.0 라이선스로 공개했다. 트랜스포머 어텐션과 gated DeltaNet을 결합한 하이브리드 아키텍처로, Olmo 3 대비 2배의 데이터 효율성과 75% 향상된 장문맥 추론 효율성을 달성했다.
Guide Labs Steerling-8B 오픈소스 공개: AI 블랙박스 문제를 해결하는 해석 가능한 LLM
Y Combinator 출신 스타트업 Guide Labs가 2026년 2월 23일 Steerling-8B을 오픈소스로 공개했다. 모든 출력 토큰을 학습 데이터 원본까지 추적할 수 있는 최초의 상용급 해석 가능한 LLM으로, 기존 모델 성능의 90%를 유지한다.
