Open Source
GitHub, HuggingFace의 최신 AI 오픈소스 프로젝트를 탐색하세요.

Unsloth는 대규모 언어 모델(LLM)의 파인튜닝 및 강화학습을 2배 빠르게 하면서 70% 적은 VRAM을 사용하는 오픈소스 프레임워크입니다. Triton 커널과 수작업 최적화를 통해 정확도 손실 없이 GPU 성능을 극대화합니다. 2026년에는 MoE 모델을 12배 빠르게 학습할 수 있는 기능, 7배 더 긴 문맥의 강화학습(GRPO) 지원, 임베딩 모델 파인튜닝(1.8~3.3배 빠름) 등 혁신적인 기능들을 추가했습니다. GPT, DeepSeek, Qwen, Llama, Gemma, TTS 등 다양한 모델 아키텍처를 지원하며, NVIDIA, AMD, Intel GPU 모두 호환됩니다.
huggingface
SOTA 기계학습 모델을 위한 오픈소스 모델 정의 프레임워크
rasbt
PyTorch로 ChatGPT 스타일 LLM을 처음부터 구현하는 교육용 자료

vllm-project
고성능 LLM 추론 및 서빙 엔진
hiyouga
100개 이상 LLM/VLM 통합 파인튜닝 프레임워크