Open Source
GitHub, HuggingFace의 최신 AI 오픈소스 프로젝트를 탐색하세요.
PowerInfer는 소비자 수준의 GPU에서 대규모 언어모델을 고속으로 실행하는 GPU-CPU 하이브리드 추론 엔진이다. 뉴런 활성화의 멱법칙 분포를 활용하여, 자주 활성화되는 '핫' 뉴런은 GPU에, 입력별로 변하는 '콜드' 뉴런은 CPU에서 처리하는 독창적인 아키텍처를 채택했다. RTX 4090에서 llama.cpp 대비 최대 11배 빠른 추론 성능을 달성하며, A100 GPU의 82% 성능을 소비자 하드웨어에서 구현한다. Llama 2, Falcon-40B 등 ReLU 기반 모델을 지원하고 INT4 양자화, 배치 생성, 서빙 기능을 포함한다.

ollama
로컬 LLM을 쉽게 실행하는 도구

ggml-org
C/C++로 작성된 로컬 LLM 추론 엔진

exo-explore
일상 기기를 AI 클러스터로 연결하는 분산 추론 플랫폼
mozilla-ai
단일 파일 하나로 LLM을 설치 없이 즉시 실행하는 배포 도구