Guide Labs Steerling-8B 오픈소스 공개: AI 블랙박스 문제를 해결하는 해석 가능한 LLM
Y Combinator 출신 스타트업 Guide Labs가 2026년 2월 23일 Steerling-8B을 오픈소스로 공개했다. 모든 출력 토큰을 학습 데이터 원본까지 추적할 수 있는 최초의 상용급 해석 가능한 LLM으로, 기존 모델 성능의 90%를 유지한다.
Y Combinator 출신 스타트업 Guide Labs가 2026년 2월 23일 Steerling-8B을 오픈소스로 공개했다. 모든 출력 토큰을 학습 데이터 원본까지 추적할 수 있는 최초의 상용급 해석 가능한 LLM으로, 기존 모델 성능의 90%를 유지한다.
AI 블랙박스 문제에 대한 구조적 해법
Y Combinator 출신 스타트업 Guide Labs가 2026년 2월 23일 Steerling-8B을 오픈소스로 공개했다. 80억 파라미터 규모의 이 모델은 일반적인 LLM과 근본적으로 다른 구조를 가진다. 모든 출력 토큰을 학습 데이터의 원본까지 추적할 수 있도록 설계된, 최초의 상용급 해석 가능한 대규모 언어 모델이다.
CEO Julius Adebayo는 MIT 박사 과정에서 이 연구를 시작했다. 그의 2018년 공동 저술 논문은 기존 딥러닝 해석 방법론이 신뢰할 수 없다는 것을 증명했으며, 이것이 Steerling의 출발점이 됐다.
컨셉 레이어: 해석 가능성의 핵심
Steerling-8B의 핵심 혁신은 '컨셉 레이어(Concept Layer)'다. 기존 LLM이 사후적으로 해석 방법을 적용하는 것과 달리, Steerling은 모델 구조 자체에 해석 가능성을 내장했다.
모델의 임베딩은 세 가지 경로로 분해된다.
| 경로 | 설명 |
|---|---|
| 지도 컨셉 (약 33,000개) | 사전 정의된 추적 가능한 개념 카테고리 |
| 발견 컨셉 (약 100,000개) | 모델이 학습 중 자체적으로 발견한 개념 |
| 잔차(Residual) | 위 두 경로에 포함되지 않는 나머지 정보 |
예를 들어, 모델은 학습 중 양자 컴퓨팅을 독립적인 컨셉으로 자체 식별했다. 이는 모델이 인간이 사전에 정의하지 않은 개념까지 자발적으로 조직화할 수 있음을 보여준다.
성능: 기존 모델의 90%를 유지
Guide Labs에 따르면, Steerling-8B은 동급 비해석 모델 성능의 90%를 달성한다. 더 적은 학습 데이터로 이 수준에 도달했다는 점이 주목할 만하다. CEO Adebayo는 이를 '이론 과학에서 실용 공학으로의 전환'이라고 표현했다.
10%의 성능 손실은 해석 가능성이라는 구조적 제약에서 비롯된다. 하지만 규제 산업이나 고위험 애플리케이션에서는 이 10% 손실보다 출력의 추적 가능성이 훨씬 중요하다.
실용적 응용: 규제와 안전
소비자 애플리케이션에서는 저작권이 있는 콘텐츠를 차단하거나, 폭력이나 약물 남용 같은 민감한 주제에 대한 출력을 제어할 수 있다. 금융 등 규제 산업에서는 대출 심사 시 재무 기록은 고려하면서 인종은 명시적으로 무시하도록 지시할 수 있다.
팩트체킹 측면에서도 사실적 주장에 대한 참조 자료를 식별할 수 있어, 할루시네이션 감지와 출처 검증이 구조적으로 가능해진다.
창업 배경과 투자
Guide Labs는 CEO Julius Adebayo와 CSO Aya Abdelsalam Ismail이 공동 창업했다. Y Combinator를 졸업한 후 2024년 11월 Initialized Capital로부터 $900만 시드 라운드를 유치했다.
$900만이라는 규모는 대형 AI 기업의 수십억 달러 투자와 비교하면 소규모지만, 해석 가능한 AI라는 특정 문제에 집중하는 스타트업으로서는 의미 있는 자금이다.
결론
Steerling-8B은 AI의 '블랙박스' 문제를 구조적으로 해결하려는 최초의 실용적 시도다. 모든 출력을 학습 데이터까지 추적할 수 있다는 것은 AI 신뢰성과 규제 준수에서 근본적인 변화를 의미한다. 10%의 성능 손실이 있지만, EU AI Act 등 글로벌 AI 규제가 강화되는 시점에서 해석 가능한 AI에 대한 수요는 더욱 커질 것이다. 오픈소스 공개로 연구 커뮤니티의 검증과 개선이 가능하다는 점도 큰 장점이다.
장점
- 모든 출력을 학습 데이터까지 추적할 수 있어 AI 신뢰성을 구조적으로 확보한다
- 규제 산업에서 편향 제거와 컴플라이언스를 명시적으로 수행할 수 있다
- 오픈소스로 공개되어 연구 커뮤니티의 검증과 개선이 가능하다
- 저작권 콘텐츠 차단과 민감 주제 필터링이 구조적으로 가능하다
단점/한계
- 기존 동급 모델 대비 약 10%의 성능 손실이 존재한다
- 80억 파라미터 규모로 대형 모델 대비 절대 성능이 제한적이다
- 시드 단계 스타트업으로 장기적인 모델 유지보수와 업데이트에 대한 불확실성이 있다
참고 자료
댓글0개
주요 기능/특징
Guide Labs가 Steerling-8B을 오픈소스로 공개했다. 80억 파라미터 LLM으로, 컨셉 레이어를 통해 모든 출력 토큰을 학습 데이터 원본까지 추적할 수 있다. 약 33,000개의 지도 컨셉과 100,000개의 자체 발견 컨셉으로 구성되며, 기존 모델 성능의 90%를 유지한다.
핵심 인사이트
- 모든 출력 토큰을 학습 데이터 원본까지 추적할 수 있는 최초의 상용급 해석 가능한 LLM이다.
- 컨셉 레이어가 약 33,000개 지도 컨셉과 100,000개 자체 발견 컨셉으로 임베딩을 분해한다.
- 기존 동급 모델 성능의 90%를 유지하면서 해석 가능성을 확보했다.
- 저작권 콘텐츠 차단, 민감 주제 필터링 등 출력 제어가 구조적으로 가능하다.
- 금융 규제 준수 등 고위험 산업에서 편향 제거를 명시적으로 수행할 수 있다.
- 할루시네이션 감지와 출처 검증이 모델 구조 수준에서 가능하다.
- MIT 박사 연구에서 시작된 기존 해석 방법론의 한계를 구조적으로 극복했다.
- EU AI Act 등 글로벌 AI 규제 강화와 함께 수요가 증가할 것으로 예상된다.
이 리뷰가 유용했나요?
공유하기
관련 AI 리뷰
Google Gemma 4 출시: Apache 2.0 라이선스로 전환한 최강 오픈 모델
Google DeepMind가 Gemini 3 기반의 오픈 모델 Gemma 4를 Apache 2.0 라이선스로 출시했다. 31B 모델이 오픈 모델 Arena AI 3위에 올랐고, 2B 모델은 라즈베리파이에서도 구동된다.
Karpathy의 autoresearch: GPU 1개로 밤새 100개 AI 실험을 자동 실행
전 Tesla AI 디렉터 Andrej Karpathy가 오픈소스 프로젝트 autoresearch를 공개했다. 630줄 Python 코드로 AI 에이전트가 단일 GPU에서 밤새 자율적으로 ML 실험을 반복하며, 공개 며칠 만에 GitHub 8,000 스타를 달성했다.
AI2 Olmo Hybrid 7B: 트랜스포머와 RNN을 결합한 완전 오픈소스 LLM
Allen Institute for AI(AI2)가 Olmo Hybrid 7B를 Apache 2.0 라이선스로 공개했다. 트랜스포머 어텐션과 gated DeltaNet을 결합한 하이브리드 아키텍처로, Olmo 3 대비 2배의 데이터 효율성과 75% 향상된 장문맥 추론 효율성을 달성했다.
Cohere Tiny Aya: 70개 이상 언어를 지원하는 초경량 오픈소스 AI 모델
Cohere가 33.5억 파라미터로 70개 이상 언어를 지원하는 오픈소스 모델 Tiny Aya를 출시했습니다. 노트북에서 오프라인으로 실행 가능하며, 아프리카/남아시아/아시아태평양 특화 지역별 변형 모델도 함께 공개되었습니다.
