Goodfire: AI 블랙박스를 여는 열쇠, $1.25B 해석가능성 스타트업의 부상
OpenAI와 DeepMind 출신 연구자들이 설립한 Goodfire가 $150M 시리즈 B를 유치하며 $1.25B 기업가치를 달성했습니다. AI 모델 내부를 들여다보는 해석가능성 기술로 할루시네이션을 50% 줄이고, 알츠하이머 바이오마커까지 발견했습니다.
OpenAI와 DeepMind 출신 연구자들이 설립한 Goodfire가 $150M 시리즈 B를 유치하며 $1.25B 기업가치를 달성했습니다. AI 모델 내부를 들여다보는 해석가능성 기술로 할루시네이션을 50% 줄이고, 알츠하이머 바이오마커까지 발견했습니다.
AI의 블랙박스 문제, 드디어 해결의 실마리
2026년 2월 5일, AI 해석가능성(interpretability) 연구 기업 Goodfire가 $150M(약 2,100억 원) 규모의 시리즈 B 펀딩을 발표했습니다. 기업가치는 $1.25B(약 1조 7,500억 원)으로 평가되었으며, B Capital이 리드 투자자로 참여했습니다. DFJ Growth, Salesforce Ventures, Menlo Ventures, Lightspeed Venture Partners, 그리고 전 Google CEO Eric Schmidt도 투자에 합류했습니다.
이번 펀딩이 주목받는 이유는 단순한 금액 때문이 아닙니다. Goodfire는 현재 AI 업계의 가장 근본적인 문제, 즉 **'AI가 왜 그런 답을 내놓는지 아무도 모른다'**는 블랙박스 문제에 정면으로 도전하는 기업입니다.
창업팀: AI 안전의 최전선에서 온 연구자들
Goodfire의 핵심 팀은 AI 업계 최고 기관 출신입니다.
| 이름 | 역할 | 출신 |
|---|---|---|
| Eric Ho | CEO | 스타트업 연쇄 창업자 |
| Tom McGrath | Chief Scientist | Google DeepMind 해석가능성팀 창립자 |
| Nick Cammarata | 핵심 연구원 | OpenAI 해석가능성팀 |
| Leon Bergen | 연구원 | UC San Diego 교수 |
이들은 2023년 샌프란시스코의 South Park Commons에서 창업했습니다. '모든 프론티어 AI 모델이 블랙박스이며, 예측 불가능하게 동작한다'는 공통된 문제의식에서 출발했습니다.
핵심 기술: 기계적 해석가능성(Mechanistic Interpretability)
Goodfire의 기술은 신경망 내부의 작동 원리를 직접 분석하는 기계적 해석가능성에 기반합니다. 기존의 AI 디버깅이 입출력만 관찰하는 '외부 관찰' 방식이라면, Goodfire는 신경망의 내부 뉴런과 회로를 직접 들여다보고 수정합니다.
Goodfire가 개발한 '모델 설계 환경(Model Design Environment)' 플랫폼은 다음과 같은 기능을 제공합니다.
1. 동작 분석: 모델이 특정 답변을 생성하는 내부 경로를 추적합니다.
2. 정밀 수정: 문제가 되는 동작을 담당하는 뉴런이나 회로를 식별하고, 전체 모델을 재훈련하지 않고도 해당 부분만 조정합니다.
3. 프로덕션 모니터링: 배포된 모델의 내부 상태를 실시간으로 감시합니다.
CEO Eric Ho는 이를 '증기 엔진 이전의 열역학'에 비유합니다. 현재 AI는 작동하지만 왜 작동하는지 모르는 상태이며, 해석가능성이 그 '왜'를 설명하는 기초 과학이 될 것이라는 주장입니다.
실전 성과: 할루시네이션 50% 감소
Goodfire의 기술이 학문적 연구에 그치지 않는다는 것을 보여주는 핵심 성과가 있습니다.
할루시네이션 절반 감소: 대규모 언어 모델에 해석가능성 기반 개입을 적용하여 할루시네이션(허위 정보 생성)을 약 50% 줄이는 데 성공했습니다. 이는 모델 내부에서 할루시네이션을 유발하는 특정 뉴런 그룹을 식별하고, 해당 부분의 활성화 패턴을 조정하는 방식으로 달성했습니다.
알츠하이머 바이오마커 발견: 생명과학 기업 Prima Mente가 구축한 후성유전체(epigenetic) 모델에 Goodfire의 해석가능성 기술을 적용하여, 새로운 종류의 알츠하이머 바이오마커를 발견했습니다. 이는 파운데이션 모델의 역공학을 통해 자연과학에서 새로운 발견을 이끌어낸 최초의 사례로 평가됩니다.
파트너십과 고객
Goodfire는 현재 선별된 파트너들과 협력하고 있습니다.
| 파트너 | 분야 |
|---|---|
| Microsoft | AI 모델 안전성 |
| Mayo Clinic | 의료 AI |
| Arc Institute | 생물학 연구 |
| Prima Mente | 생명과학 AI |
이들은 고위험 또는 프론티어 AI 시스템을 구축하는 팀들과의 협력에 집중하고 있습니다.
AI 안전의 새로운 패러다임
현재 AI 안전 접근법의 대부분은 '외부에서 행동을 관찰하고 제약을 거는' 방식입니다. RLHF(인간 피드백 강화학습)나 헌법적 AI 같은 기법이 대표적입니다. 하지만 이런 방식은 모델의 내부 동작을 바꾸지 않고 출력만 필터링하는 것에 가깝습니다.
Goodfire의 접근법은 근본적으로 다릅니다. 모델이 '왜' 특정 답변을 생성하는지를 내부 수준에서 파악하고, 문제의 원인을 직접 수정합니다. 이는 증상을 치료하는 것이 아니라 병의 원인을 제거하는 것에 비유할 수 있습니다.
한계와 과제
1. 확장성 문제: 수천억 파라미터 규모의 최신 모델에 해석가능성 분석을 적용하는 것은 여전히 계산 비용이 큽니다.
2. 완전한 해석은 미달성: 현재 기술로는 모델의 일부 동작만 해석 가능하며, 전체 신경망의 완전한 이해에는 아직 도달하지 못했습니다.
3. 상용화 초기 단계: 선별된 파트너와의 협력 위주로, 범용 제품으로의 전환에는 시간이 필요합니다.
4. 경쟁 심화: Anthropic, OpenAI 등 대형 AI 기업들도 자체 해석가능성 연구팀을 운영하고 있습니다.
결론: 블랙박스에서 투명한 AI로
Goodfire의 $150M 시리즈 B는 AI 업계가 '더 큰 모델'을 넘어 '더 이해할 수 있는 모델'에도 본격적으로 투자하기 시작했다는 신호입니다. AI 할루시네이션 50% 감소와 알츠하이머 바이오마커 발견이라는 구체적 성과는, 해석가능성이 학문적 호기심이 아닌 실용적 도구임을 증명합니다.
AI가 의료, 금융, 법률 등 고위험 분야에 깊숙이 침투하면서, '왜 그런 판단을 내렸는지' 설명할 수 있는 능력은 선택이 아닌 필수가 되고 있습니다. Goodfire는 그 필수적 기반을 구축하는 기업으로, AI 안전과 신뢰성의 미래를 결정할 핵심 플레이어가 될 전망입니다.
장점
- AI 블랙박스 문제에 대한 근본적 해결책으로서의 기술적 독보성
- 할루시네이션 50% 감소 등 구체적이고 측정 가능한 실전 성과
- 의료(알츠하이머)부터 AI 안전까지 폭넓은 응용 가능성
- OpenAI, DeepMind 출신 최고 수준의 연구팀
- Microsoft, Mayo Clinic 등 유력 기관과의 파트너십
단점/한계
- 수천억 파라미터 모델에 대한 해석가능성 분석의 계산 비용 부담
- 모델 전체가 아닌 일부 동작만 해석 가능한 현재 기술의 한계
- 선별된 파트너 위주의 초기 단계로 범용 제품화까지 시간 필요
- Anthropic, OpenAI 등 대형 기업들의 자체 해석가능성 연구와 경쟁
참고 자료
댓글0개
주요 기능/특징
Goodfire는 OpenAI와 DeepMind 출신 연구자들이 설립한 AI 해석가능성 스타트업으로, 2026년 2월 $150M 시리즈 B를 유치하며 $1.25B 기업가치를 달성했습니다. 기계적 해석가능성(Mechanistic Interpretability) 기술을 기반으로 AI 모델 내부의 뉴런과 회로를 직접 분석하고 수정하는 '모델 설계 환경' 플랫폼을 개발했습니다. LLM 할루시네이션을 50% 줄이고, AI 모델 역공학으로 알츠하이머 바이오마커를 발견하는 등 실전 성과를 증명했습니다.
핵심 인사이트
- B Capital 주도 $150M 시리즈 B로 $1.25B 기업가치 달성, Eric Schmidt 등 유력 투자자 참여
- 기계적 해석가능성 기술로 AI 모델 내부 뉴런/회로를 직접 분석하고 수정 가능
- 전체 모델 재훈련 없이 문제 동작을 담당하는 특정 부분만 정밀 조정하는 기술 보유
- LLM 할루시네이션을 약 50% 감소시킨 실전 성과 달성
- AI 모델 역공학으로 알츠하이머 바이오마커를 발견한 자연과학 최초 사례
- Microsoft, Mayo Clinic, Arc Institute 등과 파트너십 구축
- OpenAI와 DeepMind 해석가능성팀 출신 핵심 연구진으로 구성
- AI 안전 접근법을 외부 필터링에서 내부 원인 수정으로 전환하는 새로운 패러다임 제시
이 리뷰가 유용했나요?
공유하기
관련 AI 리뷰
Google TurboQuant: LLM 메모리 6배 압축, 정확도 손실 제로
Google Research가 LLM KV 캐시 메모리를 6배 압축하고 최대 8배 속도 향상을 달성하는 TurboQuant 알고리즘을 발표했다. 재훈련 없이 3비트 압축이 가능하며, ICLR 2026에서 발표된다.
Yann LeCun의 AMI Labs, 시드 라운드에서 $10.3억 조달: World Model AI의 시작
튜링상 수상자 Yann LeCun이 설립한 AMI Labs가 시드 라운드에서 10.3억 달러를 조달했다. 기업가치 35억 달러로 유럽 역대 최대 시드 펀딩이며, LLM과는 다른 World Model 접근법으로 AI의 새 패러다임을 제시한다.
Anthropic AI 노동시장 연구: 화이트칼라 대침체 가능성 경고
Anthropic이 AI의 노동시장 영향을 측정하는 새로운 지표 'observed exposure'를 발표했다. 프로그래머, 고객서비스, 데이터 입력직이 가장 높은 노출도를 보이지만, 실제 AI 도입률은 이론적 가능치의 3분의 1에 불과하다.
MIT, LLM 훈련 속도 2배 향상 기법 TLT 발표: 유휴 연산으로 효율 극대화
MIT 연구진이 2026년 2월 26일 대형 언어 모델의 강화학습 훈련 속도를 70~210% 향상시키는 새로운 기법 TLT(Taming the Long Tail)를 발표했다. 유휴 GPU 시간을 활용해 소형 드래프터 모델을 동적 학습시키는 방식으로, 정확도 손실 없이 훈련 비용을 절반 이하로 줄일 수 있다.
