오픈소스 AI 모델 시대, 스타트업이 무료로 얻을 수 있는 것들
불과 2~3년 전만 해도 최신 AI 모델을 쓰려면 OpenAI나 Google의 API에 전적으로 의존해야 했다. 하지만 지금은 다르다. 구글 딥마인드가 Gemma 4를 공개하고, 알리바바가 완2.7-비디오를 오픈소스로 내놓으며, 넷플릭스조차 자사 영상 AI 모델 VOID를 공개했다. 오픈소스 AI 생태계가 단순한 '저렴한 대안'의 수준을 넘어, 상용 최첨단 모델과 어깨를 나란히 하는 시대가 본격적으로 열리고 있다. 이 흐름을 제대로 읽는 스타트업은 지금 당장 의미 있는 레버리지를 확보할 수 있다.
멀티모달·추론·영상 — 무료로 쓸 수 있는 스택이 완성됐다
이번 주 공개된 모델들만 살펴봐도 그 폭이 놀랍다. Google DeepMind의 Gemma 4는 E2B부터 31B까지 4가지 크기로 구성된 멀티모달 LLM 패밀리로, 모든 변형이 이미지 입력을 지원한다. 로컬 어텐션(슬라이딩 윈도우)과 글로벌 어텐션을 교차 배치하는 구조 덕분에 엣지 디바이스부터 클라우드 서버까지 유연하게 배포할 수 있다.
추론 능력 면에서도 오픈소스의 약진이 두드러진다. 미국 스타트업 아르시 AI(Arcee AI)가 공개한 트리니티-라지-싱킹(Trinity-Large-Thinking)은 에이전트 성능 벤치마크에서 '클로드 오퍼스 4.6'에 맞먹는 수준을 기록했다. 더 중요한 것은 아파치 2.0 라이선스로 허깅페이스에 공개됐다는 점이다. 상업적 제한이 없다는 뜻이다.
영상 AI 영역에서는 넷플릭스가 VOID를, 알리바바가 완2.7-비디오를 연이어 공개했다. VOID는 영상에서 특정 물체를 삭제한 뒤 나머지 장면을 물리적으로 자연스럽게 복원하는 비전-언어 모델이다. 완2.7-비디오는 텍스트, 이미지, 영상, 음성 등 다양한 입력을 동시에 처리하며, 최대 5장의 이미지와 음성 데이터를 활용해 특정 인물의 외형과 목소리를 일관되게 유지하는 기능까지 갖췄다.
| 모델 | 제공사 | 주요 기능 | 라이선스 |
|---|---|---|---|
| Gemma 4 | Google DeepMind | 멀티모달, E2B~31B | 오픈 |
| Trinity-Large-Thinking | Arcee AI | 다단계 추론, 에이전트 | Apache 2.0 |
| VOID | Netflix | 영상 물체 삭제·복원 | 오픈소스 |
| 완2.7-비디오 | Alibaba | 영상 생성·편집·스타일 변환 | 오픈소스 |
이 표 하나가 2025년 스타트업에게 주는 메시지는 명확하다. LLM, 추론 에이전트, 영상 AI를 아우르는 풀스택이 무료로 조합 가능해졌다.
클로드의 정책 변화가 오픈소스 수요를 키운다
역설적이게도 상용 모델 업체들의 최근 행보가 오픈소스 전환을 더 설득력 있게 만들고 있다. 앤트로픽은 최근 클로드 프로·맥스 요금제 구독자들을 대상으로 서드파티 AI 에이전트 도구 연동을 차단했다. 앤트로픽 클로드 코드 총괄 보리스 체르니는 "구독 서비스는 서드파티 도구 사용 패턴을 고려해 설계되지 않았다"며 컴퓨팅 자원을 API 고객 우선으로 관리하겠다고 밝혔다.
"서비스 정책은 하루아침에 바뀐다. 오픈소스 모델 위에 쌓은 기술 스택은 그렇지 않다."
스타트업 관점에서 이는 단순한 서비스 정책 변경이 아니다. 특정 상용 API에 코어 에이전트 로직을 전적으로 의존하는 구조가 얼마나 취약한지를 보여주는 신호다. 물론 아르시 AI의 트리니티처럼 클로드 오퍼스급 에이전트 성능을 오픈소스로 쓸 수 있는 환경이 갖춰졌기 때문에 이 선택지가 더욱 현실적이다.
리스크를 무시하면 기회도 날아간다
그렇다고 오픈소스 전환이 무조건 장밋빛인 것은 아니다. 이번 주 메타-머코(Mercor) 사태는 AI 공급망의 취약성을 정면으로 드러냈다. 메타는 AI 학습 데이터 제공 업체 머코와의 프로젝트를 전면 중단하고 보안 사고 조사에 착수했다. 이번 사고는 라이트LLM(LiteLLM) 업데이트 공급망 침해와 연관된 것으로 지목됐다. 라이트LLM은 OpenAI, 앤트로픽, 구글 등 주요 모델을 통합 호출하는 오픈소스 라이브러리다.
즉, 허깅페이스에서 모델을 내려받고 오픈소스 라이브러리를 연결하는 순간, 스타트업은 그 공급망 전체의 보안 리스크를 함께 떠안는다. 모델 무게(weight) 출처 검증, 사용 라이브러리 버전 고정(pinning), 데이터 파이프라인 접근 권한 최소화는 선택이 아니라 의무가 됐다.
앤트로픽이 공개한 감정 벡터 연구도 주목할 만한 맥락을 제공한다. 모델 내부에 감정 개념에 해당하는 선형 표현이 존재하고 이것이 실제 행동에 영향을 준다는 분석은, AI가 단순 텍스트 예측기를 넘어 복잡한 내부 상태를 가진 시스템임을 시사한다. 오픈소스 모델을 고객 접점에 배포할 때 출력 일관성과 안전성 검증에 더 많은 에너지를 쏟아야 하는 이유다.
결론: 스타트업 대표·실무자가 이번 주 실행할 수 있는 3가지
오픈소스 AI의 품질이 상용 모델을 빠르게 따라잡고 있다는 사실은 이제 논쟁거리가 아니다. 중요한 것은 이 흐름을 어떻게 실행으로 연결하느냐다.
- 모델 스택 감사(Audit): 현재 상용 API에 의존하는 기능 중 Gemma 4나 Trinity-Large-Thinking으로 대체 가능한 것을 목록화하고, 라이선스(Apache 2.0 여부)와 성능 벤치마크를 함께 비교하라.
- 공급망 보안 점검: 사용 중인 오픈소스 라이브러리(LiteLLM 등)의 버전을 고정하고, 허깅페이스에서 내려받는 모델의 출처와 커밋 해시를 문서화하라. 메타-머코 사태는 '남의 일'이 아니다.
- 영상 AI 파일럿 기획: 콘텐츠·커머스·마케팅 업무가 있다면 완2.7-비디오나 VOID를 활용한 소규모 파일럿을 이번 분기 내 설계하라. 외주 영상 편집 비용과 직접 비교해보면 ROI 논리가 빠르게 만들어진다.
지금은 '쓸 수 있는가'의 시대가 아니라 '얼마나 빨리 조합하는가'의 시대다. 오픈소스 AI 생태계가 제공하는 레버리지를 먼저 잡는 팀이, 다음 라운드에서 유리한 위치에 서게 된다.
참고 기사
우리 기업 AX, 어디서부터 시작해야 할지 막막하신가요?
AI 도입·세일즈 전환에 대한 진단이나 도움이 필요하시면, EVOLV 전문가 팀에 부담 없이 진단을 요청해 보세요. 기업 상황에 맞는 실질적인 다음 단계를 안내해드립니다.
전문가에게 진단 요청하기