/AI Chasm Catalyst

오픈AI가 6년 만에 오픈소스 대형언어모델(LLM)인 ‘GPT-OSS’를 공개했다. 2019년 GPT-2 이후 처음으로 선보인 이번 모델은 경쟁사 모델 대비 기술적 도약은 크지 않지만, 최근 LLM 진화 과정을 확인할 수 있는 상징적 의미를 지닌다.

◆ 기존 모델과의 차별성

GPT-OSS는 기본적으로 오토리그레시브 트랜스포머(autoregressive Transformer) 구조를 유지하며 토큰을 하나씩 생성한다는 점에서 GPT-2와 유사하다. 그러나 가장 큰 차이는 혼합 전문가(Mixture-of-Experts, MoE) 방식을 채택한 것이다. 이는 최근 공개된 오픈소스 최신 모델들과 궤를 같이하며, 성능 확장을 위한 현대적 설계를 반영한다.

◆ 사용자별 메시지 채널 구조

이번 모델에서 특히 주목할 부분은 메시지 형식과 출력 채널이다. 오픈AI는 모델이 생성하는 출력을 ‘분석(analysis)’, ‘주석(commentary)’, ‘최종(final)’의 세 가지 채널로 구분했다.

일반 사용자: 입력 메시지와 최종 답변만 경험한다.

LLM 앱 빌더: 시스템 및 개발자 메시지를 직접 정의하며, 도구 호출과 추론 정도를 설정한다.

모델 포스트 트레이너: 파인튜닝 과정에서 모든 메시지 타입을 다루며 툴 호출과 추론 형식을 관리한다.

이 구조는 LLM 앱 빌더와 고급 사용자들이 모델의 내부 동작을 더욱 정교하게 통제할 수 있도록 돕는다.

◆ 추론 모드와 효율성

GPT-OSS는 ‘낮음’, ‘중간’, ‘높음’의 세 가지 추론 모드를 지원한다. 고난도 수학 문제(AIME25 데이터셋 예시)에서 ‘중간’과 ‘높음’ 모드 모두 정답을 도출했지만, 높은 추론 모드는 두 배의 계산 비용과 시간이 소요됐다. 이는 사용자가 실시간 응답 속도와 정확성 사이에서 균형을 선택할 수 있도록 한다. 학계에서는 “합리적 추론 예산(reasoning budget) 개념을 도입한 점이 실용성을 높였다”는 평가가 나온다.

─────────────────────────────

◆ LLM 주요 모델 비교

GPT-OSS (OpenAI)

오픈AI의 6년 만의 첫 오픈소스 LLM. 혼합 전문가(MoE) 구조를 채택해 확장성을 확보했다. 추론 모드를 ‘낮음·중간·높음’으로 구분해 상황별 활용이 가능하며, 비영어권 토큰화 효율이 개선됐다. Harmony 저장소와 연계해 메시지 채널을 정밀하게 설계할 수 있다. 개방성과 상징성이 큰 의미를 갖는다.

DeepSeek

효율적 학습으로 고성능 벤치마크를 달성한 모델. MoE 구조를 기반으로 대규모 계산 자원에 최적화돼 있다. 금융·과학 연구 분야에서 응용이 활발하며, 고성능·효율성의 조합으로 업계 평가가 높다.

Qwen (Alibaba 계열)

범용성을 강조한 트랜스포머 모델. 추론 모드는 ‘생각 모드’와 ‘비생각 모드’의 이진 구조로 단순하다. 중국어 처리에서 강점을 보이며, 대규모 기업 애플리케이션에서 널리 활용된다. 안정성과 실용성이 특징이다.

Kimi

멀티모달 기능과 실시간 대화 친화성이 강점. 영어 성능이 높고, 소비자 대상 대화형 서비스에서 주로 사용된다. 빠른 응답 속도와 사용자 경험 최적화로 챗봇 서비스 등에서 경쟁력을 확보했다.

─────────────────────────────

◆ 토크나이저 개선

토크나이저는 GPT-4와 유사하나 비영어권 처리 효율이 개선됐다. 이모지와 중국어, 아랍어 문자를 더 적은 토큰으로 분할하며, 숫자 처리에서도 세 자리 수까지는 단일 토큰으로 인식한다. 다만 학습 데이터는 영어 중심이라는 한계가 지적된다.

◆ 전문가 평가와 업계 전망

전문가들은 GPT-OSS가 기술적 혁신보다는 “개방성 회복”에 의미가 있다고 본다. 한 대학 연구자는 “최근 오픈AI가 폐쇄적이라는 비판이 잇따랐는데, GPT-OSS 공개는 생태계 신뢰 회복 시도로 읽힌다”고 설명했다. 또 다른 업계 관계자는 “DeepSeek, Qwen, Kimi 등 강력한 오픈 모델이 이미 존재하는 상황에서, GPT-OSS는 오픈AI 브랜드 효과와 Harmony 저장소 연계로 실질적 경쟁력을 확보할 수 있다”고 전망했다.

◆ 사례와 향후 과제

현재 일부 스타트업은 GPT-OSS를 활용해 맞춤형 에이전트와 검색 엔진 구축 실험에 나서고 있다. 그러나 대규모 비영어 데이터 학습 부족과 추론 속도·비용 문제는 여전히 과제로 꼽힌다. 오픈AI가 향후 다국어 성능 강화와 경량화 전략을 병행할지가 주목된다.