/AI Chasm Catalyst
OpenAI는 2025년 8월 5일, 2019년 GPT‑2 이후 첫 오픈웨이트(open-weight) 모델인 GPT‑OSS 시리즈(gpt‑oss‑20B, gpt‑oss‑120B)를 Apache 2.0 라이선스로 공개했다. 이 두 모델 모두 높은 연산 성능과 추론(reasoning) 기능을 지닌 AI로, 상업적 사용까지 허용하는 매우 관대한 라이선스를 제공하며 배치된 지 몇 주 되지 않아 연구자들의 관심을 끌었다.
◆ 연구자에 의한 ‘베이스 모델’로의 전환
코넬대 박사 과정생이자 Meta 연구원인 잭 모리스(Jack Morris)는 GPT‑OSS‑20B에 LoRA(low-rank adaptation) 기법을 적용해 ‘gpt-oss-20b-base’라는 파생 모델을 발표했다. 이 버전은 GPT‑OSS의 추론·정렬(alignment) 기능을 제거하고 사전학습된(base) 형태에 가깝게 되돌려, 반응 속도가 더 빠르고 검열이나 안전장치 제약이 대폭 줄어든 자유로운 모델로 재탄생했다.
◆ 기술적 접근 방식과 수행 절차
모리스는 GPT‑OSS‑20B의 MLP 계층 일부(7, 15, 23)에만 LoRA를 적용해 총 약 0.3%의 매개변수(약 6천만 개)만 재학습하는 방식으로 모델을 조정했다. 이를 기존 모델에 병합한 뒤, MIT 라이선스로 Hugging Face에 공유했다. 최장 8192 토큰의 시퀀스를 처리할 수 있다.
◆ 이점과 한계: 자유성과 안정성의 줄다리기
베이스 모델 버전은 “자유 텍스트 모드”에서 사용해야 최적의 결과를 낼 수 있으며, 챗봇 템플릿 사용 시 성능 저하 가능성이 있다. 일부 정렬 흔적이 남아 예의 바른 챗봇처럼 반응하는 경우도 있다. OpenAI의 오리지널 GPT‑OSS 모델은 추론 강도 조정, 체인 오브 생각(chain-of-thought) 접근 및 구조화된 출력 지원 등 상용 응용에 적합한 설계였다.
◆ 학계 및 업계 반응과 기술 평가
arXiv에 올라온 평가 논문 「Is GPT‑OSS Good?」에서는 GPT‑OSS‑20B가 GPT‑OSS‑120B보다 여러 벤치마크(코드 생성, MMLU 등)에서 우수한 성능을 보였지만, 다국어 처리에는 약점이 있었다. 전반적 성능은 중상위권이었다.
또 다른 arXiv 논문에서는 GPT‑OSS의 잠재적 위험을 평가하기 위한 실험을 수행했다. 생물학적 위협이나 사이버 보안 능력을 악의적으로 증폭하는 악성 파인튜닝(MFT)을 시도했지만, 폐쇄된 모델(o3)보다 현저히 낮은 위험 수준으로 평가되었다. 이 결과는 오픈 리스 릴리스 결정의 근거 중 하나였다.
◆ 전문가 인터뷰 및 분석
AI2 수석 연구이자 워싱턴대 교수인 Hanna Hajishirzi는 “의미 있는 진보는 단순한 무게 공개가 아니라, 데이터, 학습 방법, 중간 중간 체크포인트, 평가 과정을 투명하게 공유하는 것”이라며 현 오픈 모델의 한계를 지적했다. 디벨로퍼들 사이에서는 “GPT‑OSS의 속도와 품질은 과거 모델들과 비교하더라도 인상적”이라는 긍정적 반응도 있었다.
◆ 응용 사례: 빠른 대응과 지역적 영향
비즈니스 인사이더는 OpenAI가 GPT‑OSS 시리즈를 공개한 배경 중 하나로 “중국의 오픈 소스 모델들이 시장을 지배할 수 있다”는 위기 인식을 제시했다고 전했다. 또한 UAE의 Core42와 영국 NexGen Cloud는 GPT‑OSS‑20B 및 120B를 자사 클라우드 플랫폼에 통합, 기업이 즉시 활용할 수 있는 API 형태로 제공하고 있다.
◆ 요약 및 향후 시사점
요약하자면, GPT-OSS 공개 이후 연구자들은 매우 단기간에 ‘기능 제거(base)’ 모델을 만들며 오픈웨이트 모델의 유연성과 위험을 동시에 보여주었다. 장점은 속도와 제약 완화, 상업적 활용 가능성이고, 단점은 정렬 약화 및 잠재적 오남용이다. 향후에는 투명한 데이터 셋, 학습 절차 공유, 오픈소스 수준의 확장 등이 요구된다.