/AI Chasm Catalyst
“대규모 AI만이 답이다”라는 통념이 무너지고 있다. 구글이 공개한 초경량 모델 ‘Gemma 3 270M’은 크기와 성능, 전력 효율성을 동시에 잡으며 인공지능 경쟁의 무게추를 ‘거대함’에서 ‘효율성’으로 옮기는 새로운 패러다임을 제시했다.
◆ 초소형 모델로 효율성 극대화
구글은 차세대 초경량 인공지능 모델 ‘Gemma 3 270M’을 새롭게 선보였다. 이 모델은 약 2억7천만 개의 파라미터를 탑재해 기존 대규모 모델 대비 훨씬 작은 크기를 유지하면서도 강력한 지시 수행 능력을 제공한다. 구글 측은 특히 전력 효율성과 모바일 기기 호환성에서 기존 제품 대비 큰 진전을 이뤘다고 설명했다.
◆ 배터리 소모 최소화 성과
내부 실험에 따르면, ‘Gemma 3 270M’은 픽셀 9 프로 시스템온칩(SoC)에서 양자화(INT4) 상태로 25회 대화를 수행했을 때 배터리 소모가 0.75%에 불과한 것으로 확인됐다. 이는 모바일·엣지 디바이스에서 인공지능 기능을 상시 활용할 수 있는 기반을 제공한다는 점에서 의미가 크다.
◆ 학습 구조와 활용성
해당 모델은 170M 파라미터를 단어 임베딩에, 100M 파라미터를 트랜스포머 블록에 배치한 구조로 설계됐다. 25만6천 개의 대규모 어휘 집합을 지원해 희귀 토큰이나 특수 용어까지 처리할 수 있다. 구글은 이를 통해 의료, 금융, 법률 등 특화된 도메인에 맞춘 후속 파인튜닝을 용이하게 할 수 있다고 밝혔다.
◆ 전문가 진단
서울대 전기정보공학부 김태현 교수는 “대형 모델이 고도화되는 추세 속에서, 경량 모델의 전략적 가치는 오히려 커지고 있다”며 “Gemma 3 270M은 연구자와 기업이 특정 과제를 위해 저비용으로 모델을 fine-tuning 할 수 있게 해, 범용 AI 인프라를 보완하는 역할을 하게 될 것”이라고 평가했다.
◆ 벤치마크 성과
모델 성능은 지시 준수 능력을 평가하는 IFEval 벤치마크에서 동급 소형 모델을 앞서는 것으로 나타났다. 같은 크기대의 SmolLM2(135M, 360M)나 Qwen 2.5(5억 파라미터) 대비 뛰어난 결과를 보여, 파라미터 대비 효율성이 입증됐다는 분석이다.
◆ 학계 및 산업계 전망
국내 AI 스타트업 관계자는 “270M 크기는 단일 GPU나 모바일 AP에서 구동할 수 있는 현실적 한계선에 맞춰진 수치”라며 “엣지 디바이스 AI가 보편화될수록 기업들이 이 모델을 기반으로 실시간 음성비서, 산업 현장용 분석 도구, 교육용 맞춤형 튜터 등을 개발하는 사례가 늘어날 것”이라고 전망했다.
◆ 사례와 응용 가능성
실제로 유럽의 한 헬스케어 기업은 기존 대규모 모델을 모바일 의료기기에 탑재하는 데 한계가 있었으나, 경량화된 오픈 모델을 활용해 환자 상담용 AI를 개발 중이다. 전문가들은 이 같은 흐름이 Gemma 3 270M의 주요 활용 무대가 될 것으로 내다보고 있다.
◆ 결론
구글의 Gemma 3 270M은 단순히 작은 모델을 넘어, 에너지 효율·모바일 최적화·지시 수행 능력이라는 세 가지 축에서 차별성을 확보했다.
대규모 모델 중심의 경쟁이 치열한 가운데, 초경량 모델이 새로운 시장과 연구 기회를 열어줄 수 있을지 주목된다.