/AI Chasm Catalyst
브라우징 기반 사실 오류율 최대 5배 감소… 안전성·지시 이행력 강화
오픈AI(OpenAI)가 차세대 대규모 언어모델 ‘GPT-5’를 공식 출시했다. 이번 신제품은 단순한 성능 향상을 넘어, 사실 오류(환각) 발생률을 크게 낮추고 지시 이행력과 안전성을 개선한 점이 특징이다.
특히 브라우징 기능을 사용할 때 사실 오류율이 기존 모델 대비 최대 5배 낮아졌으며, PPT 제작·코딩 등 실무 생산성에서도 높은 평가를 받고 있다.
브라우징 환경에서 환각률 최저 기록
오픈AI가 공개한 평가 자료에 따르면, GPT-5의 ‘gpt-5-thinking’ 모델은 브라우징 활성화 상태에서 LongFact와 FActScore 벤치마크에서 사실 오류율이 각각 1% 내외를 기록했다. 이는 이전 세대 모델인 OpenAI o3의 4~5%대와 비교해 획기적인 개선이다.
서울대 AI연구원 관계자는 “브라우징을 포함한 환경에서 환각률을 1% 수준으로 억제한 것은 대규모 언어모델의 신뢰성 확보에 의미 있는 진전”이라며 “정책·연구·언론 등 사실 검증이 필수적인 영역에서 활용도가 높아질 것”이라고 평가했다.
지시 이행력과 아첨 행동 감소
GPT-5는 단순 질의응답을 넘어, 복잡한 지시를 정확히 수행하는 능력이 향상됐다. 오픈AI는 ‘시스템 메시지 > 개발자 메시지 > 사용자 메시지’ 순서로 명령 계층을 설계해, 시스템 가드레일 우회 가능성을 낮췄다.
또한 모델이 사용자의 잘못된 주장에 동조하거나 아첨하는 경향(시코펀시)을 줄이기 위해 후속 학습(post-training)을 적용했다. 그 결과, 아첨 발생률이 무료 사용자에서 69%, 유료 사용자에서 75% 감소했다. AI윤리학회 소속 김 모 교수는 “모델이 사용자의 오류를 바로잡는 태도를 보이는 것은 단순 기술 진화를 넘어 사회적 신뢰를 구축하는 데 중요하다”고 강조했다.
Safe-Completions로 안전성 강화
기존 ‘무조건 거부(Hard Refusal)’ 방식 대신, 출력 자체의 안전성을 보장하는 ‘Safe-Completions’ 훈련 기법이 도입됐다. 이를 통해 의도가 모호하거나 이중 용도(dual-use)가 가능한 질문에 대해서도, 유용하면서 안전한 응답을 제공한다.
오픈AI는 생물·화학 고위험 분야 질문에 대해 모델이 위험성을 설명하고 안전 면책문구를 제공하도록 했으며, API 요청은 사전 분류기를 거쳐 민감한 출력은 인공지능과 사람의 이중 검토를 거친다.
코드·문서 제작에서 Claude 대비 우세
일부 초기 사용자들은 PPT 제작, 코드 작성 등 생산성 업무에서 GPT-5가 Anthropic의 Claude 시리즈보다 효율적이라는 반응을 보였다. 한 스타트업 CTO는 “Cursor 환경에서 GPT-5를 적용해보니, 프롬프트 최적화와 문서 구조화에서 특히 강점을 보였다”며 “토큰 사용량 절감과 처리 속도 개선 효과도 확인됐다”고 전했다.
다국어 성능·건강 관련 조언 향상
GPT-5는 13개 언어 MMLU 테스트에서 전 세대 모델과 유사한 다국어 성능을 보였으며, HealthBench 평가에서는 긴급 상황·글로벌 보건 맥락 조정 등에서 오류율을 대폭 줄였다. 특히 gpt-5-thinking 모델은 HealthBench Hard에서 46.2% 점수로 최고 성능을 기록했다.
남은 과제: 사이버보안 역량
다만 사이버보안 역량 평가에서는 기대에 미치지 못했다. CTF(해킹 대회) 문제 해결 능력과 실제 네트워크 침투 시나리오에서 이전 모델 대비 제한적인 개선에 그쳤다. AI보안연구소 한 연구원은 “보안 역량이 개선되지 않으면 악용 위험 대비와 방어 기술 개발이 병행돼야 한다”고 지적했다.
향후 전망
업계는 GPT-5가 코딩·문서 작성·사실 검증 중심의 활용도를 크게 높일 것으로 보고 있다. 특히 Cursor·프롬프트 최적화 도구 등과 결합해 개발 생산성을 극대화할 수 있다는 분석이 나온다.
AI정책/인증 전문가 인 필자가 보기에는 “GPT-5는 단순히 더 똑똑해진 모델이 아니라, 신뢰성과 안전성을 강화한 모델이라는 점에서 의미가 크다”며 “향후 기업·연구·언론 분야에서 채택 속도가 빨라질 것”으로 전망된다.