/AI Chasm Catalyst
범용기술로 진화한 AI의 파급력이 커지면서, 규제법만으로는 위험과 편익을 모두 다루기 어렵다는 지적이 힘을 얻고 있다. 기업 내부의 투명한 의사결정과 공익 지향 거버넌스를 확산할 방안을 놓고, 산·학·정 전문가들이 9월 3일 국회에서 해법을 논의한다.
◆ 행사 개요
행사는 9월 3일 수요일 오전 10시, 서울 여의도 국회의원회관 제6간담회의실에서 열린다. 현장과 함께 온라인(Zoom) 접속으로 일반 시민도 참여할 수 있다.
◆ 왜 지금 ‘내부 거버넌스’인가
AI는 다양한 하류 서비스에 통합되는 범용(General-Purpose) 성격이 강하다. 개발·배포 전 과정에서 위험을 식별·감소하고 책임 소재를 명확히 하려면 조직 차원의 원칙, 역할, 감사체계가 필수다. NIST AI 위험관리 프레임워크는 거버넌스·지도·측정·관리의 4축을 제시하며, 조직 내부 통제가 신뢰성 확보의 출발점임을 강조한다. 유럽연합도 AI Act에서 GPAI 개념을 명시해 공급망 전반의 책임을 제도화하는 추세다.
◆ 해외 동향: ‘공익적 지배구조’ 실험은 확산 중이지만 일괄적이지 않다
앤트로픽은 공익목적회사(PBC)로 전환하고, ‘장기이익신탁(LTBT)’을 통해 이사회 선임과 안전 원칙에 장기적 견제장치를 두었다. 오픈AI는 비영리 모체가 통제권을 유지하는 하이브리드 구조를 재확인했다. 다만 모든 빅테크·스타트업이 같은 모델을 채택한 것은 아니며, 일반 주식회사 형태도 광범위하다. 핵심은 조직별 위험·사업 단계에 맞춘 장치의 실효성이다.
◆ 국내 현황과 쟁점
국내에서도 교육·돌봄·환경 등 사회문제 해결을 목표로 하는 AI 소셜벤처가 늘고 있다. 문제는 ① 책임 있는 데이터 사용과 알고리즘 설명가능성, ② 공공성과 수익성의 균형, ③ 조달·실증 기회의 부족이다. 현장 기업들은 공공데이터 품질·접근성 제고, 안전성 라벨링·리스크 관리 가이드의 조기 정착, 사회적가치 평가를 반영한 조달 제도를 요구해 왔다.
◆ 전문가 진단(요지)
학계와 정책 연구자들은 “자율 규범만으로는 한계가 있고, 법·표준·내부통제가 삼각편대를 이뤄야 한다”고 입을 모은다. 특히 범용모델(GPAI)의 공급망 책임을 명확히 하고, 데이터·모델·응용 단계별 리스크를 다층적으로 관리하는 접근이 필요하다고 지적한다. 이는 국제 동향과도 궤를 같이한다.
◆ 해외·민간의 참고 사례
공익지향 투자도 늘고 있다. 모질라 재단은 ‘신뢰할 수 있는 AI’를 표방한 임팩트 투자와 연구로 생태계를 뒷받침하고 있다. 이러한 민간의 모험자본은 공공조달·규제 샌드박스와 결합할 때 효과가 커진다.
◆ 정책 제언(초안)
1 공익 AI 조달 트랙 신설: 사회적가치 지표를 반영한 평가·예산 항목을 만들고, 안전성 검증 비용을 보조한다.
2 ‘AI 거버넌스 공시’ 가이드라인: 모델·데이터 출처, 위험평가, 레드팀 결과, 사고 대응계획을 요건으로 한 자율공시를 촉진한다. NIST·국제표준과의 정합성을 확보한다.
3 공익 목적 데이터 파이프라인: 공공·비영리·학계가 함께 구축·운영하는 고품질 데이터셋을 확충하고 접근권을 넓힌다.
4 GPAI 공급망 책임의 명료화: 모델 제공자와 응용 사업자 간 책임경계를 계약·가이드로 표준화한다. EU의 GPAI 취지와 호환되도록 설계한다.
5 실증·평가 인프라: 안전성 라벨, 사회적편익 지표를 활용한 파일럿을 상시 운영하고, 결과를 조달·규제 개선에 환류한다.
◆ 오늘의 의미
이번 토론회는 “규제냐 혁신이냐”의 이분법을 넘어, 기업 내부의 책임 있는 설계와 공공적 보상체계를 함께 설계하려는 시도다. 사회적 목적을 가진 AI 기업이 시장에서 지속가능하게 성장하려면, 거버넌스·조달·데이터 인프라가 동시에 작동해야 한다는 점을 재확인하는 자리가 될 전망이다.
◆ 참가 안내
시간과 장소는 9월 3일 수요일 오전 10시, 국회의원회관 제6간담회의실이며, 온라인(Zoom)으로도 누구나 접속할 수 있다.