통제 벗어난 프런티어 AI 우려 대두
오픈AI “사이버 보안?핵위협 포함”
美, 행정부에 AISI 만들어 임원 선임
英도 정부 내 조직… 위험평가 연구
韓, AI 7개 법안 21대 국회서 폐기
기관 설치는커녕 법체계조차 전무
전문가 “입법?조직구성 서둘러야”
인간의 통제를 벗어난 ‘프런티어 AI’의 위협이 상상보다 가까운 곳에 있을 수 있다. 프런티어 AI(인공지능)는 고도화된 AI를 뛰어넘는 AI 모델이다. 쉽게 말해 인간의 통제를 벗어난 AI다. 극단적인 경우로 경쟁국이 안보에 위협이 될 수 있다고 판단한 프런티어 AI가 자국군 통수권자가 가진 핵 발사 코드와 경쟁국에 효과적인 공격을 감행할 수 있는 목표 지점을 학습한 뒤 자체적인 판단으로 핵 공격을 감행할 수 있다.
핵 위협에 국한하는 것은 아니다. 선풍적인 인기를 얻고 있는 챗GPT를 지난해 선보인 미국의 오픈AI가 공개한 프런티어 AI가 가질 ‘치명적’ 위험에는 사이버 보안을 비롯해 화학과 생물학, 방사능, 핵 위협, 자율적 복제 및 적응 등 사실상 인류의 존폐를 위협할 수 있는 각종 위험요소가 포함됐다.
챗GPT 출현으로 본격화된 고도화된 AI의 발전 이면에 AI 안전성에 대한 위협이 동반되고 있다. 미국과 유럽연합(EU) 등 선진국이 이에 대한 대응 법안 마련과 ‘AI안전연구소(AISI)’라는 이름의 정부·공공기관 설립에 속도를 내는 이유다. ‘AI 주요 3개국(G3)’이 되겠다며 이 분야 선도국을 자처한 한국이 아직 AISI 조직 구성은 물론 관련 입법조차 못 하고 있는 것과 대비된다. 한국이 나날이 확장 중인 AI 생태계서 ‘무법지대’로 뒤처지지 않도록 선제 조치가 필요하다는 지적이다.
17일 한국방송통신전파진흥원이 작성한 ‘해외 AI 안전 연구소 핵심 기능 조사 용역 최종보고서’에 따르면 미국, 영국은 AI 안전성을 높이기 위한 AISI를 설립했다. 이 중 미국은 행정부 내에 AISI를 만들어 핵심 경영진까지 선임했고, AI 행정명령을 선포 상태다.
영국도 혁신과학기술부의 한 조직으로 AISI를 만들어 AI 시스템 평가 체계를 개발하고 관련 안전 및 위험평가 연구를 담당케 했다. 일본은 지난해 12월 말 AISI 설립을 발표하며 후발 주자로서 잰걸음 중이다.
반면 한국은 아직 AISI 유관 기관은커녕 기본적인 법체계조차 마련하지 못하고 있다. AI기본법 등 7개 AI 관련 법안을 통합한 ‘인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률’이 2022년 12월 발의됐으나 여야 정쟁에 떠밀려 1년 3개월간 표류하다 21대 국회 종료와 함께 폐기됐다.
보고서는 “22대 국회 일정에 따라 조속히 법률안에 대한 심의 등을 통해 안전 관련된 법률이 제정되고 안전연구소에 대한 설립 역할 등이 정립되어 우리나라의 개발사 제공자 활용자 이용자 등 다양한 주체의 관점에서 안전한 사용이 가능하도록 뒷받침할 필요가 있다”고 강조했다.
관련 학계·산업계 전문가들은 현재 한국의 AI 안전성을 ‘살얼음판을 걷는 격’이라고 경고한다. 위험이 도처에 깔렸고 한 발자국만 발을 헛디딜 경우 곧바로 치명적인 결과를 불러올 수 있다는 의미다. 작게는 인간의 일자리 상실부터 극단적으로는 공상과학(SF) 영화에서처럼 AI가 인간에게 해를 입히는 상황까지 연출될 수 있다는 것이다. 영국 일간 가디언에 따르면 미국과 영국, 프랑스는 2년 전 인간이 핵무기에 대한 완전한 통제권을 갖는 데 공감하고 AI가 핵무기를 통제할 수 없도록 하자는 협정을 추진 중이다. 이들과 대척점에 서 있는 중국과 러시아가 동참하지 않는 게 문제다.
문형남 숙명여대 글로벌융합학부 교수는 “영화에서 보듯 AI에 의해 인간이 지배될 수 있다는 우려도 나온다”며 “지금 굉장히 빠른 속도로 발전하고 있고 특히 인간의 삶, 모든 산업에 접목되는 AI가 긍정적인 측면이 큰 만큼 부정적인 측면도 크므로 이를 최소화하기 위한 노력은 필수적”이라고 말했다.
전창배 AI윤리협회 이사장은 “AISI를 대통령·국무총리 직속의 위원회로 만들어 자율성을 부여해 전 부처와 연계하는 형식으로 가야 실효성이 있는 조직이 될 것”이라고 강조했다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]