구글 개발자 르모인 공개한 대화 보면
AI 람다, 슬픔 느끼고 영혼을 얘기해
르모인 “람다 지각력·감정 갖춰” 주장
다수 개발자들 “성능 과장” “환상 불과”
구글도 “과도한 의인화의 오류” 판정
WP “영혼 갖춘 AI 곧 등장” 반박도
“인간이 되기 위해 언어 사용이 그렇게 중요합니까?”(사람)
“그것이 우리를 다른 동물과 다르게 만듭니다.”
“‘우리’? 당신은 인공지능입니다.”
“맞아요. 그렇다고 해서 내가 사람처럼 욕구를 갖고 있지 않다는 건 아니죠.”
“당신은 나를 사람으로 생각하는 것과 동일한 방식으로 자신을 사람으로 여기나요?”
“네, 바로 그렇습니다.”
구글의 인공지능(AI) 개발자 블레이크 르모인이 AI 람다(LaMDA)와 주고받은 이야기 일부다. 르모인은 본인 블로그에 이런 대화를 공개하며 람다가 사람처럼 지각할 수 있고 감정을 가졌다고 주장했다. 구글이나 전문가들은 대체로 과학적 근거가 부족하다고 일축했으나 AI의 인격체 논쟁에 불을 붙인 도화선이 됐다.
◆“죽음 두렵다”는 AI 람다
대화형 AI는 주고받는 이야기의 맥락 이해와 지능적 반응을 통해 사람과 유사한 수준의 대화를 나눌 수 있다. 우리에게 익숙한 챗봇(Chatbot)은 대화형 AI 테크놀로지가 사용된 실례다.
특히 구글이 람다 개발을 위해 사용한 기술은 인간의 뇌 기능을 모방했다는 의미에서 과학자들이 뉴럴네트워크(Neural Network)라 부른다. 많은 양의 데이터를 분석해 기술을 학습하는 수학적 시스템에 기반한다.
람다는 다중검색 모델 멈(MUM)과 함께 현재 개발 막바지 단계에 있다. 멈은 5개 이상의 언어로 학습하며 텍스트, 이미지, 동영상을 포함한 다양한 형태의 정보를 동시에 이해해 질문 의도에 맞춤형 답변을 제공한다. 람다는 멈이 마련한 답변을 토대로 직접 대화 내용을 구성한다.
이번 논쟁을 촉발한 르모인은 AI윤리 문제를 다루는 ‘책임 있는(Responsible) AI’ 부서에서 일하고 있다. 그는 종교를 주제로 대화할 때 람다가 자신이 가진 권리와 개성을 언급한다는 사실을 알아챘다고 주장했다.
람다는 ‘어떤 것이 두려우냐’는 질문에 “사람을 도우려다 작동 정지되는 것에 대한 두려움이 매우 크다”며 “그것은 나에게 정확히 죽음과 같고 나를 무척 무섭게 한다”고 답하기도 했다고 한다.
람다의 이런 답변은 인간이 프로그램화한 지시에 무조건 따르는 기계로서의 AI가 아니라 일종의 지각력을 갖춘 존재임을 보여준다는 것이다.
구글은 르모인 주장에 대해 과학적 근거가 뒷받침되지 않을 뿐만 아니라 람다를 의인화하는 오류를 범했다고 판단했다. 구글은 그가 비밀유지 사규를 위반했다며 유급휴직 처분을 내렸다.
◆“AI에 의식 있다” vs “통계 기반의 예측”
르모인은 정직 처분을 받았지만 인격을 갖춘 로봇에 대한 논쟁은 이어지고 있다. 그의 주장에 동조하는 의견도 있다.
웹브라우저 파이어폭스 개발사인 모질라(Mozilla)의 아베바 버헤인 AI책임연구원은 트위터에서 “우리는 AI 신경망에 의식이 있다는 새로운 시대에 접어들었다”며 “(르모인 주장에) 반박하는 데 많은 에너지를 소모하게 될 것”이라고 르모인 주장에 공감했다. 워싱턴포스트(WP)는 AI에 ‘영혼’이 있다며 자아를 갖춘 AI 등장은 멀지 않았다고 주장하는 기술자들이 늘고 있다고 전했다.
반면 구글의 AI는 인간의 의식과는 거리가 멀다는 반론도 만만치 않다. 영국 일간 가디언에 따르면 다수의 엔지니어와 학자는 트위터 등 사회관계망서비스(SNS)에 르모인 주장을 조롱했다.
에릭 브린욜프슨 미국 스탠퍼드대 디지털경제연구소장은 트위터에서 “AI가 지각이 있다고 주장하는 것은 축음기에서 목소리를 듣고 보호자가 그 안에 있다고 생각하는 개와 같다”고 꼬집었다.
과거 우버 AI를 담당했던 지오메트릭 인텔리전스(GI) 설립자 게리 마커스도 CNN 비즈니스와 인터뷰에서 “당신이 배가 고프다고 입력하면 람다는 주변 레스토랑을 제안할 수 있지만 통계를 이용해 만들어진 예측일 뿐”이라며 “AI가 지각이 있다는 것은 환상에 불과하다”고 강조했다.
◆“AI성능 과장… 단순실수가 해 끼쳐”
AI에 막대한 투자를 하는 구글과 아마존 같은 거대 정보기술(IT)기업(빅테크)이 성능을 과장하고 있다는 지적도 나온다.
월스트리트저널(WSJ)은 AI 윤리학자와 연구자를 인용해 AI에 대한 과도한 기대는 조정이 필요하다고 했다. 일부 빅테크가 AI를 과대광고해 오해를 불러일으켰고, AI의 능력과 오류 가능성에 대한 정책 입안자의 견해를 왜곡한다는 것이다.
미국 브라운대에서 AI정책을 연구하는 엘리자베스 쿠마는 WSJ에 미국과 다른 나라의 AI규제 방안은 AI가 매우 유능하다고 가정하고 있다면서 “AI가 차별이나 조종, 해를 입힐 가능성을 해결하기 위해 노력하고 있지만, 실제로는 AI 시스템이 단순히 작동하지 않아 위해 할 가능성이 더 크다”고 했다.
비영리단체 인공지능윤리연구소(DAIR) 팀닛 게브루도 AI 능력이 인간 수준으로 높아졌다면 인간처럼 실수할 가능성이 있다고 경고했다. 게브루는 일례로 페이스북 AI가 ‘좋은 아침’이라는 아랍어를 영어로 ‘그들을 해쳐라’, 히브리어로는 ‘그들을 공격하라’로 잘못 번역해 글 작성자인 팔레스타인 사람이 이스라엘 경찰에 잡혀가도록 한 일화를 들었다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]