알고리즘 따른 콘텐츠 추천 기능
각종 분야에 광범위하게 적용돼
자신도 모르는 새 ‘필터버블’ 갇혀
사회 공론의장 붕괴·민주주의 위협
AI가 만든 가짜 뉴스·이미지 범람
특유의 학습기능 통해 정교하게 진화
이용자들 AI 기술 원리·작동 방식 등
시스템 이해해야 능동적 활용 가능
◆블랙박스에 갇힌 편향 알고리즘
알고리즘은 이미 우리 삶에 깊숙이 침투해 있지만 그 작동 원리의 불투명성 때문에 논란이 지속하고 있다. 이는 불공정한 경쟁, 인종과 성차별, 심지어 민주주의를 위협하는 문제까지 발생시킨다는 지적이다.
미국에서는 2016년 탐사보도 매체 프로퍼블리카가 보도한 ‘기계편향’ 기사에서 법원에서 채택한 재범 예측 프로그램 ‘콤파스’가 인종·성 차별적인 편향성을 지닌 알고리즘이라는 사실을 지적하면서 사회적으로 알고리즘의 편향성에 대한 논란이 커졌다.
최근 활용도가 높아지는 ‘면접 AI’는 취업준비생들에게 큰 혼란을 일으키고 있다. 2020년 국회 국정감사에서는 한 공공기관의 AI 면접 결과 최고 등급을 받은 지원자 다수가 탈락하는 등 그 측정 방법과 알고리즘에 대한 아무런 기술적 검토나 외부 자문이 없었다는 사실이 드러나 논란이 일기도 했다.
국내 한 AI 전문가는 “탈락 이유를 물으면 해당 기업도 답을 할 방법이 없다”며 “‘단지 기계가 사람보다 더 공정하다’는 대답을 들었다는 면접자들의 후기가 많다”고 했다.
유럽연합(EU)의 인공지능법안에는 고용, 승진·해고의 결정 등 노동자의 권리를 침해할 가능성이 있는 고위험 인공지능시스템에는 제한적인 범위 내에서 사용하도록 정한다. 또 판단 원리에 대해 투명성이 요구된다.
국민의 알 권리를 대변하는 뉴스의 추천 알고리즘을 두고도 우려의 목소리가 나온다. 김일우 서강대 대학원 법학과 박사는 ‘고위험 인공지능시스템의 기본권 침해에 관한 헌법적 연구’ 논문에서 “뉴스 자동추천 알고리즘은 선거나 국가의 중대한 정책 결정에 있어 해당 알고리즘을 통해 뉴스를 접하는 유권자들에게 편향적인 사고나 특정 정치적 판단을 유도할 수 있다”며 “건전한 여론 형성을 저해하고 민주주의 가치를 훼손시킬 수 있는 위험성이 있다”고 경고했다.
◆‘필터 버블’에 갇힌 민주주의
알고리즘 기술의 또 다른 문제는 시민들을 각자의 필터 버블 안에 가둔다는 것이다. 개인의 선택에 기반을 둬 특정 성향을 강화하며 발전하는 알고리즘은 개개인을 편향된 틀 안에 가두고 사회의 공론장을 붕괴시켜 장기적으로는 민주주의의 와해를 가져올 수 있다는 우려마저 낳고 있다.
AI의 발달에 부정적 영향이 수반되면서 이를 해소하기 위한 방안을 마련해야 한다는 목소리도 커지고 있다. 가장 요구되는 것은 이용자들의 문해력 제고다. 전문가들은 기존의 미디어 리터러시를 넘어서서 AI에 특화된 ‘AI 리터러시’를 높여야 한다고 조언한다.
AI 윤리 등에 대해 연구해 오고 있는 핀란드 알토(Aalto)대학교의 테무 레이노넨 뉴미디어디자인 및 학습 분야 교수는 특히 자본주의와 결합한 AI 알고리즘이 필터 버블을 극대화할 수 있다고 우려했다. 레이노넨 교수는 지난 6월9일 핀란드 헬싱키의 자택에서 진행한 인터뷰에서 “스스로 학습하는 AI 알고리즘은 자본주의 사회라는 배경에서 돈을 제일 잘 벌기 위한 방식으로 스스로를 최적화하게 된다. 그러다 보면 결국 사람들로부터 감정적인 반응을 얻어내거나 흥미 있는 정보에 빠지게 하기 위해 입맛에 맞는 필터 버블을 형성한다”고 지적했다.
그는 “지금의 리터러시 교육은 미디어에 표출되는 내용의 신뢰도에만 집중하거나 어떻게 광고가 집행되는지 등 보다 전통적인 미디어 리터러시 교육”이라며 “한발 더 나아가 이제는 콘텐츠를 생성하는 AI의 원리가 뭔지, 알고리즘이 어떻게 작동하는지 등 AI 시스템의 근본적인 부분까지 이해하고 이를 기반으로 능동적으로 AI를 활용할 수 있는 능력을 제고하는 ‘AI 리터러시’ 교육을 해야 할 때”라고 강조했다.
◆“AI 특성 맞춘 문해력 교육 필요할 때”
알토대 컴퓨터공학부의 니틴 소니 교수 역시 AI의 특성에 맞춘 리터러시 교육의 중요성을 강조한다. 그는 지난 6월5일 헬싱키 한 사무실에서 진행한 인터뷰에서 “AI가 수반하는 문제들은 정책이나 법만으로 모두 해결할 수 없다. 리터러시 교육의 경우에도 일방향으로 하는 건 의미가 없다”며 “이용자들이 AI 원리에 대한 이해를 기반으로 적극적으로 관련 정책과 문제를 이해하고 나아가 AI 시스템 디자인에 관한 담론에 직접 참여할 수 있는 수준으로까지 나아갈 수 있게 하는 것이 바람직하다”고 조언했다. 이어 “AI 자체를 선하다, 악하다 말할 수는 없고 하나의 ‘도구’로 보는데, 그렇기 때문에 사회가 책임감 있는 사용을 하는 게 그 무엇보다 중요하다고 생각한다”며 “결국은 사람이 AI에 대한 통제권을 잃지 않고 개인과 사회에 도움이 되는 방향으로 AI를 활용할 수 있게 하는 게 핵심이기 때문에 우리 같은 학자들도 AI 문해력에 중요하게 초점을 맞추고 있다”고 덧붙였다.
AI 리터러시 교육 과정도 개발되고 있다. 미국 뉴욕대 ‘책임 있는 AI 센터’는 AI 리터러시 교육 과정을 개발해 온라인에서 무료로 배포하고 있다. 교육 내용을 만화책으로도 만들어 누구나 쉽게 접할 수 있게 했다. 센터 소장인 줄리아 스토야노비치 교수는 “시민들의 AI 리터러시 수준을 향상하는 것은 한국 미국 등 전 세계 민주정부의 역할”이라며 “이를 통해 AI의 용도와 데이터 수집 범위, 규제 방안을 시민들 주도로 결정해야 한다”고 말했다.
이와 동시에 전문가들은 언론의 역할도 중요한 부분이라고 강조한다. 미국의 세 대학 기관이 합작해 설립한 ‘신뢰할 수 있는 AI 연구소’ 소속 데이비드 브로니아토프스키 조지워싱턴대 부교수는 “언론은 대중이 AI를 정확히 이해할 수 있도록 도와야 한다”며 “정확한 정보에 기반한 기사로 사회의 신뢰성을 높여야 한다”고 말했다.
.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]