세계일보

검색

WHO “생성형 AI, 의료분야 사용 땐 엄격 검증해야” [뉴스 투데이]

입력 : 2023-05-17 18:21:11 수정 : 2023-05-17 18:21:10

인쇄 메일 글씨 크기 선택 가장 작은 크기 글자 한 단계 작은 크기 글자 기본 크기 글자 한 단계 큰 크기 글자 가장 큰 크기 글자

“그럴듯한 답변, 오류 있을 수도
공익·투명성 등 윤리원칙 살펴야”

구글, 신약개발 단축 솔루션 내놔
AI가 게놈 분석… 시간·비용 절약

세계보건기구(WHO)가 거대언어모델(LLM)을 의료 분야에 활용할 때 엄격한 검증이 필요하다는 성명을 16일(현지시간) 발표했다. LLM은 챗GPT, 구글 바드 등 최근 전 세계적 열풍을 일으키고 있는 생성형 인공지능(AI)의 기반이 되는 기술이다. 최근 의료 분야에서도 AI 활용 기대감이 커지고 있는 가운데 WHO가 신기술 활용에 조심스러운 접근이 필요하다는 입장을 밝힌 것으로 풀이된다.

스위스 제네바에 위치한 세계보건기구(WHO) 본부의 전경. AP연합뉴스

WHO는 성명에서 “의료 전문가, 환자, 연구자, 과학자를 지원하기 위해 LLM을 포함한 기술을 적절히 사용하는 것을 환영한다”면서도 “일반적으로 신기술에 적용되는 주의가 LLM에 대해서는 일관되게 적용되지 않고 있다”고 우려했다.

그러면서 “LLM은 최종 사용자에게 권위 있고 그럴듯하게 보일 수 있는 답변을 생성하지만 건강 관련 답변의 경우 완전히 부정확하거나 심각한 오류가 포함될 수 있다”고 지적했다. AI를 학습시키는 데 사용되는 데이터가 편향돼 오해의 소지가 있거나 부정확한 정보를 생성할 수 있다는 것. 성명은 이어 “LLM이 신뢰할 만한 건강 정보와 구별하기 어려운 콘텐츠로 허위 정보를 생성·유포하는 데 오용될 수 있다”고 짚었다.

WHO는 의료인과 정책 당국이 일상적인 건강 관리와 의약품 분야에서 LLM을 광범위하게 사용하기 전에 이 같은 우려 사항을 해결해야 한다고 강조했다. 사전 검증과 엄격한 감독의 필요성을 지적한 것이다.

아울러 보건 분야에 활용될 AI에 의료 윤리 원칙이 지켜지는지도 살펴야 한다면서 인간의 복지·안전·공익, 투명한 설명 가능성과 명료성, 자율성의 보호, 책임성, 포용성과 형평성, 응답성이 뛰어나고 지속 가능한 AI 등 6가지를 향후 의료 분야에 인공지능 기술 적용 시 지켜야 할 원칙으로 제시했다.

이번 성명은 지난달 미국 샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 존 W 에이어스 교수팀의 논문이 큰 반향을 일으키는 등 의료 분야에서도 AI 활용 기대감이 커지고 있는 가운데 나왔다. 이 논문을 위한 실험에서 연구진은 의사와 챗GPT에게 동일한 내과 분야 질문을 한 뒤 답변을 의료전문가들이 평가하도록 했는데 답변의 질과 공감도 모두 챗GPT가 훨씬 우수한 것으로 평가됐다.

구글 클라우드가 16일 신약 개발을 가속하고 정밀 의학을 발전시키는 데 도움이 되는 두 가지 AI 기반 도구 솔루션을 출시하기도 했다.

구글은 이미 대형 제약사인 화이자를 비롯한 여러 기업과 세레벨 테라퓨틱스 등 생명공학 기업들이 이 기술들을 사용하고 있다면서 이를 통해 신약 출시에 걸리는 시간과 비용을 크게 단축할 수 있을 것이라고 기대했다. 구글 클라우드의 생명과학 전략 및 솔루션 글로벌 디렉터인 슈웨타 마니아르는 “새로운 제품군을 통해 기업이 신약 개발 과정에서 통계적으로 상당한 시간과 비용을 절약할 수 있을 것”이라고 미 CNBC방송을 통해 밝혔다.


서필웅 기자

[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]

오피니언

포토

르세라핌 허윤진 '매력적인 눈빛'
  • 르세라핌 허윤진 '매력적인 눈빛'
  • 르세라핌 홍은채 '여신 미소'
  • 김혜수 '천사 미소'
  • 이세영 '하트 여신'