
카이스트 '사회를 위한 보건의료 분야 인공지능 활용 가이드' 공동 연구에 참여한 각국 대표 연구자들. (왼쪽부터) 김소영 KPC4IR 센터장, 고찬기 싱가포르국립대 리스크공공이해연구소장, 트레이시 브라운 센스어바웃사이언스 소장. [사진=카이스트 제공]
의사를 도와 환자를 치료하는 인공지능(AI) 기술이 나오고 있지만, AI의 판단을 신뢰할 수 있느냐는 의문이 제기된다. 독일에서 개발된 한 AI는 피부병변으로 암 발생 가능성을 인간 의사보다 더 정확하게 진단했는데, 이 AI가 피부색이 옅은 사람들의 데이터를 주로 학습했다면, 피부색이 짙은 환자를 제대로 진단하지 못할 가능성이 크다.
15일 한국과학기술원(KAIST, 이하 '카이스트')은 카이스트의 '한국4차산업혁명정책센터(KPC4IR)'가 싱가포르국립대학교의 '리스크공공이해연구소', 영국의 과학기술 비영리단체 '센스어바웃사이언스'와 함께 지난 1년간 국제 공동연구를 수행해, '사회를 위한 보건의료 분야 인공지능 활용 가이드'를 개발했다고 밝혔다.
카이스트 측은 AI 의료 서비스가 확대되면서 환자·의사 등 이해관계자들이 그 기반이 되는 데이터의 품질이나 분석 결과가 제대로 됐는지 확인하고, AI를 활용한 결정을 신뢰할 수 있는지가 화두로 떠올랐다고 지적했다. 이에 한국·싱가포르·영국의 전문가 30명이 국제 공동연구를 통해 세계 최초로 보건의료 분야 AI 활용을 위한 기술적인 가이드를 마련했다고 설명했다.
KPC4IR은 보건의료 분야에 적용되고 있는 AI 기술의 신뢰성을 확보하기 위해 더 많은 사람이 AI 기술의 책임성에 관한 질문을 던져야 한다는 문제의식을 바탕으로 이번 가이드를 제작했다. 책임성이란, AI 기술이 데이터의 편향성으로 현존하는 불평등을 악화시키지 않도록 주의하고 데이터의 정확성을 확보해 결과의 오류를 최소화하는 등의 노력을 의미한다.
연구진들은 가이드를 통해 의료영상 분석·진단 효과를 강화하고 빅데이터를 활용한 질병 예측과 임상적 의사결정, 신약 개발 분야 시간 단축 등 의료 분야에 AI 기술을 적용한 국내·외 사례를 제시했다. 또, 학습 데이터에 빠지거나 제외된 정보가 있으면 AI가 편향성을 나타낼 수 있고, 원래와 다른 의도로 사용 시 변수 간의 연관 관계와 결과를 오판할 수 있다고 경고했다.
카이스트 측은 "AI를 '지능적'이라고 표현하는 이유는 데이터를 단순히 검색하는 수준에 그치지 않고 숨어 있는 특정 패턴을 분석해 유의미한 자료로 추출하기 때문"이라며 "사람들은 AI의 의사결정이 냉철하고 객관적일 것으로 생각하지만, AI는 현실의 데이터를 바탕으로 학습해, 우리가 가진 사회적 편견·편향, 위험한 가정을 그대로 내재한 결과를 내놓을 수도 있다"라고 설명했다.
연구진은 신뢰성(reliability)을 중심으로 데이터의 품질·변수 등과 관련된 공정성 문제를 파악하고 기술의 정확성을 점검할 수 있는 다섯 가지 기준을 이번 가이드에 담았다. 또, 출처가 정확한 데이터 사용, 목적에 맞는 데이터 수집·선택, 제한 사항과 가정 명시, 데이터의 편향성 명시, 적절한 테스트 등이 이행됐는지 점검하기 위한 질문을 우리 사회가 질문해야 한다고 강조했다.
연구를 총괄한 KPC4IR은 이날 2021 KDD 국제 워크숍에서 이번 연구 내용을 발표했다. 가이드 전체 내용을 KPC4IR과 싱가포르국립대 리스크공공이해연구소 홈페이지에서 확인할 수 있다. 김소영 카이스트 KPC4IR 센터장은 "보건의료 분야에서 AI 기술이 충분히 견고한지 검증이 활발하게 이뤄지면 궁극적인 AI 기술 역량이 향상되고 신뢰할 수 있는 기준이 마련될 것"이라고 말했다.
이번 연구에 싱가포르 국립대학교와 기술기업 어피니디(Affinidi), 스페인 마드리드카를로스3세대학교, 영국 로이드선급재단과 가이앤드세인트토마스국가보건서비스재단 등에 소속된 전문가들이 참여했다. 국내에서 서울아산병원, 분당서울대병원 등 의료계와 카이스트 AI대학원과 바이오및뇌공학과, 과학기술정책연구원, 정보통신정책연구원, AI 솔루션 기업 뷰노 등이 함께했다.

사회를 위한 보건의료 분야 인공지능 활용 가이드. [사진=카이스트 제공]
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지