최근 각종 혐오 발언과 개인정보 유출로 논란이 된 인공지능(AI) 챗봇 ‘이루다’ 사태의 재발을 막기 위한 AI 서비스 인증제도가 마련된다. 금전적, 기술적 한계가 있는 스타트업들이 AI 서비스에 문제가 없는지 진단하고 시험할 수 있는 플랫폼도 개발된다.
과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회(이하 4차위) 전체회의에서 이같은 내용을 담은 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다.
과기정통부는 2025년까지 추진할 3대 전략과 10대 실행과제를 제시했다. 먼저 이루다 사태의 재발을 막기 위해 AI 기술이 접목된 제품과 서비스를 구현할 때 참고할 수 있는 가이드북을 내놓는다. 개발사들은 이를 통해 관련법과 제도, 윤리, 기술적 요구사항을 파악할 수 있다.
또한 가이드북이 제시한 대로 서비스가 제대로 개발됐는지 검증하는 체계를 마련하고, 이를 통과한 제품과 서비스는 인증을 받는 제도도 도입한다. 과기정통부는 인증을 민간 자율에 맡기고 공시하도록 한다는 방침이다.
자금 상황이 열악한 기술 스타트업이 쉽게 서비스를 검증받을 수 있도록 지원하는 원스톱 플랫폼도 운영된다. 학습용 데이터를 지원하는 ‘AI 허브’ 플랫폼에서 AI 서비스를 테스트할 수 있는 기능을 추가한다는 계획이다.
과기정통부는 AI가 스스로 판단 기준을 설명하고, 법과 제도, 윤리적 편향성을 진단하고 제거할 수 있는 원천기술 확보에도 나선다. 현재 2022년부터 2026년까지 650억원을 들여 관련 AI 기술을 개발하는 방안이 예비타당성 조사를 통과했다.
이외에도 기업들이 활용하는 학습용 데이터가 적합한지 검증하는 지표를 개발하고, 얼굴 인식 AI와 같이, 범죄에 남용될 수 있는 위험 기술에 대해선 서비스 제공 전에 이용자에게 관련 내용을 고지하도록 한다는 방침이다. 앞서 이루다는 이용자들의 데이터를 무분별하게 학습해 각종 혐오 표현을 하게 됐다는 비판을 받았다.
조경식 과기정통부 2차관은 “이루다 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는 지 많은 숙제를 안기는 계기가 됐다”며 “기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나, 이로 인해 국민이 피해를 보지 않도록 인공지능 신뢰성 확보 기준을 명확화하겠다”고 말했다.
해외 주요 국가도 AI 서비스의 신뢰성을 확보하기 위해 관련 제도를 도입하는 추세다. 유럽연합(EU)은 지난달 고위험 AI를 규제하기 위한 ‘AI 법안’을 제안했고, 미국은 지난해 AI의 신뢰 확보를 위한 10대 원칙을 발표했다.
한편 이날 4차위는 사업자등록번호를 공공데이터로 개방해 다른 기업 데이터와 함께 활용토록 하는 방안을 심의했다. 또한 4차위는 블록체인과 AI 반도체 같은 미래 이슈를 논의하는 ‘4차위 미래 포럼(가칭)’을 월 1회 정기적으로 열고, 미래 교육과 고용 등을 다루는 연구반을 운영한다는 계획이다.
과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회(이하 4차위) 전체회의에서 이같은 내용을 담은 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다.
과기정통부는 2025년까지 추진할 3대 전략과 10대 실행과제를 제시했다. 먼저 이루다 사태의 재발을 막기 위해 AI 기술이 접목된 제품과 서비스를 구현할 때 참고할 수 있는 가이드북을 내놓는다. 개발사들은 이를 통해 관련법과 제도, 윤리, 기술적 요구사항을 파악할 수 있다.
또한 가이드북이 제시한 대로 서비스가 제대로 개발됐는지 검증하는 체계를 마련하고, 이를 통과한 제품과 서비스는 인증을 받는 제도도 도입한다. 과기정통부는 인증을 민간 자율에 맡기고 공시하도록 한다는 방침이다.
과기정통부는 AI가 스스로 판단 기준을 설명하고, 법과 제도, 윤리적 편향성을 진단하고 제거할 수 있는 원천기술 확보에도 나선다. 현재 2022년부터 2026년까지 650억원을 들여 관련 AI 기술을 개발하는 방안이 예비타당성 조사를 통과했다.
이외에도 기업들이 활용하는 학습용 데이터가 적합한지 검증하는 지표를 개발하고, 얼굴 인식 AI와 같이, 범죄에 남용될 수 있는 위험 기술에 대해선 서비스 제공 전에 이용자에게 관련 내용을 고지하도록 한다는 방침이다. 앞서 이루다는 이용자들의 데이터를 무분별하게 학습해 각종 혐오 표현을 하게 됐다는 비판을 받았다.
조경식 과기정통부 2차관은 “이루다 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는 지 많은 숙제를 안기는 계기가 됐다”며 “기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나, 이로 인해 국민이 피해를 보지 않도록 인공지능 신뢰성 확보 기준을 명확화하겠다”고 말했다.
해외 주요 국가도 AI 서비스의 신뢰성을 확보하기 위해 관련 제도를 도입하는 추세다. 유럽연합(EU)은 지난달 고위험 AI를 규제하기 위한 ‘AI 법안’을 제안했고, 미국은 지난해 AI의 신뢰 확보를 위한 10대 원칙을 발표했다.
한편 이날 4차위는 사업자등록번호를 공공데이터로 개방해 다른 기업 데이터와 함께 활용토록 하는 방안을 심의했다. 또한 4차위는 블록체인과 AI 반도체 같은 미래 이슈를 논의하는 ‘4차위 미래 포럼(가칭)’을 월 1회 정기적으로 열고, 미래 교육과 고용 등을 다루는 연구반을 운영한다는 계획이다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지