앞서 과기정통부와 인공지능(AI) 기업들은 급속도로 발전하는 AI의 윤리적·법적 우려에 대응하기 위해 생성 AI 분야별 가이드라인 마련과 AI 생성물 워터마크 삽입 등 기술적·제도적 기반을 만들기로 발표한 바 있다.
국제인공지능윤리협회는 성명을 통해 "최근 진일보한 생성 AI 기술이 등장하고 인공지능이 빠르게 대중화되면서 이에 따른 윤리적, 법적 문제가 증가하고 있다"며 :윤리와 제도가 뒷받침되지 않은 기술은 안전성과 신뢰성이 위협받게 된다"고 말했다.
협회는 "이러한 상황에서 생성 AI 분야별 가이드라인 마련, AI 생성물 워터마크 삽입, 민간 자율 AI 신뢰성 검·인증, 고위험 영역 AI 개발·실증과 같은 기술·제도적 기반 구축은 AI의 윤리성과 신뢰성을 강화하는 중요한 단계"라면서도, AI 윤리에 관한 인식의 확산과 AI 윤리 관련 업무를 수행할 수 있는 전문 인력의 양성이 병행돼야 한다고 강조했다.
전창배 협회 이사장은 "최근 생성 AI를 악용해 사기 범죄나 정치적 명예훼손 등으로 악용하는 사례들이 늘어나고 있다"며 "생성 AI를 이용해 만든 콘텐츠를 경제적·정치적 목적으로 활용할 경우에는 사전에 AI로 만들었음을 고지하고 워터마크를 표시하도록 하는 제도를 시급히 마련할 필요가 있다"고 강조했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지