
[사진=로이터·연합뉴스]
인공지능(AI) 도구를 훈련하는 데 사용되는 유명 데이터베이스에 1000개가 넘는 아동 성(性) 학대 이미지가 발견됐다는 보고서가 나왔다.
20일(현지시간) 워싱턴포스트에 따르면 미 스탠퍼드대 인터넷 감시소는 최근 발표한 보고서에서 '레이온(LAION)-5B'라는 인기 오픈소스 이미지 데이터베이스에서 최소 1008장의 아동 성적 학대 사진을 발견했다고 밝혔다.
'레이온-5B'는 영국 스타트업 스태빌리티 AI가 운영하는 '스테이블 디퓨전'과 같이 텍스트를 이미지로 변환해 주는 AI 모델이다. 레이온 측은 이 같은 논란에 "안전성을 확보하기 위해 문제가 되는 이미지를 제거하고 있다"고 밝혔다.
하지만 이미 들어간 데이터베이스에 AI의 사진은 새로운 아동 성 학대 이미지로 유통·재생성될 수 있다는 점이 우려가 나온다. 보고서를 작성한 데이비드 티엘 스탠퍼드대 인터넷 감시소 수석 애널리스트는 "AI가 기본적으로 이 이미지를 이용해 아동 성 학대 콘텐츠를 만들 수 있다"고 전했다.
AI 이미지 생성기를 이용한 사진 편집의 문턱이 낮아져 부작용을 만든다는 점이 우려 요인으로 거론된다. 아이들의 얼굴을 성인의 몸에 붙이는 것과 같은 불법 이미지가 만들어지고 유통되고 있다는 것이다.
다만 해당 이미지가 어떻게 데이터베이스에 들어갔는지 여부는 알려지지 않았다. 연구진은 데이터베이스 제작자들이 소셜미디어나 성인용 비디오 사이트, 공개된 인터넷에서 이미지를 수집하면서 실수로 추가된 것으로 보고 있다.
미 스탠퍼드대 인터넷 감시소는 이 같은 모습을 없애기 위해 아동 성 학대 콘텐츠와 당사자의 동의를 받지 않은 음란물을 데이터베이스에서 스크린하고 제거하기 위한 규약(프로토콜)을 마련해야 한다고 강조했다. 아울러 AI 훈련용 데이터베이스 자료는 더욱 투명하게 공개해야 한다고 지적했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지