"세계는 인공지능(AI) 신뢰성 확보에 목 말라 있다. 과학기술정보통신부에 상정된 'AI기본법'은 9개에 달하지만 문제점이 많다. AI 관련 사고가 빗발치는 상황에서 예방을 위해 필요한 것은 개발자에 대한 윤리적 각성이 아닌 관리체계와 기술력 향상이다. 스타트업이 안정적으로 정착할 수 있도록 육성 방안이 마련돼야 한다."
박지환 이노비즈협회이사는 26일 '제16회 착한 성장, 좋은 일자리 글로벌포럼(2024 GGGF)'에서 'AI스타트업 육성을 위한 정부 지원 방안과 개선점'을 주제로 한 강연을 통해 이같이 말했다.
박 이사는 "지금껏 발생한 수많은 AI 관련 사고에서 데이터 부족이 원인이 된 적은 없었다"며 "편향되고 잘못된 데이터를 검증하는 기술이 부족했을 뿐"이라고 설명했다. 이어 "편향성과 불투명성에 대한 지적이 나오는 게 그 때문"이라고 덧붙였다.
'한국 AI기본법'에 따르면 고위험 인공지능 활용 사업자를 대상으로 고객과 사업자에게 책무를 부과하고 있다. 이에 박 이사는 "올바른 AI를 만들기 위해 법안도 많이 만들어졌지만 결국 가장 필요한 것은 기술력 향상"이라고 강조했다. 박 이사는 "편향성을 도덕적인 구호로 해결하려고 시도하거나 개발자들에 대한 윤리적 각성을 요구하기보다는 기술력을 높이는 데 주력해야 한다"고 부연했다.
인공지능의 오작동으로 안전사고가 빈번하게 일어나고 인명 피해로까지 이어지는 상황이다. 최근에는 불법합성물(딥페이크)을 활용한 범죄까지 기승을 부리고 있다. 이에 박 이사는 "세상에 나쁜 인공지능은 없다. 사고 원인은 학습오류의 오작동에 있다"고 설명했다. 그는 "이를 예방할 수 있는 관리체계 구축, 실질적으로 해결할 기술 개발, 보급이 필요한 시점"이라고 주장했다.
AI기술 전문기업인 씽크포비엘 대표인 박 이사는 개발자들을 대상으로 AI 신뢰성 교육을 실시했던 경험을 예로 들며 AI 교육체계 구축 필요성을 역설했다.
그는 "전 세계에서 인공지능 신뢰성 관련 교육을 실시하는 국가는 한국을 포함해 3개국에 불과하다"며 "올해 정부에서 세계 신뢰성 연구개발 과제가 나왔는데 신뢰성 과제가 나온 것은 처음이었다"고 설명했다.
박 이사는 "AI를 책임질 수 있는 기술이 따라와야 하다"고 거듭 강조했다. AI 신뢰성을 확보할 기술 개발 역할은 스타트업에 주어져야 한다고 박 이사는 설명했다. 그는 "올바른 AI를 개발하고 운영할 수 있는 기업이 강해질 수 있는 시대가 됐고 제도가 마련됐다"며 "AI 신뢰성 기술은 스타트업에 의미하는 바가 크다"고 했다.
박 이사는 "스타트업이 안정적으로 정착할 수 있도록 정부 차원의 정책적인 논의가 동반돼야 한다”며 “정부가 스타트업이나 소기업이 큰 무대로 나아가 역량을 발휘할 수 있는 시장 환경을 조성해줘야 한다”고 강조했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지