2일 업계에 따르면 국내 상당수 대기업들은 챗GPT 등 생성 AI 기술을 각종 업무에 적용하는 것을 제한하고 있다.
챗GPT가 문서 작성과 데이터 분석, 인사, 총무 등 사내 정보 검색에 도움이 되는 것이 알려지면서 임직원들이 핵심 기밀 같은 대외비 자료나 개인정보, 기업의 민감한 데이터를 무심코 입력하는 사례가 늘어나고 있다. 이들 정보는 모두 챗GPT 운영사인 오픈AI에 전송되거나 반복적 학습을 통해 다른 이용자에게 유출될 수 있다. AI 개발사들이 입력된 정보를 활용하지 않는다고 해도 서버에 저장된 질문이 해킹되거나 오류로 일반에 공개될 가능성도 있다.
기업의 보안 이슈는 신제품 개발이나 수익으로 이어질 수 있는 민감한 사안들인 만큼 AI 기술 사용에 문을 걸어 잠근 기업들이 적지 않다. 반도체, 방산 등 정보 보안에 민감한 일부 업종은 사용 목적 등을 별도로 보고받은 후 제한적으로 AI 기술 사용을 허가해주거나 챗GPT의 질문당 입력 글자 수를 제한하는 등 조치를 취하고 있다. 삼성전자는 사업부별로 챗GPT 사용 범위를 제한했고 이를 위반하면 징계 조치를 취할 것이라고 경고했다. SK하이닉스도 챗GPT 사용이 필요하면 회사 승인을 받도록 했고 포스코는 내부 인트라넷을 통해서만 접속할 수 있다. 경영실적과 신제품을 비롯한 경영정보와 소스코드와 같은 연구정보를 챗GPT에 업로드할 수 없도록 제한하는 기업도 나오고 있다. 생산공장 현장에서 품질관리를 위한 AI 적용은 비교적 자유로운 편으로 알려졌다.
다만 AI 기술은 업무 시간을 단축하고 생산성을 끌어올릴 수 있다는 점에서 MZ세대를 비롯한 비교적 젊은 층 사이에 챗GPT를 쓰고자 하는 수요가 늘어나는 추세다. 업계 관계자는 "과도하게 의존하긴 어렵지만 짧은 시간에 더 나은 작업을 할 수 있고 실수를 걸러낼 수 있다"며 "사용 자체를 막는 것은 시대를 역행하는 흐름"이라고 말했다.
전문가들은 기업별로 보안 가이드라인을 만들면 업무 효율성을 높이는 동시에 정보 유출에 대비할 수 있다고 제언한다. 김형중 고려대 교수는 "단계적으로 기술적인 보안 정치를 마련하거나 데이터 등급 지정 등 보안 가이드라인을 마련할 수 있다"고 말했다.
김순석 한라대 교수는 "대기업은 정보 유출에 대한 우려를 줄이기 위해 자체 AI 플랫폼을 개발하고 있지만 체력이 약한 중소기업과 스타트업은 한계를 안고 있다"며 "정부가 산학연과 손잡고 AI뿐 아니라 운영체제, 데이터베이스 개발에 지속적으로 투자를 이어가야 한다"고 평가했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지