'양날의 검 AI'와 상생하려면...역기능 대비책 마련 시급

기자정보, 기사등록일
장하은 기자
입력 2024-09-05 17:05
    도구모음
  • 글자크기 설정
  • KISA·과기정통부 '2024 인공지능(AI) 시큐리티 데이' 개최

  • 부처·기업·학계 입 모아 "순기능 살리고 역기능 대비해야"

ㄴ
권일용 동국대 경찰사법대학원 겸임교수가 5일 서울시 용산 로얄파크컨벤션에서 개최된 ‘2024 인공지능(AI) 시큐리티 데이’에서 발표하고 있다. [사진=장하은 기자]
 
‘딥페이크’ 성범죄물 유포 사태가 최근 심각한 사회문제로 떠오른 가운데, 인공지능(AI)이 각종 범죄 수법을 더욱 교묘하게 진화시킬 수 있다는 우려가 나온다. 정부 부처와 학계, 기업의 관련 위협 대응을 체계를 철저히 해야 한다는 지적이다. 

과학기술정보통신부와 한국인터넷진흥원(KISA)은 5일 ‘AI가 만든 사이버 위협, AI가 막는 사이버 위협’을 주제로 ‘2024 인공지능(AI) 시큐리티 데이’ 세미나를 열었다. 

이날 서울시 용산 로얄파크컨벤션에서 개최된 세미나에는 이상중 KISA 원장을 비롯해 구민주 개인정보위원회 서기관, 이종민 SK텔레콤 부사장, 이호석 SK쉴더스 이큐스트 랩 팀장, 권순일 업스테이지 부사장, 권일용 동국대 경찰사법대학원 겸임교수, 김기범 성균관대 교수, 이근우 법무법인 화우 변호사 등 AI 담당 정부 부처와 기업 전문가들이 연사로 참석했다. 

연사들은 세미나에서 주로 AI 기술의 순기능과 역기능을 조명했다. 또 AI와 인간이 상생할 수 있는 안전한 환경 조성을 위한 다양한 사례와 방법을 공유했다. 

우선 국내 1호 프로파일러 권 교수의 ‘편리함의 역습’이라는 특별강연을 시작으로 △기업용 초거대언어모델(LLM) 도입 사례 △AI LLM 해킹 기법·보안전략 △진화하는 사기, AI 이상거래감지(FDS)로 막는다 △AI 범죄와 보안대책 △AI 기반 보안 기술·적용 사례를 주제로 발표가 이어졌다. 이후 △AI 개발·서비스를 위한 공개된 개인정보 처리 안내서 △생성형 AI 보안 위협 대응방안 △딥페이크 규제에 대한 대응 등 최근 발표된 주요 정책 현황이 공유됐다. 

특별강연에 나선 권 교수는 “AI로 인해서 벌어지는 수많은 사건이 예상되고 있는데, 범죄자들은 너무도 쉽게 개인정보들을 입수한다”며 AI 기술의 발전이 범죄에 악용되는 것을 막기 위해 보다 철저한 규제와 대응이 필요하다고 강조했다. 

AI를 이용한 문제가 사회 곳곳에서 발생하는 이유가 접근성이 쉬워졌기 때문이라는 시각도 나왔다. 생성 AI가 화두가 된 재작년부터 GPT 이후부터 얼마나 많은 데이터들이 생성되는지 리서치 기관들도 가정만 할 뿐 정확하게 구해내지 못할 정도로 그 양이 방대하다. 그만큼 이용자가 기하급수적으로 늘어났다는 의미다.  

2022년 11월 챗GPT가 출시된 후 AI 서비스 확산 속도가 심화하며 AI가 다양한 분야에 적용되면서 일상에 영향을 미치기 시작했다. KISA에 따르면 챗GPT는 출시 5일만에 100만명, 2개월 만에 1억명 이상의 월간활성이용자수(MAU)를 기록했다. 2000년대 등장한 구글 검색, 2010년의 모바일 사회관계망서비스(SNS)처럼 사회 전반에 새로운 변화를 일으켰다. 

생성 AI를 기반으로 하는 LLM·소형언어모델(sLLM)이 사용자에게 폭탄 제조 기술을 제공하거나 기업 기밀문서를 노출하는 등 보안상 위협도 커졌다. SK쉴더스 이 팀장은 “공급망에서 AI LLM도 오픈 소스를 굉장히 많이 쓰는데, 그 안에 악성 코드가 들어있다면 결국에는 내부망 침투로 각종 보안 사고가 일어난다”고 설명했다. 또 정교한 질문을 여러 차례 반복하는 방식으로 타 공유 권한이 없는 타 부서의 기밀문서를 빼내는 것도 그리 어려운 일은 아니라는 부연이다. 

AI 산업과 기술 개발·진흥책과 AI 시스템 보안을 강화하는 등 균형 있는 정책 수립이 필요하다는 진단도 나왔다. AI 비서 등 일상 속 조력자 역할, 행정·산업·교육 등 생산성 향상, 스미싱·스팸 등 디지털 범죄로부터 보호하는 등 AI 기술 발전의 긍정적인 효과가 커서다. 

‘AI 시대, 생성형 AI 보안 위협 대응방안’을 주제로 발표를 맡은 김성훈 KISA 팀장은 “생성 AI 보안 위협에 대비해 사이버 예방·대응 체계를 고도화하는 한편, 생성 AI 기술을 보안에 접목할 수 있는 방안을 모색해야 한다”고 말했다. 이어 “다만, AI 보안 위협 대응을 위한 준비는 철저히 하되, 성장 초기 단계에 접어든 AI 산업 발전을 저해하지 않도록 균형 있는 정책 시행이 필요하다”고 덧붙였다. 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
2024_5대궁궐트레킹
실시간 인기
기사 이미지 확대 보기
닫기