[김재영 칼럼] 인공지능 아무리 완벽해도 인간에겐 결점이

기자정보, 기사등록일
김재영 교수
입력 2023-04-16 20:57
    도구모음
  • 글자크기 설정

[김재영 교수]


지난달 29일, 아주경제신문은 ‘2023 제1회 초거대 인공지능(AI) 포럼’을 서울 여의도에서 개최하였다. 다음날에는 ‘초거대 인공지능 공공부문 활용방안 세미나’가 세종정부청사에서 진행되었다. 인공지능에 대한 관심과 함께 국내 기업의 인공지능 경쟁력은 물론 우리 정부 역시 공공서비스 개선 및 업무처리 효율화를 위해 챗GTP와 같은 인공지능의 활용에 대한 발표가 이어졌다. 개인적으로 눈길을 끌었던 것은 보도자료 하단에 해당 보도자료는 챗GTP가 작성한 보도자료를 기반으로 하였다고 기재된 점이었다.

물론, 보도자료 전부를 챗GTP가 작성한 것은 아니었다. 행사 계획과 세미나 내용을 입력한 후, 제목선정, 공공부문 인공지능 적용 가능성 및 시사점에 대한 내용을 추천해 달라 요청하면 인공지능이 답변을 주고, 이중에 일부를 차용한 수준이었지만 업무의 효율화가 이루어질 수 있음을 보여주는 사례였다. 이처럼 문자나 음성 등의 콘텐츠 입력을 기반으로 학습하여 기존의 것과 유사한 콘텐츠를 생성하는 것을 생성형 인공지능(Generative AI)이라 한다.

하지만, 챗GTP와 같은 생성형 인공지능 등장이후, 효율성에 대한 가장 큰 고민은 학교에 있었다. 실제 미국과 유럽의 학생들이 과제에 인공지능을 활용하면서 불공정 및 표절 등에 대한 문제가 불거졌다. 결국 미국은 물론 프랑스의 일부대학에서는 학군 내 네트워크에서 챗GPT 접속을 차단하였으며, 표절검증프로그램을 통해 해당 글을 인공지능이 작성하였는지 찾아내고 있다. 학생이 스스로 공부해야 한다는 점에 있어서는 동의하나, 학생들의 학습경험을 박탈한다는 점에서 너무 선제적 범죄자 취급을 하는 것은 아닌지 심히 우려된다.

예전 마이너리티 리포트란 영화에서 유사한 상황이 발생하였다. 선제적 범죄 예방이라는 부분을 강조하며 아직 범죄를 저지르지 않은 사람들을 체포하는 내용으로 시작한다. 결국 스토리의 마지막에는 해당 시스템을 통해 아직 이뤄지지 않은 범죄로 수감되었던 인원들이 풀려나면서 영화가 끝이 났던 것으로 기억한다. 기억나는 영화 속 대사 중에 ‘시스템은 완벽할지 모르나 인간에겐 결점이 있다’는 부분이 지금의 챗GPT에 대한 문제 대한 설명으로 가장 적절할 것이라 생각된다.

우리나라에서도 미국과 같이 생성형 인공지능에 대한 학교의 우려가 높아졌다. 고려대학교에서 지난달 챗GTP와 같은 생성형 인공지능의 활용에 대한 가이드라인을 처음으로 공표하였다. 다행히도 가이드라인의 주된 내용은 챗GPT 전면금지와 같은 부정적 시각의 내용이 아닌 사용권리 보장 및 AI 윤리교육 등 긍정적인 활용을 기본으로 하고 있다. 또한 챗GTP가 부정확한 정보를 생산하는 점을 강조하며 학생의 비판적 사고 능력 향상의 필요성이 제기되었다.

이제껏 우리는 선생님을 통해 문제와 정답을 동시에 배웠다. 기존의 인공지능은 사과와 배 등 각각의 사진에 이건 사과이고 저건 배야 라는 이름을 선생님이 알려주었다. 인공지능에서는 이러한 방법을 지도학습(supervised learning)이라 부른다. 우리가 어려서부터 배워왔던 것처럼 선생님의 말씀을 철썩같이 믿었다. 반대로 만약 잘못된 내용을 학습하게 되면 우리는 잘못된 사실을 진실로 인식하게 되는 것이다. 우리가 일본 교과서의 역사 왜곡에 관심을 갖고 분개하는 이유이다.

인공지능의 발달 역시 이와 같은 문제를 내포하고 있다. 대표적으로 지난 대선에서부터 시작된 딥 페이크가 그 대상이었다. 실제 후보자의 음성과 모습, 동작을 따라하는 영상을 통해 우리는 아래에 인공지능이라는 말이 없었다면 실제 후보자가 한 것이라 생각했을지도 모른다. 이제는 우리가 더 잘 알고 있어야 한다.

하지만, 우리는 무엇이 사실이고 무엇이 거짓인지 판단하기 점점 더 쉽지 않다. 명확하게 알고 있는 경우에는 틀렸다 혹은 거짓이라 이야기할 수 있다. 인공지능의 발달에 따라 챗GPT는 잘못된 질문을 하면 이를 지적한다. 반대로 사용자가 답을 잘못했다 지적하면 이를 인정한다. 마치 사람이 답을 하는 것처럼 능수능란하게 답을 하다 보니 틀린 답을 하여도 사용자가 이를 알아채지 못하면 사실로 받아드릴 수 있다는 문제가 있다.

그렇다고 인공지능을 두려움의 존재로 볼 것인가? 이를 통한 문제는 가짜뉴스, 가짜영상 등으로 사회에 큰 영향을 미칠 것임에 틀림없다. 혹시라도 이로 인해 영화 마이너리티 리포트에서처럼 부정적 인식에 따른 선제적 대응을 강조하는 우를 범하지 않을까 우려스럽다.

기업들이 인공지능 제품을 쏟아내고 있으며, 최근 챗GTP 열풍은 인공지능에 대한 관심을 증가시키기에 충분한 조건을 만들었다. 대학에서 비즈니스인텔리전스란 수업을 진행하며 학생들에게 인공지능에 대한 이야기를 하고 있지만, 처음 학교에 왔을 때는 인공지능에 대해 이야기를 해도 학생들이 큰 관심을 가지지 않았다. KAIST의 전문가분들을 모시고 특강을 해도 ‘나 때는 말이야’의 이야기를 듣는 듯한 표정이었다.

하지만, 운이 좋게도, 알파고와 이세돌의 대결이후 학생들의 인공지능에 대한 관심이 전보다 높아졌다. 이후 매학기초마다 학생들에게 토론과 과제로 AI에 대한 인식을 물어본다. 부정적인 면 역시 고려하고 있지만 학생들에게 인공지능은 우리 삶을 풍요롭게 해줄 필요한 기술로 인식하고 있으며 아직은 기술의 미래에 대해 낙관적인 전망이 대다수이다.

그럴 때마다 학생들에게 이야기한다. 과거 처음 회계정보시스템이 도입되었을 때, 회계사와 세무사는 조만간 없어질 직업이라 예상했었다고 하면 믿지 않는다. 필름과 사진의 대명사였던 코닥이 디지털 카메라를 개발했었고 초기 조악한 화질의 사진을 누가 인쇄하려 할 지 모르겠다 했었으며, 작은 휴대폰 화면으로 누가 영화를 볼 생각을 하느냐는 의문을 가졌었다고 말해도 똑 같은 반응이다. 그때는 그랬다.

지금의 챗GPT 역시 마찬가지이다. 당장 두려워 할 필요도 미래를 뒤흔들 기술이라 기대할 것도 없다. 다만, 분명 챗GPT는 지금까지의 어떠한 도구보다 기계어가 아닌 자연어를 사용한다는 측면에서 사람에게 가까우며, 우리에게 새로움을 가져다 줄 훌륭한 도구라는 점에 의심의 여지가 없다. 도구는 사용되고 쓰임을 통해 성장하고 발전해 왔다. 과거의 우리가 그랬던 것처럼 말이다.

인공지능은 우리 생활에 많은 도움을 주지만, 혹시라도 이를 잘못 사용하여 억압을 위한 도구로 인식될 때, 영화속 대사를 기억하기 바란다. ‘시스템은 완벽할지 모르나 인간에겐 결점이 있다’. 인공지능을 만드는 사람도, 인공지능을 사용하는 사람도 그 어느때보다 신뢰와 윤리가 필요하다.


김재영 필자 주요 이력
▷고려대 경영정보학과 ▷고려대 경영학 박사 ▷한국정보시스템학회 이사 ▷4단계 BK21 융합표준전문인력 교육연구단장

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기