세계적인 열풍을 일으키고 있는 생성형 인공지능(AI) '챗GPT'의 개발사 오픈AI 최고경영자(CEO)가 AI 기술의 파급력을 언급하며 그 위험성에 대해 말했다.
샘 올트먼 오픈AI CEO는 17일(현지시간) ABC뉴스와 진행한 인터뷰에서 "AI 기술에 실존적인 위험이 뒤따를 수 있지만, 이는 인간이 개발한 가장 위대한 기술이 될 수도 있다"고 말했다.
올트먼 CEO는 "우리는 매우 조심스러워야 한다"며 "사람들은 우리가 이것(AI 기술)을 조금 무서워하고 있다는 것에 기뻐해야 할 것"이라고 강조했다.
CNN은 기존 모델과 비교해 GPT-4의 가장 큰 차별점은 텍스트뿐 아니라 이미지를 보고 이해하는 능력까지 갖췄다고 분석했다.
또한 코딩에 대한 기본적인 지식이 없는 사용자들도 직접 게임을 제작할 수 있을 정도로 언어 능력이 향상됐다. 처리할 수 있는 단어량은 2만5000개 수준으로 기존보다 약 8배 늘어 미국 변호사 시험을 비롯한 각종 시험에서도 상위 10% 수준의 성적을 기록했다.
올트먼은 그러나 GPT-4에 대해 "완벽하지는 않다"며 "이러한 기술이 위험하게 사용될 수 있다는 두려움 때문에 밤잠을 이루지 못한다"고 ABC에 털어놨다.
그는 "AI 기술이 대규모 허위정보 유포에 사용될 수 있다"며 "(AI 기술은) 사이버 공격에 사용될 수 있다"고 우려했다.
그러면서 "우리와 달리 안전장치로 제한을 두지 않고 (AI 기술을 통제하려는) 사람들이 있을 수 있다"며 "사회가 이를 어떻게 다뤄야 할지 파악할 수 있는 시간은 제한적일 것"이라고 지적했다.
올트먼은 챗GPT가 이용자들에게 잘못된 정보를 전달하는 문제에 대해서도 입장을 밝혔다.
그는 "사람들에게 가장 주의를 주고 싶은 건 '환각(hallucination) 이슈'"라며 "이 모델은 완전히 지어낸 이야기를 사실인 것처럼 내세울 수 있다"고 언급했다.
따라서 오픈AI의 기술은 "팩트 데이터베이스가 아닌 추론 엔진"으로 봐야 한다고 그는 강조했다. '기억'보다는 '추론' 능력에 초점을 맞추고 있다는 것이다.
그는 GPT-4는 기존 'GPT-3.5'보다 정확성이 40% 이상 향상됐지만, 이를 정보의 주요 출처로 사용해선 안 된다고 경고했다.
다만 올트먼은 챗GPT 기술을 대중이 자유롭게 사용할 수 있도록 '피드백'을 모으는 작업의 중요성도 잊지 않고 짚었다.
그는 "이 기술을 비밀리에 개발하다가 갑작스럽게 'GPT-7'을 세상에 내놓을 경우 단점이 훨씬 많이 드러날 것"이라며 "사람들이 기술을 이해하고 단점을 파악하는 데는 시간이 걸린다"고 지적했다.
이 밖에 그는 AI가 일자리를 빼앗을 가능성에 대해 "인류는 거대한 기술적 전환에 완벽하게 적응해왔다"며 "하지만 한 자릿수의 해가 지나는 동안 기술전환이 일어날 수 있다는 점은 나도 우려되는 부분"이라고 말했다.
교육 과정에 챗GPT가 사용되는 데 대해서는 "개인별 학습을 가능하게 한다는 게 가장 흥분되는 지점"이라며 어떠한 영역에서든 일종의 '부조종사'(co-pilot)로 활용되길 바란다고 전했다.
샘 올트먼 오픈AI CEO는 17일(현지시간) ABC뉴스와 진행한 인터뷰에서 "AI 기술에 실존적인 위험이 뒤따를 수 있지만, 이는 인간이 개발한 가장 위대한 기술이 될 수도 있다"고 말했다.
올트먼 CEO는 "우리는 매우 조심스러워야 한다"며 "사람들은 우리가 이것(AI 기술)을 조금 무서워하고 있다는 것에 기뻐해야 할 것"이라고 강조했다.
CNN은 기존 모델과 비교해 GPT-4의 가장 큰 차별점은 텍스트뿐 아니라 이미지를 보고 이해하는 능력까지 갖췄다고 분석했다.
올트먼은 그러나 GPT-4에 대해 "완벽하지는 않다"며 "이러한 기술이 위험하게 사용될 수 있다는 두려움 때문에 밤잠을 이루지 못한다"고 ABC에 털어놨다.
그는 "AI 기술이 대규모 허위정보 유포에 사용될 수 있다"며 "(AI 기술은) 사이버 공격에 사용될 수 있다"고 우려했다.
그러면서 "우리와 달리 안전장치로 제한을 두지 않고 (AI 기술을 통제하려는) 사람들이 있을 수 있다"며 "사회가 이를 어떻게 다뤄야 할지 파악할 수 있는 시간은 제한적일 것"이라고 지적했다.
올트먼은 챗GPT가 이용자들에게 잘못된 정보를 전달하는 문제에 대해서도 입장을 밝혔다.
그는 "사람들에게 가장 주의를 주고 싶은 건 '환각(hallucination) 이슈'"라며 "이 모델은 완전히 지어낸 이야기를 사실인 것처럼 내세울 수 있다"고 언급했다.
따라서 오픈AI의 기술은 "팩트 데이터베이스가 아닌 추론 엔진"으로 봐야 한다고 그는 강조했다. '기억'보다는 '추론' 능력에 초점을 맞추고 있다는 것이다.
그는 GPT-4는 기존 'GPT-3.5'보다 정확성이 40% 이상 향상됐지만, 이를 정보의 주요 출처로 사용해선 안 된다고 경고했다.
다만 올트먼은 챗GPT 기술을 대중이 자유롭게 사용할 수 있도록 '피드백'을 모으는 작업의 중요성도 잊지 않고 짚었다.
그는 "이 기술을 비밀리에 개발하다가 갑작스럽게 'GPT-7'을 세상에 내놓을 경우 단점이 훨씬 많이 드러날 것"이라며 "사람들이 기술을 이해하고 단점을 파악하는 데는 시간이 걸린다"고 지적했다.
이 밖에 그는 AI가 일자리를 빼앗을 가능성에 대해 "인류는 거대한 기술적 전환에 완벽하게 적응해왔다"며 "하지만 한 자릿수의 해가 지나는 동안 기술전환이 일어날 수 있다는 점은 나도 우려되는 부분"이라고 말했다.
교육 과정에 챗GPT가 사용되는 데 대해서는 "개인별 학습을 가능하게 한다는 게 가장 흥분되는 지점"이라며 어떠한 영역에서든 일종의 '부조종사'(co-pilot)로 활용되길 바란다고 전했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지