[2023 사이버보안] 엄정용 LG CNS 담당 “챗GPT 보안 위협, 민감 정보 사전 통제·모니터링해야”

엄정용 LG CNS 보안사업담당이 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스′에 참석해 ‘생성형 AI 활용을 위한 보안 방안’을 주제로 강연하고 있다./조선비즈

“보안 관점에서 바라봤을 때 생성형 AI(인공지능) 서비스인 ‘챗GPT’를 사용하지 않는 게 가장 좋은 방법입니다. 하지만 부득이하게 챗GPT를 써야한다면 사전에 프롬프트(명령어)에 주요 정보가 포함되지 않도록 통제하고, 지속적으로 프롬프트 정보를 모니터링하는 작업이 필요합니다.”

엄정용 LG CNS 보안사업담당은 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스′에 참석해 ‘생성형 AI 활용을 위한 보안 방안’을 주제로 한 강연에서 이같이 말했다. 챗GPT는 서비스 특성상 데이터에 프롬프트 정보를 저장하고, 특정 프롬프트만을 제거하는 것이 어렵다. 때문에 기업과 개인의 민감정보가 의도치 않게 타인에게 유출되고 활용될 수 있어 논란이 불거지고 있다.

엄 담당은 “임직원이 프롬프트에 민감한 정보를 입력할 경우 이를 사전에 필터링한 후 챗GPT에 연결되도록 해야 한다”며 “민감한 정보 입력할 경우 별도의 AI 모델을 통해 보안관계자에게 이를 통보하도록 시스템을 구축해야 한다”고 말했다. 그는 “이러한 과정은 챗GPT에서 서비스해주지 않는다”며 “결국 기업이 별도로 보안에 신경써야 한다”고 덧붙였다. LG CNS가 선보인 AI 보안 솔루션 시큐엑스퍼(SecuXper)도 민감한 정보를 챗GPT에 입력했을 때 이를 걸러내주는 역할을 하고 있다고 그는 설명했다.

엄 담당은 애저(Azure) 오픈AI와 같은 기업 전용 생성형 AI서비스도 고려할만한다고 했다. 그는 “챗GPT의 문제점은 하나의 통일된 학습모델을 사용해 활용한다는 것”이라며 “전용 생성형 AI에서 제출된 프롬프트는 사용자가 별도로 데이터 사용을 허가하는 경우를 제외하고는 일반학습에 이를 사용하지 않는다”고 했다. 이어 “전용 생성형 AI는 악용 방지를 위해 정보를 30일간 보관하기는 하지만, 이를 기업 클라우드에만 보관한다”고 덧붙였다.

다만, 전용 생성형 AI서비스를 사용한다고 해서 보안을 신경 쓰지 않아도 된다는 이야기는 아니다. 사용자의 권한 관리와 클라우드 환경 보안은 필수다.

엄 담당은 “모든 임직원이 인사, 핵심기술, 전략에 똑같은 접근성을 갖도록 하면 안된다”며 “AI 활용 목적과 범위에 따라 프롬프트를 사전에 통제하거나 권한별 분석모델을 생성해야 한다”고 했다. 가령 기업은 전용 생성형 AI 모델에 임직원이 민감한 정보를 입력하는 것을 허용할 것인가를 판단하고, 허용한다면 인사, 연구개발 등 특정조직을 위한 별도 분석모델을 만들어야 한다는 이야기다.

그는 클라우드 환경보안에 대해서는 “기업 클라우드에 대한 권한을 제대로 통제하지 않으면, 퇴사자나 전임자가 회사 정보에 접촉을 시도할 수 있다”며 “접근권한 등 클라우드 자산에 대해 지속적인 보안 유지 활동이 뒷받침되어야 한다”고 했다.

엄 당당은 특히 클라우드에 존재하는 가상환경 관리 영역에 집중해야한다고 강조했다. 그는 “설정관리에 집중하지 않으면 인가받지 않은 사람이나 해커로부터 악용될 수 있다”며 “전통방식으로는 한계가 있어 여러 기업이 제공하는 이상징후 모니터링를 활용하는 게 좋고, LG CNS 역시 이를 사용하고 있다”고 했다.

#2023 사이버보안콘퍼런스

=안상희 기자

답글 남기기

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram