“보안 관점에서 바라봤을 때 생성형 AI(인공지능) 서비스인 ‘챗GPT’를 사용하지 않는 게 가장 좋은 방법입니다. 하지만 부득이하게 챗GPT를 써야한다면 사전에 프롬프트(명령어)에 주요 정보가 포함되지 않도록 통제하고, 지속적으로 프롬프트 정보를 모니터링하는 작업이 필요합니다.”
엄정용 LG CNS 보안사업담당은 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스′에 참석해 ‘생성형 AI 활용을 위한 보안 방안’을 주제로 한 강연에서 이같이 말했다. 챗GPT는 서비스 특성상 데이터에 프롬프트 정보를 저장하고, 특정 프롬프트만을 제거하는 것이 어렵다. 때문에 기업과 개인의 민감정보가 의도치 않게 타인에게 유출되고 활용될 수 있어 논란이 불거지고 있다.
엄 담당은 “임직원이 프롬프트에 민감한 정보를 입력할 경우 이를 사전에 필터링한 후 챗GPT에 연결되도록 해야 한다”며 “민감한 정보 입력할 경우 별도의 AI 모델을 통해 보안관계자에게 이를 통보하도록 시스템을 구축해야 한다”고 말했다. 그는 “이러한 과정은 챗GPT에서 서비스해주지 않는다”며 “결국 기업이 별도로 보안에 신경써야 한다”고 덧붙였다. LG CNS가 선보인 AI 보안 솔루션 시큐엑스퍼(SecuXper)도 민감한 정보를 챗GPT에 입력했을 때 이를 걸러내주는 역할을 하고 있다고 그는 설명했다.
엄 담당은 애저(Azure) 오픈AI와 같은 기업 전용 생성형 AI서비스도 고려할만한다고 했다. 그는 “챗GPT의 문제점은 하나의 통일된 학습모델을 사용해 활용한다는 것”이라며 “전용 생성형 AI에서 제출된 프롬프트는 사용자가 별도로 데이터 사용을 허가하는 경우를 제외하고는 일반학습에 이를 사용하지 않는다”고 했다. 이어 “전용 생성형 AI는 악용 방지를 위해 정보를 30일간 보관하기는 하지만, 이를 기업 클라우드에만 보관한다”고 덧붙였다.
다만, 전용 생성형 AI서비스를 사용한다고 해서 보안을 신경 쓰지 않아도 된다는 이야기는 아니다. 사용자의 권한 관리와 클라우드 환경 보안은 필수다.
엄 담당은 “모든 임직원이 인사, 핵심기술, 전략에 똑같은 접근성을 갖도록 하면 안된다”며 “AI 활용 목적과 범위에 따라 프롬프트를 사전에 통제하거나 권한별 분석모델을 생성해야 한다”고 했다. 가령 기업은 전용 생성형 AI 모델에 임직원이 민감한 정보를 입력하는 것을 허용할 것인가를 판단하고, 허용한다면 인사, 연구개발 등 특정조직을 위한 별도 분석모델을 만들어야 한다는 이야기다.
그는 클라우드 환경보안에 대해서는 “기업 클라우드에 대한 권한을 제대로 통제하지 않으면, 퇴사자나 전임자가 회사 정보에 접촉을 시도할 수 있다”며 “접근권한 등 클라우드 자산에 대해 지속적인 보안 유지 활동이 뒷받침되어야 한다”고 했다.
엄 당당은 특히 클라우드에 존재하는 가상환경 관리 영역에 집중해야한다고 강조했다. 그는 “설정관리에 집중하지 않으면 인가받지 않은 사람이나 해커로부터 악용될 수 있다”며 “전통방식으로는 한계가 있어 여러 기업이 제공하는 이상징후 모니터링를 활용하는 게 좋고, LG CNS 역시 이를 사용하고 있다”고 했다.
“아시아태평양 지역은 지난 2년 동안 가장 많은 사이버 공격을 받은 지역입니다. 인공지능(AI)을 활용해 탐지 속도와 규모를 늘리고 정확도를 높여 사이버 위협에 선제적으로 대응해야 합니다. 그렇지 않으면 해커들은 취약점을 집중적으로 공략할 것입니다”
크리스 호킹스 IBM 시큐리티(IBM Security) 아시아태평양 지역 최고기술책임자(CTO)는 14일 서울 중구 웨스틴조선호텔에서 진행된 ‘2023 사이버보안콘퍼런스’에서 이같이 말했다. IBM 시큐리티는 IBM의 보안사업부다. 호킹스 CTO는 국제 공인 정보 시스템 보안 전문가(CISSP)로 지난 25년 동안 45건의 사이버 보안 특허를 받았는데, 2013년에는 IBM의 보안 특허 포트폴리오에 지속적으로 기여한 공로를 인정받아 ‘마스터 발명가(Master Inventor)’로 선정되기도 했다.
호킹스 CTO는 지난 3월 IBM 시큐리티가 낸 연례 보고서인 ‘엑스포스 위협 인텔리전스 인덱스(X-Force Threat Intelligence Index)’를 언급하면서 “공격자들은 다양한 인프라와 기술을 활용해 스피어피싱, 랜섬웨어 등의 공격을 하고 있다”며 “많은 정부 기관과 기업들이 피해를 입고 있고 이를 복구하고자 시간과 비용을 투입하고 있다”고 했다. 그러면서 “복구하는데 걸리는 시간을 줄이고 선제적으로 데이터 보호를 하기 위해서는 AI와 자동화의 도움을 받아야 한다”고 덧붙였다.
그는 “보안 전문가가 모든 상황에 개입하기는 어렵기 때문에 반복적인 작업 같은 경우 자동화가 필요하다. 사람은 좀 더 가치 있고 생산적인 일에 집중하면 된다”며 “AI를 활용해 사이버 위협 대응의 정확성과 속도를 높이는 것은 물론 보안관리 비용도 낮출 수 있다”고 했다. 또 “새로운 기술을 적용하는 게 쉽지 않은 일이기 때문에, 개방형 소스를 활용하면 위협 관리와 데이터 보안, 액세스 관리에 있어서 속도와 규모를 확보할 수 있을 것”이라고 했다.
호킹스 CTO는 많은 기업들이 자신들이 가진 인프라와 소프트웨어 자산에 대해 완전히 파악하고 있지 못하다고 지적했다. 그는 “보안 환경이 갈수록 복잡해지고 있는 가운데, 많은 기업들이 갖고 있는 인프라나 시스템이 통합돼 있지 않아 보안 담당자들이 위기 상황을 분석하는데 어려움을 겪고 있다”며 “데이터가 어디에 존재하는지, 어떤 흐름으로 이동하는지를 파악하는 것도 데이터 보호에 있어서 중요한 부분”이라고 말했다. 또 “클라우드와 서버 사이, 또는 데이터 베이스 사이에서 이동이 있을 때 사이버 공격이 발생할 수 있기 때문에 대비를 하는 것이 중요하다”고 말했다.
그러면서 “분절된 시스템을 통합해서파악하는데 AI와 자동화 시스템이 중요한 역할을 하고 있다”며 “보안 담당자는 효율적, 자율적으로 생산적인 업무를 할 수 있고 AI를 통해 발견된 지식은 보안 담당자는 물론 전사적으로 공유하는 것도 가능해졌다”고 말했다.
“챗GPT 등 초거대 AI는 혁신적인 기술이지만 기술적 한계와 부정적 평가가 존재한다.”
이원태 한국인터넷진흥원(KISA) 원장은 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스’에서 이렇게 말하며 인공지능(AI) 시대의 사이버 보안 위협에 대응하기 위한 3가지 방안을 제시했다.
이 원장은 “초거대 AI는 거짓을 사실처럼 답변하거나 최신 정보는 반영하지 못하는 등 고유의 기술적 한계가 있고, 잘못된 정보가 활용되거나 기술을 악용하는 사례 등 역기능 우려로 인한 부정적인 평가가 나온다”며 “초거대 AI의 안전한 활용을 위해 공평성, 투명성, 활용 적합성 등 다양한 요소들에 대한 평가 및 검증이 필요하다”고 했다.
그는 “사이버 공격·범죄에 활용될 가능성 역시 존재한다”며 “잠재적 위협이 존재하는 만큼 정부의 규제가 필요하다는 목소리도 나온다”고 했다. 현재 우리나라 정부는 챗GPT 활용 안내서를 발간하는 등 안전한 도입을 추진 중이다. 행정안전부는 챗GPT 활용방법 및 주의사항 안내서를 발간했고, 개인정보보호위원회와 KISA는 개인정보 이용 가이드라인을 마련했다.
이 원장은 ‘악용 가능성 및 잠재적 보안 위협에 대한 선제적 조치’를 강조했다. 그는 “증가하는 피싱 공격 대응을 위한 기술적 보안 대책 강화 및 교육을 추진해야 한다”며 “챗GPT를 이용한 악성코드 생성·배포에 대한 지속적인 테스트를 통해 위협 수준 분석 및 탐지·차단 방안을 마련해야 한다”고 했다.
이 원장은 이어 “안전한 활용 가이드라인을 마련해야 한다”며 “챗GPT 안전 활용지침을 마련해 무분별한 활용을 방지하고 결과물 오남용, 민감정보 유출 등을 완화해야 한다. 챗GPT 위험성에 대한 대국민 홍보·교육을 통해 인식제고 노력을 추진해야 한다”고 했다.
이 원장은 마지막으로 “초거대 AI 보안 대응 체계를 확립해야 한다”며 “챗GPT 등 초거대 AI 전반에 대한 종합적인 보안 프레임워크를 마련해야 한다”고 했다. 그는 “진화하는 AI 보안 위협에 대한 핵심 대응역량 또한 제고해야 한다”며 “여기에는 인력양성, 연구개발(R&D), 제도 정비 등이 포함된다”고 했다.
이 원장은 이날 AI 시대 보안의 방향성도 제시했다. 그는 “AI는 데이터를 수집하는 단계부터 모델 학습, 결과물 활용까지 모든 영역에서 보안 위협이 발생할 수 있다”며 “AI 모델과 서비스를 개발할 때 설계에서부터 보안을 고려할 필요가 있다”고 했다.
이 원장은 AI 개발사 등을 포함한 다양한 이해관계자와 함께 글로벌 경쟁력 강화를 위한 AI 보안 체계 마련도 촉구했다. 글로벌 빅테크 기업 의존도가 높은 다른 나라에 비해 우리나라는 전 세계에서 몇 안되는 초거대 AI 모델을 보유한 국가이기 때문이란 설명이다.
이 원장은 “AI는 막대한 부가가치를 창출하는 신산업 분야로, 챗GPT 등장과 함께 전세계적으로 관련 연구·투자가 가속화되고 있다”며 “혁신의 가치를 저해하지 않으면서 안전하게 활용할 수 있도록 균형적인 보안 정책 및 대응 체계 마련이 필요하다”고 했다.
“인공지능(AI)을 악용한 사이버 공격과 방어의 싸움은 창과 방패처럼 계속 이어지고 있다. 이런 싸움에서 AI의 혁신적인 가치를 지속 가능하게 이용하려면 섣부르게 AI 규제를 도입하기보다는 초거대 AI 시대에 걸맞은 새로운 지침이 전 지구적으로 마련돼야 한다.”
14일 서울 중구 웨스틴조선호텔에서 ‘인공지능(AI) 시대의 사이버 위협’을 주제로 열린 ‘2023 사이버보안콘퍼런스’ 패널토의에서 참석자들은 사이버 보안 분야에서 챗GPT를 비롯한 초거대 AI 활용과 규제는 균형 있게 추진해야 한다고 입을 모았다. 토의는 임종인 고려대 정보보호대학원 석좌교수가 좌장을 맡았고, 세계에서 가장 오래된 화이트해커 그룹인 ‘셸피쉬’를 이끈 얀 쇼시타이시빌리 미국 애리조나주립대 교수와 AI 관련 규범을 연구하는 이원태 한국인터넷진흥원(KISA) 원장이 패널로 참여했다.
쇼시타이시빌리 교수는 “챗GPT를 포함한 여러 거대 언어모델은 보안 문제 해결 능력이 뛰어나다”며 “아직 정보가 충분하지는 않지만, 현재까지 생성형 AI는 기술적인 측면에서 보안 모델의 취약점을 발견해 어떻게 해결해야 하는지를 잘 보여주고 있다”고 말했다.
이 원장은 “기존 산업에 적용한 규제처럼 AI를 규제하면 한국이 AI 경쟁력을 확보하는 데 큰 걸림돌이 될 수 있다”며 “AI 규제를 전통적인 산업 규제로 접근해선 안 된다”고 말했다. 그는 “초거대 AI의 가치를 제대로 활용해 보기도 전에 우리는 지금 유럽 등 해외 AI 규제 모델을 들여와 적용하는 측면이 강하다”며 “AI를 충분히 활용해 사이버 보안 방어에 활용할 수 있으므로 AI로 인해 유발된 위협을 균형감 있게 규제하려는 노력이 우선돼야 한다”고 말했다.
다만 참석자들은 챗GPT 등 생성형 AI를 악용해 사이버 공격의 기술 장벽이 점차 낮아지고 있다는 점에 우려를 표했다. 이런 피해를 최소화하기 위해 중장기적으로는 AI 활용 교육을 비롯해 AI 특성에 맞는 새로운 규제 체제를 마련해야 한다고 강조했다.
쇼시타이시빌리 교수는 “최근 사이버 공격 추세를 보면, 공격자의 스킬이 기술적으로 뛰어나지 않아도 쉽게 공격하는 경우가 늘고 있다”며 “현재 챗GPT 등은 사이버 공격에 대응하는 방어 태세가 어느 정도 잘 갖춰져 있지만, 어마어마한 자원을 방어에 투입해야 공격자와 같은 수준에 도달할 수 있다는 게 문제로 대두하고 있다”고 말했다.
그러면서 그는 “더 많은 자원을 투입해 생성형 AI의 방어 역량을 키울 필요가 있으며, 실제로 앞으로는 보안을 도와주는 툴이 더 많이 생겨날 것”이라고 말했다. 그는 또 “AI를 활용해 보안 전문가를 기르는 프로그램도 마련돼 있으므로, 이런 교육이 확산하면 AI 오용도 막을 수 있을 것”이라고 말했다.
이 원장은 “현재 정부 차원에서도 AI 활용 가이드라인을 마련하고 있으나, 개별 기업들도 AI 개발과 응용의 전 과정에서 보안을 적용하는 절차를 강화해 AI 시스템이 통합적으로 관리될 수 있는 체계를 구축하는 게 중요하다”고 말했다. 그는 “궁극적으로는 AI를 안전하게 활용하기 위한 기본적인 원칙들이 정책 개발자부터 사용자 모두에게 내면화되는 게 가장 중요하다”며 “정부에서도 AI 활용과 규제 규범에 대해 보다 적극적으로 목소리를 내 국제적 협력을 강조해야 한다”고 말했다.
“암호 알고리즘 기반 IT 보안, 양자컴퓨팅에 무너질수도”
조지훈 삼성SDS 보안연구팀장(마스터)은 다가오고 있는 양자컴퓨팅 시대에 대비해 양자내성암호 전환을 서둘러야 한다고 강조했다. 이르면 10년 내에 본격화될 수 있는 양자컴퓨팅 시대에 제대로 대비하지 못하면 기존 암호 체계를 기반으로 한 IT 보안 체계가 흔들릴 수 있다는 지적이다.
조지훈 마스터는 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스’에서 “현대 IT 시스템의 보안은 1976년 수학적 난제를 기반으로 한 암호 알고리즘을 바탕으로 설계돼 있다”며 “문제는 이 수학 문제를 풀 수 있는 양자컴퓨터가 개발되고 있기 때문에 이에 대비해야 한다”라고 설명했다.
조 마스터는 양자컴퓨팅 시대에 IT 인프라 보안을 지킬 수 있는 대안으로 양자내성암호를 언급했다. 양자내성암호란 기존 컴퓨터나 양자컴퓨팅 환경에서도 안전한 암호 알고리즘을 말한다. 오는 2024년 4종의 알고리즘이 1차 표준화가 완료될 예정이다.
그는 “전 세계 퀀텀 컴퓨팅 전문가 47명은 결론적으로 10년에서 15년 사이에 암호 알고리즘을 깨뜨릴 수 있는 양자컴퓨터의 등장을 예상했다”며 “아무도 챗GPT의 등장을 예측하지 못했던 것처럼 더 빠르게 등장할 수도 있기 때문에 지금 당장 이 문제를 우려해야 한다”고 말했다.
조 마스터는 “해외에선 양자내성암호와 관련한 가이드라인이 이미 나왔다. 각종 표준화 기구에서도 양자내성암호와 관련한 상세 문서가 여러 개 배포돼 있다”며 “지난해 미국 정부에서도 긴박하게 양자내성암호 전환과 관련한 계획 수립을 지시했다. 12월에는 법으로 관련 내용이 제정됐다”고 설명했다.
문제는 양자내성암호로 시스템을 전환하기 위한 비용과 시간이 만만치 않다는 것이다. 그는 “미국 정부도 (양자내성암호로) IT 시스템을 전환하는데 10년이 걸릴 것을 예상한다”며 “우선순위를 정해야 한다. 전환도 신중해야하지만 미리 내가 어떤 문제가 있는지 어떤 암호를 어떻게 쓰는지 식별하는 것이 먼저다”라고 강조했다.