[2023 사이버보안] “초거대 AI, 보안 취약점 해결에 이점 많아… 균형감 있는 규제 필요”

14일 서울 중구 웨스틴조선호텔에서 ‘인공지능(AI) 시대의 사이버 위협’을 주제로 열린 ‘2023 사이버보안콘퍼런스’ 패널토의에서 좌장을 맡은 임종인(왼쪽) 고려대 정보보호대학원 석좌교수와 얀 쇼시타이시빌리 미국 애리조나주립대 교수, 이원태 한국인터넷진흥원(KISA) 원장이 토론하고 있다./조선비즈

“인공지능(AI)을 악용한 사이버 공격과 방어의 싸움은 창과 방패처럼 계속 이어지고 있다. 이런 싸움에서 AI의 혁신적인 가치를 지속 가능하게 이용하려면 섣부르게 AI 규제를 도입하기보다는 초거대 AI 시대에 걸맞은 새로운 지침이 전 지구적으로 마련돼야 한다.”

14일 서울 중구 웨스틴조선호텔에서 ‘인공지능(AI) 시대의 사이버 위협’을 주제로 열린 ‘2023 사이버보안콘퍼런스’ 패널토의에서 참석자들은 사이버 보안 분야에서 챗GPT를 비롯한 초거대 AI 활용과 규제는 균형 있게 추진해야 한다고 입을 모았다. 토의는 임종인 고려대 정보보호대학원 석좌교수가 좌장을 맡았고, 세계에서 가장 오래된 화이트해커 그룹인 ‘셸피쉬’를 이끈 얀 쇼시타이시빌리 미국 애리조나주립대 교수와 AI 관련 규범을 연구하는 이원태 한국인터넷진흥원(KISA) 원장이 패널로 참여했다.

쇼시타이시빌리 교수는 “챗GPT를 포함한 여러 거대 언어모델은 보안 문제 해결 능력이 뛰어나다”며 “아직 정보가 충분하지는 않지만, 현재까지 생성형 AI는 기술적인 측면에서 보안 모델의 취약점을 발견해 어떻게 해결해야 하는지를 잘 보여주고 있다”고 말했다.

이 원장은 “기존 산업에 적용한 규제처럼 AI를 규제하면 한국이 AI 경쟁력을 확보하는 데 큰 걸림돌이 될 수 있다”며 “AI 규제를 전통적인 산업 규제로 접근해선 안 된다”고 말했다. 그는 “초거대 AI의 가치를 제대로 활용해 보기도 전에 우리는 지금 유럽 등 해외 AI 규제 모델을 들여와 적용하는 측면이 강하다”며 “AI를 충분히 활용해 사이버 보안 방어에 활용할 수 있으므로 AI로 인해 유발된 위협을 균형감 있게 규제하려는 노력이 우선돼야 한다”고 말했다.

다만 참석자들은 챗GPT 등 생성형 AI를 악용해 사이버 공격의 기술 장벽이 점차 낮아지고 있다는 점에 우려를 표했다. 이런 피해를 최소화하기 위해 중장기적으로는 AI 활용 교육을 비롯해 AI 특성에 맞는 새로운 규제 체제를 마련해야 한다고 강조했다.

쇼시타이시빌리 교수는 “최근 사이버 공격 추세를 보면, 공격자의 스킬이 기술적으로 뛰어나지 않아도 쉽게 공격하는 경우가 늘고 있다”며 “현재 챗GPT 등은 사이버 공격에 대응하는 방어 태세가 어느 정도 잘 갖춰져 있지만, 어마어마한 자원을 방어에 투입해야 공격자와 같은 수준에 도달할 수 있다는 게 문제로 대두하고 있다”고 말했다.

그러면서 그는 “더 많은 자원을 투입해 생성형 AI의 방어 역량을 키울 필요가 있으며, 실제로 앞으로는 보안을 도와주는 툴이 더 많이 생겨날 것”이라고 말했다. 그는 또 “AI를 활용해 보안 전문가를 기르는 프로그램도 마련돼 있으므로, 이런 교육이 확산하면 AI 오용도 막을 수 있을 것”이라고 말했다.

이 원장은 “현재 정부 차원에서도 AI 활용 가이드라인을 마련하고 있으나, 개별 기업들도 AI 개발과 응용의 전 과정에서 보안을 적용하는 절차를 강화해 AI 시스템이 통합적으로 관리될 수 있는 체계를 구축하는 게 중요하다”고 말했다. 그는 “궁극적으로는 AI를 안전하게 활용하기 위한 기본적인 원칙들이 정책 개발자부터 사용자 모두에게 내면화되는 게 가장 중요하다”며 “정부에서도 AI 활용과 규제 규범에 대해 보다 적극적으로 목소리를 내 국제적 협력을 강조해야 한다”고 말했다.

#2023 사이버보안콘퍼런스

최지희 기자

답글 남기기

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram