[2023 사이버보안] 이원태 인터넷진흥원장 “초거대 AI 악용 보안 위협↑… 안전한 가이드라인 필요”

이원태 한국인터넷진흥원(KISA) 원장이 14일 '2023 사이버보안콘퍼런스'에서 강연하고 있다. /조선비즈

“챗GPT 등 초거대 AI는 혁신적인 기술이지만 기술적 한계와 부정적 평가가 존재한다.”

이원태 한국인터넷진흥원(KISA) 원장은 14일 서울 중구 웨스틴조선호텔에서 열린 ‘2023 사이버보안콘퍼런스’에서 이렇게 말하며 인공지능(AI) 시대의 사이버 보안 위협에 대응하기 위한 3가지 방안을 제시했다.

이 원장은 “초거대 AI는 거짓을 사실처럼 답변하거나 최신 정보는 반영하지 못하는 등 고유의 기술적 한계가 있고, 잘못된 정보가 활용되거나 기술을 악용하는 사례 등 역기능 우려로 인한 부정적인 평가가 나온다”며 “초거대 AI의 안전한 활용을 위해 공평성, 투명성, 활용 적합성 등 다양한 요소들에 대한 평가 및 검증이 필요하다”고 했다.

그는 “사이버 공격·범죄에 활용될 가능성 역시 존재한다”며 “잠재적 위협이 존재하는 만큼 정부의 규제가 필요하다는 목소리도 나온다”고 했다. 현재 우리나라 정부는 챗GPT 활용 안내서를 발간하는 등 안전한 도입을 추진 중이다. 행정안전부는 챗GPT 활용방법 및 주의사항 안내서를 발간했고, 개인정보보호위원회와 KISA는 개인정보 이용 가이드라인을 마련했다.

이 원장은 ‘악용 가능성 및 잠재적 보안 위협에 대한 선제적 조치’를 강조했다. 그는 “증가하는 피싱 공격 대응을 위한 기술적 보안 대책 강화 및 교육을 추진해야 한다”며 “챗GPT를 이용한 악성코드 생성·배포에 대한 지속적인 테스트를 통해 위협 수준 분석 및 탐지·차단 방안을 마련해야 한다”고 했다.

이 원장은 이어 “안전한 활용 가이드라인을 마련해야 한다”며 “챗GPT 안전 활용지침을 마련해 무분별한 활용을 방지하고 결과물 오남용, 민감정보 유출 등을 완화해야 한다. 챗GPT 위험성에 대한 대국민 홍보·교육을 통해 인식제고 노력을 추진해야 한다”고 했다.

이 원장은 마지막으로 “초거대 AI 보안 대응 체계를 확립해야 한다”며 “챗GPT 등 초거대 AI 전반에 대한 종합적인 보안 프레임워크를 마련해야 한다”고 했다. 그는 “진화하는 AI 보안 위협에 대한 핵심 대응역량 또한 제고해야 한다”며 “여기에는 인력양성, 연구개발(R&D), 제도 정비 등이 포함된다”고 했다.

이 원장은 이날 AI 시대 보안의 방향성도 제시했다. 그는 “AI는 데이터를 수집하는 단계부터 모델 학습, 결과물 활용까지 모든 영역에서 보안 위협이 발생할 수 있다”며 “AI 모델과 서비스를 개발할 때 설계에서부터 보안을 고려할 필요가 있다”고 했다.

이 원장은 AI 개발사 등을 포함한 다양한 이해관계자와 함께 글로벌 경쟁력 강화를 위한 AI 보안 체계 마련도 촉구했다. 글로벌 빅테크 기업 의존도가 높은 다른 나라에 비해 우리나라는 전 세계에서 몇 안되는 초거대 AI 모델을 보유한 국가이기 때문이란 설명이다.

이 원장은 “AI는 막대한 부가가치를 창출하는 신산업 분야로, 챗GPT 등장과 함께 전세계적으로 관련 연구·투자가 가속화되고 있다”며 “혁신의 가치를 저해하지 않으면서 안전하게 활용할 수 있도록 균형적인 보안 정책 및 대응 체계 마련이 필요하다”고 했다.

#2023 사이버보안콘퍼런스

=박수현 기자

답글 남기기

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram