‘2024 스마트클라우드쇼’ 패널 토의
“인간과 상호작용하는 로봇, 우리 생활 일부분 될 것”
“AI 위험성 커져 글로벌 차원 규제 및 협력 필요”
"로봇의 능력은 생성형 인공지능(AI)으로 급속히 발전하고 있으며, 이제는 인간과 자연스럽게 상호작용할 수 있는 시대가 머지않았다."
5일 서울 소공동 웨스틴조선호텔에서 열린 ‘2024 스마트클라우드쇼’ 패널 토의에서는 AI 로봇과 인간과의 상호작용, AI 발전에 따른 윤리적 문제 등이 다뤄졌다. 이날 패널 토의에는 짐 노팅엄 HP 첨단 컴퓨팅 솔루션 부문 수석 부사장, 아니메쉬 가그 조지아공대 교수, 케빈 바라고나 딥AI(DeepAI) CEO가 참석했다.
좌장을 맡은 유창동 카이스트 전기 및 전자공학부 교수는 AI가 우리 삶에 미치는 영향을 언급하며 토론을 시작했다. 그는 “AI는 이제 음악과 미술 같은 창의적 작업을 수행할 수 있을 만큼 발전했다”며 “AI가 앞으로 인간과 자연스럽게 상호작용할 날이 머지않았다”고 말했다.
그러면서 유 교수는 가그 교수에게 인간과 로봇이 언제쯤 어떻게 상호작용할 수 있을지 질문했다. 가그 교수는 “로봇이 인간과 협업할 수 있는 방식이 빠르게 발전하고 있으며, 현재의 기술 발전 속도로 보면 2년에서 5년 내에 상용화될 가능성이 높다”고 답변했다. 이어 “지난 10년간 로봇 기술이 급속히 발전해, 과거에는 불가능했던 옷 접기나 음식 손질과 같은 작업을 이제는 로봇이 수행할 수 있게 됐다”고 덧붙였다.
가그 교수는 자율주행차 연구의 발전을 예로 들며 “처음에는 제어와 계획에 중점을 두었던 연구가 이제는 세상을 이해하고 해석하는 문제로 발전했다”며 “이와 같은 변화가 대규모언어모델(LLM)에도 적용되고 있다”고 말했다. 그러면서 “LLM의 발전으로 조만간 인간과 자연스럽게 상호작용할 수 있는 로봇이 등장해 우리 생활의 일부분이 될 것”이라고 했다.
바라고나 딥AI CEO는 AI 개발의 윤리적 문제와 이를 해결하기 위한 글로벌 협력 방안에 대해 설명했다. 바라고나 CEO는 “AI의 발전이 빠르게 이루어지고 있지만, 그 과정에서 발생하는 윤리적 문제는 필연적이며, 이를 해결하기 위한 국제적 협력이 필수적”이라고 말했다.
그는 지난해 초 전 세계적으로 AI 훈련 실험을 잠시 멈추자는 제안을 했지만, 현실적으로 AI 개발 중단은 어렵다고 밝혔다. 바라고나 CEO는 “전 세계가 AI 발전을 원하고 있기 때문에 중단은 사실상 불가능하다”며 “AI가 더욱 강력해질수록 그에 따른 위험성도 커질 수 있으며, 이를 방지하기 위한 글로벌 차원의 규제와 협력이 반드시 필요하다”고 강조했다.
유 교수는 짐 노팅엄 수석부사장에게 AI의 신뢰성과 윤리적 사용을 위한 HP의 노력을 물었다.
노팅엄 수석부사장은 “HP는 AI 윤리 부서를 설립해 공정성과 신뢰성을 확보하기 위한 다양한 도구와 정책을 마련하고 있다”며 “AI 도구에는 편향성과 드리프트를 방지하고 환각 상태를 차단하는 기술이 포함되어 있다”고 밝혔다. 이어 “HP는 규제 산업에서도 AI 모델의 신뢰성을 검증하기 위해 파트너들과 협력하고 있다”고 덧붙였다.
노팅엄 수석부사장은 AI 개발자들이 협업하는 과정에서 발생하는 어려움과 이를 해결하기 위한 HP의 솔루션을 제시했다. 그는 “많은 AI 개발자들이 고성능 워크스테이션에서 작업을 하고 있다”면서 “HP의 AI 크리에이션 센터가 제공하는 AI 스튜디오는 데이터 과학자들이 다양한 인프라, 특히 클라우드 상에서 협업할 수 있는 통합 도구”라고 말했다.