전재진 카카오엔터프라이즈 클라우드 AI/ML 개발 리더가 21일 서울 소공동 웨스틴조선호텔에서 열린 스마트클라우드쇼 2023에서 강연을 하고 있다./조선비즈
전재진 카카오엔터프라이즈 클라우드 AI/ML 개발 리더가 21일 서울 소공동 웨스틴조선호텔에서 열린 스마트클라우드쇼 2023에서 강연을 하고 있다./조선비즈

“이 사진에 나온 티셔츠와 잘 어울리는 바지를 추천해줘.”

“이미지 속 검은색 티셔츠와 잘 어울리는 바지를 찾으신다면, 어두운 색상의 면 또는 폴리 혼방 소재의 바지를 선택하세요.”

멀티모달(시각·청각 등 다양한 감각을 통해 정보를 주고받는 것) 인공지능(AI) 플랫폼에 검은색 티셔츠 이미지와 함께 위와 같은 명령어를 입력하니 아래 답이 나왔다. 이는 카카오엔터프라이즈가 진행한 한국어 LLaVA(대형 언어 및 시각 복합 모델) 실험 결과다. LLaVA는 시각 인코더와 대규모언어모델(LLM)을 연결해 시각 및 언어 이해를 가능케한 모델로, 카카오클라우드는 이를 타깃 모델로 잡고 한국어 학습 실험에 나섰다. 카카오클라우드는 AI 주요 연구 영역인 비전, 자연어 처리, 음성 부문에서 다양한 모델을 개발해 API(응용프로그램 인터페이스) 형태로 제공하고 있다.

전재진 카카오엔터프라이즈 클라우드서비스개발실 클라우드 AI/ML 기술개발 리더는 21일 서울 소공동 웨스틴조선호텔에서 열린 국내 최대 테크 콘퍼런스 ‘스마트클라우드쇼 2023’에서 “AI를 개발하기 위해서는 GPU(그래픽처리장치) 서버뿐만 아니라 컴퓨팅, 네트워킹, 스토리지에 대한 깊은 연구가 필요하다”며 “카카오는 단순히 기업과 연구소 등에 플랫폼을 제공하는 것 뿐 아니라 사용성을 명확하게 확인하기 위해 한국어 학습을 포함한 다양한 모델링을 진행하고 있다”고 말했다.

전 리더는 “AI 관련 언어 모델 학습에서 가장 어려운 점은 한국어 데이터가 적다는 점”이라며 “이에 카카오는 오픈 모델을 활용해 LLaVA에서 한국어 학습을 진행했다”고 말했다. 첫 실험 결과 사용자가 이미지와 명령어를 제시하고 간단한 답변을 받는 데엔 문제가 없었으나, AI가 이미지에 나타난 한글이나 국내 장소는 제대로 인식하지 못했다고 한다.

전 리더는 “한국어를 잘 인식하는 모델을 만들기 위해 20억장에 이르는 다국어 데이터 중 한국어 비율 50% 이상, 250음절 이내 길이의 데이터를 뽑아 추가 모델링 실험을 진행했다”며 “여기에 한국 이미지를 추가로 제공해 사전 학습과 파인튠 과정을 거쳐 한국어로 훨씬 자세한 이미지 기반 정보를 얻을 수 있었다”고 설명했다.

전 리더는 “이처럼 LLM 모델뿐 아니라 멀티모달 모델의 중요성이 점점 더 커지고 있는데, 카카오 클라우드는 이런 멀티모달을 개발한 경험이 충분하다”며 카카오 클라우드의 강점으로 효율적 학습 환경 관리, AI 모델 개발 및 배포 파이프라인, 동적 자원 할당 및 대규모 분산학습 지원을 꼽았다. 그는 “카카오 클라우드 머신 러닝은 실시간 스케일 인·아웃으로 유연한 개발 환경을 제공하고, AI 프레임워크를 통해 빠르게 모델을 검증할 수 있다”며 “카카오 클라우드의 숱한 경험을 토대로 외부 기관, 회사 등과 협업을 지속해 좋은 모델을 개발할 수 있도록 계속 노력하겠다”고 말했다.

#스마트클라우드쇼 2023

=최지희 기자

박경 SK하이닉스 메모리시스템솔루션 담당(부사장)이 21일 서울 중구 웨스틴조선호텔에서 진행된 ‘스마트클라우드쇼 2023′에서 강연하고 있다./조선비즈
박경 SK하이닉스 메모리시스템솔루션 담당(부사장)이 21일 서울 중구 웨스틴조선호텔에서 진행된 ‘스마트클라우드쇼 2023′에서 강연하고 있다./조선비즈

박경 SK하이닉스 메모리시스템솔루션 담당(부사장)은 21일 서울 중구 웨스틴조선호텔에서 진행된 ‘스마트클라우드쇼 2023′에서 “다가오는 ‘오픈 컴퓨트 프로젝트 글로벌 서밋 2023(Open Compute Project Global Summit 2023)′에서 새로운 컴퓨터익스프레스링크(CXL) 기술을 공개한다”며 “여러 개의 서버가 하나의 커다란 메모리 풀에 연결되는 새로운 형태의 CXL 기술을 선보인다”고 말했다.

OCP는 전 세계 최대 규모의 개방형 데이터센터 기술 협력 협회로 매년 하드웨어와 소프트웨어 분야에서 오픈소스와 개방형 협업의 이점을 공유하고, 데이터센터 관련 기술 혁신 속도를 향상시키기 위해 만들어졌다.

이날 박 부사장은 ‘인공지능(AI) 시대를 위한 메모리 기술의 미래’를 주제로 AI 시대 메모리 반도체가 당면한 과제와 SK하이닉스의 고대역폭메모리(HBM), CXL 기반 메모리 등을 소개했다.

그는 “AI 서비스는 인터넷과 클라우드, 빅데이터 등 전 분야에 걸쳐 제공된다”며 “2030년에는 생성형 AI의 성능이 정점에 도달해 대부분의 영역에서 인간의 지능 수준에 버금갈 것”이라고 말했다. 이어 “어마무시한 데이터가 클라우드를 통해서 AI로 소비돼 인간에게 지능을 제공하는 형태 진화할 것이다. 지금의 클라우드 센터는 AI센터가 될 것”이라고 전망했다.

박 부사장은 “AI 기술이 발전하면서 처리해야 하는 데이터 양도 기하급수적으로 늘어났다”며 “지식을 패턴화해서 넣어야하는 공간이 1500배 늘어났고, 학습 데이터 양은 127배 증가했다”고 했다.

박 부사장은 늘어나는 데이터를 효율적으로 처리하기 위해서는 메모리 병목 현상을 극복하고, 연산과 메모리 사이의 데이터 이동을 감소시켜야 한다고 강조했다. 그는 “메모리에 연산 기능을 더한 프로세스인메모리(PIM) 기술이 적용된 GDDR6-AiM과 CXL에 연산 기능을 통합한 CMS(Computational Memory Solution)가 솔루션이 될 것”이라고 말했다.

그는 “생성형 AI의 대규모언어모델(LLM)은 고성능 그래픽처리장치(GPU)와 메모리가 필요하다”며 “SK하이닉스가 선도하고 있는 기술인 HBM은 낮은 지연 속도와 고대역폭을 요구하는 AI에 최적화됐으며, CXL 기반 메모리는 현재 메모리 시스템의 대역폭과 용량 확장 한계를 뛰어넘을 수 있다”고 말했다.

박 부사장은 “반도체 기술과 시스템 기술의 포트폴리오를 연결해 더욱 훌륭한 메모리로 좋은 기억을 만들도록 하겠다”고 했다.

#스마트클라우드쇼 2023

=전병수 기자

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram