[인터뷰] ‘AI 석학’ 스튜어트 러셀 “자율주행 신뢰도 ‘텐나인’ 돼야… 10년 안에 대중화될 것”

스튜어트 러셀 교수가 지난 2017년 세계적인 지식 콘퍼런스 테드(TED)에서 강연하고 있다. /TED

사람처럼 생각하고 판단하는 자동기계에 인공지능(AI)이라는 이름을 최초로 붙여 ‘AI 아버지’로도 불리는 미국 스탠퍼드대 존 매카시 교수는 1950년대 말 자율주행차가 자신을 공항까지 태우고 오는 날이 언젠간 올 것이라고 상상했다고 한다. 그로부터 30년쯤 뒤인 1987년 자율주행 연구의 개척자로 꼽히는 에른스트 딕만 독일 뮌헨연방대 교수는 자율주행하는 메르세데스 벤츠 밴을 선보였다. 이 차는 스스로 운전하며 차선을 유지하고 다른 차를 따라가고 차선을 바꾸고, 심지어 추월할 수도 있었다. 30년도 더 흐른 2021년 현재 사실상 ‘완전 자율주행’으로 분류되는 4단계(미국자동차공학회 기준) 이상의 자율주행차는 아직 나오지 않았다. 안전한 자율주행은 왜 이렇게 요원한 것일까.


‘AI 분야의 교과서’로 평가되며 18개국, 1500여 대학에서 교재로 채택 중인 ‘인공지능’의 저자이자 미국 UC버클리 AI 연구소를 이끌고 있는 ‘AI 최고 석학’ 스튜어트 러셀 미국 UC버클리대 컴퓨터과학 교수는 조선비즈와 화상 인터뷰에서 “자율주행차는 단순히 도로 위 흰색 선을 따라가거나 앞차와의 거리를 정확하게 측정하는 것만으론 부족하다”라며 “신뢰도가 텐나인(99.99999999%) 수준은 돼야 한다. 10년 안에는 대중화가 되지 않을까 한다”라고 했다. 2030년은 돼야 자율주행차의 시대가 본격적으로 열린다고 보는 것이다. 많은 기술 낙관론자들과 비교하면 보수적인 전망이다.


그는 최근 국내에도 번역 발간된 ‘어떻게 인간과 공존하는 인공지능을 만들 것인가(원제 Human Compatible)’라는 제목의 책에서도 “차는 현재와 과거의 관측을 토대로, 보이지 않을 수도 있는 대상까지 포함해 관련된 모든 대상의 의도와 앞으로 나타날 가능성이 높은 궤적을 산정, 안전과 진행의 조합을 최적화할 궤적을 찾아야 한다”라며 완전 자율주행이 기술적으로 어려운 이유를 설명하기도 했다.


러셀 교수는 오는 28~29일 온라인으로 생중계되는 국내 최대 테크 콘퍼런스 ‘스마트클라우드쇼2021′의 둘째 날 기조연설 무대에서 영상으로 국내 독자들과 만날 예정이다. 과학기술정보통신부와 서울시가 주최하고, 조선비즈와 정보통신산업진흥원이 주관하는 콘퍼런스를 앞두고 그와 화상으로 먼저 만났다. 그는 AI가 하나둘 잠식해나가고 있는 일자리에 대해 ”삶을 향상시키기 위해 다른 사람과 관계를 맺는 대인관계와 관련해서는 일의 범주가 상당히 커질 수 있을 것 같다”라며 “다른 사람의 삶에 긍정적인 영향을 주는 법에 대해 많은 연구가 필요하다”라고 했다. 국내에서 논란이 된 AI 윤리 논쟁, 기업들의 초거대 AI 개발 경쟁에 대해서도 글로벌 최고 석학의 생각을 들어봤다. 다음은 일문일답.


―사람이 개입하지 않아도 되는 수준의 완전 자율주행 시대는 언제쯤 열릴까? 이걸 가로막는 장애물은 무엇이라고 생각하나.

“최초의 자율주행차가 1980년 말 시연됐다. 완전 자율주행이 왜 이렇게 오래 걸리느냐고 의문이 드는 게 맞다. 엄청나게 어려운 문제이기 때문이라고밖에 말할 수 없을 것 같다. 자율주행차는 단순히 도로 위 흰색 선을 따라가거나 앞차와의 거리를 정확하게 측정하는 것만으론 부족하다. 어떤 경우는 흰색 선이 없거나 3개가 있기도 하다. 차 앞에 있는 것이 차가 아니라 동물 등 다른 장애물일 수 있다.


5분간 자율주행을 시연하는 것은 아무런 의미가 없다. 자율주행차는 안정적으로 운전해야 하고 우리가 이걸 받아들이기 위해서는 신뢰도가 99.99999999%는 돼야 한다. 내가 1990년대 초 자율주행을 연구했을 당시 신뢰도는 99%가 채 안 됐다. 100대 중 1대에 대해선 차량이 완전히 인지하지 못했던 것이다. 지금은 많이 나아졌지만, 테슬라 자율주행차의 몇몇 사고를 보면 아직 갈 길이 멀다는 걸 알 수 있다. 도로 위에서 새로운 상황은 끊임없이 일어난다. 자율주행차는 예상치 못한 돌발 상황에 대비할 수 있어야 한다. 무슨 일이 일어나고, 일어날지 논리를 세워야 한다. 단순히 핸들을 제어하는 직선 기계학습에서 나아간 것이다. 구글의 자율주행 계열사 웨이모가 이런 접근방식으로 자율주행차를 개발 중이다. 다른 기업도 이런 방식을 따라야 한다. 난 예측하는 것을 좋아하진 않지만, 자율주행차가 널리 퍼지는 시기는 앞으로 10년을 넘기지 않을 것이라고 본다.”


―최근 한국에서는 사람들의 편향적인 사고를 학습한 AI 챗봇 ‘이루다’가 혐오·차별 발언 등을 쏟아내 논란이 된 바 있다. 어떻게 개발 단계에서부터 AI가 인간에게 이로운 방향으로 설계될 수 있을까.


“우선 해당 챗봇이 학습 데이터와 유사하게 응답하는 방식으로 설계됐던 게 잘못인 것 같다. 둘째는 챗봇에 주입된 학습 데이터가 나쁜 말들을 재밌어하면서 만들어졌다는 것이다(실제 이루다는 연인간 대화 데이터를 학습했다). 비유하자면 아이들이 앵무새에게 나쁜 말을 하게 하는 것이 재밌다고 생각하고 훈련시킨 결과를 낳은 셈이다. 챗봇은 설계 단계부터 유용하고 유익하며 불쾌하지 않은 목적으로 설정해야 한다. 챗봇이 실제 무엇을 위한 것인지부터 훨씬 더 정교하고 명확히 해야 한다.”

편향적인 시각으로 AI 윤리 논쟁을 낳았던 챗봇 '이루다'.


―글로벌 빅테크뿐 아니라 한국의 주요 기술기업 사이에서도 초거대(hyperscale) AI라 불리는 신기술 개발 경쟁이 벌어지고 있다. 기업이 원하는 모든 사업 분야에 바둑의 알파고 수준으로 응용할 수 있는 AI를 개발하겠다는 것이다.


초거대 AI에 대한 정의를 찾아봤다. 기업 중 일부는 방대한 데이터와 계산에 대해서 이야기하더라. 나는 초거대 AI가 기업의 많은 문제를 해결할 답이라고 생각하진 않는다. 비즈니스 의사결정을 예로 들어보자. 초거대 AI가 인수·합병(M&A)을 결정할 때 어떻게 도움이 될까? 대부분의 경우 활용할 만한 데이터가 없거나 있더라도 현재 고려 중인 특정 기업의 인수 또는 합병과는 관련이 없을 것이다. 회사의 모든 문제를 해결할 임원을 고용했다고 생각해보자. 그런데 이 임원이 회사의 비즈니스 영역에 대해 전혀 알지 못하고 의사결정에 대해서도 모른다면, 이 사람이 추천한 결정을 신뢰할 수 있겠는가? 아닐 것이다. 기업이 AI를 만능 해결사로 쓰기 위해서는 빅데이터와 머신러닝(기계학습) 기술만이 아니라 지식, 추론, 계획, 의사결정에 대한 기술도 필요하다.”


―AI가 더 빠르게 생활 속으로 들어오면서 우리 일자리도 점점 더 사라질 것이라는 의견에 동의하는가? 인간을 대체할 수 없는 일자리는 무엇이 있나? 새롭게 나타날 수 있는 일자리도 있을까.


“일자리는 굉장히 중요한 문제다. 정치인, 경제학자, 심지어 일반 대중 사이에서도 관련 논란이 많다. 많은 기술 지지자들은 AI가 새로운 일자리를 만들 것이니 걱정하지 말라고 한다. 하지만 만약 AI가 모든 반복적인 신체·정신 노동을 자동화한다면, 누군가는 도대체 인간이 할 수 있는 일이 뭐가 남았는지 설명해줘야 할 것이다.


아마도 그건 창조적이거나 사람의 관리가 필요하거나, 대인관계에 관한 것일 수 있다. 이 중에서도 삶을 향상시키기 위해 다른 사람과 관계를 맺는 대인관계와 관련해서는 일의 범주가 상당히 커질 수 있을 것 같다. 다른 사람의 삶에 긍정적인 영향을 주는 법에 대해서는 많은 연구가 필요하다. 새로운 직업군 개발을 위해 우리는 더 많은 사람을 데이터 과학자로 재교육해야 할 것이다. 미래에 일자리를 찾아야 할 사람의 수와 비교한다면, 아직 이 일을 할 수 있는 사람은 너무 부족하다.”


―그렇다면, AI 대중화 시대에 살아가게 될 후세대의 교육 중에서 가장 중요한 것이 무엇이라고 보나.


“논리적인 추론, 도덕적인 추론, 예측 등을 포함하는 AI의 핵심에 대해 아이들에게 훨씬 더 많이 가르쳐야 한다고 생각한다. 아이들이 AI의 일부라거나 AI 시대에 살도록 대비시켜야 하기 위해서가 아니라 그것이 정말 인간의 지능을 작동하게 하는 일부이기 때문이다.


우리는 수학에 많은 시간을 투자한다. 하지만 수학은 숫자에 대한 특정한 논리적 추론 중 하나일 뿐이다. 그리고 이것은 우리가 학교에서 가르치는 논리적인 추론이다. 하지만 다른 많은 종류의 논리적인 추론이 있다. 우리는 논리적인 추론의 일반적인 원리를 가르쳐야 하고, 이 원리를 설명하기 위해 수학을 사용해야 한다. 대인관계 직업이 미래에 중요해진다는 내 예상이 맞는다면, 우리들은 아이들을 준비시켜야 한다. 이는 과학, 기술, 공학이라는 표준적인 답과는 매우 다른 방향이다. 문제는 (연구 부족으로) 어떻게 하면 대인관계에서 이득을 얻을 수 있는지, 어떻게 다른 사람에게 가치를 전달할 수 있는지 등에 대해 가르칠 게 별로 없다는 것이다. 풍요롭고 생산적이며 충실한 삶을 사는 것이 무엇을 의미하는지, 어떻게 우리가 사람을 도울 수 있는지 등에 더 많은 투자를 해야 한다.”


―당신은 인간에게 이로운 방향으로 AI를 설계하면 인간과 공존이 가능하다고 보고 있다. 하지만 AI가 인간을 통제하거나 몰락시킬 수 있다는 우려도 지속적으로 나온다.


“어떻게 하면 우리 자신보다 강력한 실체에 대해 권력을 유지할 수 있을까? 이런 관점에서 접근한다면 기계가 순전히 우리 이익을 위해 작동하지 않는 한 (인간이 우위를 유지하는 것이) 불가능한 일처럼 들린다. 어떻게 기계의 목표가 인간의 목표와 완벽하게 일치하도록 할 수 있을까? 사람조차 진정한 목적을 알지 못한다. 하지만 그럼에도 인간의 목표를 추구하는 식으로 설계된 기계여야만, 안전하고 유익할 수 있다.”

스튜어트 러셀 UC버클리대 전기공학·컴퓨터학과 교수가 조선비즈와 화상으로 인터뷰하고 있다.

= 장우정 기자

답글 남기기

crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram