콘텐츠바로가기

뉴스인사이드

취재 뒷 얘기

'글로벌 AI 석학'이 말하는 '가사도우미 로봇' 개발 못 하는 이유

글자작게 글자크게 인쇄 목록으로

(고재연 산업부 기자) “현재의 딥러닝 기술로 우리가 얻게 된 것은 더 안전해진 차, 이 정도면 충분하다 싶은 번역 기술, 유용하기는 하지만 ‘멍청한’ 챗봇 정도입니다.”

페이스북의 인공지능(AI) 수석 엔지니어인 얀 르쿤 뉴욕대 교수는 12일 삼성전자가 주최한 ‘삼성 AI 포럼 2018’에서 기계가 사람처럼 학습을 통해 ‘상식’을 쌓고 미래를 ‘예측’할 수 있어야 한다며 이렇게 말했다. 알파고가 바둑에서 이세돌 9단을 이겼듯 게임 같은 특수 분야에서는 기계가 사람을 이길 수 있지만, 상식적으로 사고하고 미래를 예측할 수 있도록 하는 일반지능(모든 상황에서 일반적으로 두루 사용할 수 있는 지능)은 아직 한참 떨어진다는 의미다. 르쿤 교수는 세계 인공지능 ‘4대 석학’ 중 하나로 꼽힌다. 기계가 이미지를 보고 그 의미를 해석해내는 컴퓨터 비전의 핵심 기술인 ‘콘볼루션 신경망(convolutional neural network)’을 개발했다.

그는 ‘주변 상황을 관찰해 상식을 쌓고, 미래의 상황을 예측하는 기계를 만드는 것’이 AI 업계가 직면한 가장 큰 도전이라고 진단했다. 아기가 태어난 뒤 세상을 관찰하면서 자신도 모르는 새 엄청난 양의 지식을 학습하는 것처럼 기계를 성장시키는 것이 과제라는 것이다. 예를 들어 아기는 허공으로 던진 물건이 떨어지는 모습을 보며 중력이 존재한다는 상식을 능동적으로 학습한다. 그는 이런 학습 방식을 ‘자기지도 학습(self-supervised learning)’이라고 표현했다.

상식이 생기면 미래를 예측할 수 있게 된다. 하지만 기계는 잠시 후 발생할 사건을 예측하지 못한다. 접시를 놓치면 잠시 후 접시가 바닥에 떨어져 깨진다는 것을 예측하지 못하기 때문에 아직까지 가정부 로봇이 상용화될 수 없다는 것이다.

그는 학습의 종류를 △지도학습(supervised learning) △강화학습(reinforcement learning) △자기지도학습으로 나누어 설명했다. 개·고양이·자동차 같은 대상을 인식해 구별하고, 자동차를 운전하며, 문장의 의미를 파악할 수 있는 것은 ‘지도학습’ 덕분에 가능하다. 사람이 지속적으로 강아지 사진을 보여주면서 이를 강아지로 인식하도록 ‘지도’하는 방식이다. 이세돌 9단을 이긴 알파고의 학습 모델은 ‘강화학습’이다. 컴퓨터의 출력 결과에 따라 보상과 벌을 줌으로써 최선의 결정을 내리도록 학습한다.

르쿤 교수는 “강화학습 모델이 발전 중이지만 게임 등에서만 잘 작동할 수 있다는 한계가 있다”고 말했다. 강화학습으로 자율주행차를 훈련하려면 수천 회에 걸쳐 가로수와 충돌해야 한다. 하지만 인간은 20~30시간 운전을 연습하면 사고를 내지 않고 자동차를 운전할 수 있다. 가로수에 부딪히면 큰 사고가 난다는 것을 ‘예측’할 수 있기 때문이다. 르쿤 교수는 “상식을 가진 기계, 똑똑한 지능형 개인 비서, 설거지와 청소를 하는 가사도우미 로봇 등을 만나지 못하는 이유도 자기지도학습이 이뤄지지 않기 때문”이라고 설명했다.

자기지도학습은 아직까지 ‘미개척지’로 남아 있지만 이에 대한 연구는 조금씩 이뤄지고 있다. 그가 속한 페이스북 연구팀이 ‘생성적 적대 신경망(서로 경쟁하는 두 개의 인공 신경망을 활용해 진짜 같은 가짜를 만들어내는 기술)’을 통해 예측 능력 실험을 한 것도 일정 부분 성과를 냈다. 사람이 머리를 흔드는 비디오 프레임을 입력한 뒤 다음 프레임을 자동으로 생성하도록 했는데, 기계가 이전의 프레임을 활용해 반복 활동을 하는 프레임을 새로 생성했다. 기계도 학습을 통해 예측을 할 수 있다는 ‘가능성’을 확인한 것이다.

한편 그는 여러 인터뷰에서 공상과학 영화처럼 AI가 인류를 공격하고 지배하는 일은 없다고 강조해 왔다. 지배 의지와 지능 사이에는 아무런 관계가 없는 데다 인간이 지배욕을 가지는 것은 사회적 동물이기 때문이라는 것이다. (끝) / yeon@hankyung.com

오늘의 신문 - 2024.03.19(화)