콘텐츠바로가기

뉴스인사이드

'지능 폭발'이 가져올 미래

글자작게 글자크게 인쇄 목록으로

컴퓨터 능력이 비약적 발전하며
곧 사람 능가하는 초지능 출현

생산성 향상·생태계 회복
인류의 외계 진출 가능성 키워

초지능이 인류 적대할 걱정 있어도
긴요한 기술 발전 늦춰선 안돼

복거일 사회평론가·소설가

1965년에 영국 수학자 어빙 존 굿은 “첫 초지능 기계(ultraintelligent machine)는 인류에 필요한 마지막 발명”이라고 단언했다. 초지능 기계가 자신보다 나은 기계를 설계할 수 있다는 점을 그는 지적했다. 그리고 그런 상황이 지능 폭발(intelligence explosion), 즉 컴퓨터 능력의 폭발적 향상을 부르리라고 예측했다. 요즈음 말로는 회귀적 자기향상(recursive self-improvement)이다.

굿은 2차 세계대전 때 영국 정보기구에서 앨런 튜링을 도와 독일군 암호인 에니그마(ENIGMA)를 해독하는 데 공을 세웠다. 전후에 그는 대형 컴퓨터 개발에 참여했고, 인공지능(AI)의 성격에 대한 창의적 논문들을 썼다. 그래서 스탠리 큐브릭이 영화 ‘2001: 스페이스 오디세이’를 만들 때, 원작자 아서 클라크와 함께 기술 자문에 응했다. 그 획기적인 영화의 핵심 요소는 편집증 증세를 보이면서 탑승한 사람들을 모두 죽이는 슈퍼컴퓨터다.

60년이 지난 지금, 굿의 ‘지능 폭발’ 예언이 실현될 가능성이 부쩍 높아졌다. 권위 있는 연구자들이 2027년까지는 AI가 인간 프로그래머를 따라잡으리라고 진단한다. 이미 여러 AI 연구소들에서 AI가 연구를 주도한다. 그래서 두 해 뒤엔 ‘너른 인공지능’, 즉 일반인공지능(AGI·artificial general intelligence)이 나온다는 얘기다. AGI는 사람처럼 여러 일을 두루 할 수 있는 AI다. 한 가지 일만 할 수 있는 ‘좁은 인공지능(ANI·artificial narrow intelligence)에 대비되는 개념이다. 회귀적 자기향상으로 이미 지능 폭발이 시작됐다는 얘기다. 이 과정은 물론 AGI에 머물지 않을 터라서, 그리 머지않은 미래에 사람의 지능을 뛰어넘는 초지능이 출현할 것이다.

이런 변화는 두루 그리고 지속적으로 세상을 보다 나아지게 할 것이다. 생산성의 향상은 인류의 삶을 풍요롭게 하고, 새로운 지식은 인류 문명을 보다 높은 경지로 밀어 올리고, 인류의 독선적 행태로 많이 손상된 지구 생태계는 차츰 회복될 것이다. 궁극적으로, 인류와 지구 생태계의 모든 다른 종들이 지구를 벗어나 외계로 진출할 것이다. 언젠가는 태양이 적색 거성이 되어 지구는 사라지고 태양계는 생명이 살 수 없는 곳으로 될 것이니, 우리는 지구 생명체들을 이끌고 외계로 나아가야 한다. 그 일은 초지능의 도움을 받아야 가능하다. 물론 걱정도 크다. 사람보다 지능이 뛰어난 종의 출현은 인류에 큰 현실적 및 심리적 충격을 줄 것이다. 그런 실존적 위기를 극복하는 일은 참으로 어려울 것이다. 그래도 우리는 초지능과 협력해서 그 일을 수행할 수 있을 것이다.

우리 마음을 든든하게 하는 점은 초지능이 비(非)생물적 존재여서 생물적 틈새를 놓고 인류와 경쟁하지 않는다는 사실이다. 지금 많은 사람이 초지능이 인류에 적대적일 가능성을 걱정한다. 도구적 수렴(instrumental convergence) 가설이 대표적이다. 어떤 궁극적 목표의 달성에 필요한 도구적 목표를 초지능이 궁극적 목표로 착각해서 인류에 큰 해를 입힐 수 있다는 주장이다. 이 가능성을 처음 제시한 사람은 미국 공학자 마빈 민스키였다. 그는 난제인 ‘리만 가설’을 푸는 목표를 가진 초지능이 그를 달성하는 데 필요한 거대한 컴퓨터를 만드는 데 지구의, 나아가서는 태양계의 모든 자원을 투입하는 상황을 제시했다.

이런 사고실험(thought experiment)은 본질적으로 비유이므로, 비현실적 가정들에 바탕을 두게 마련이다. 민스키가 든 상황의 경우, 거대한 컴퓨터가 단 하나의 임무를 위해 설계될 수는 없다. 모든 일을 다루는 컴퓨터를 만드는 것이 합리적이다. 그런 사정도 모르는 존재는 초지능이 아니라 저지능이다. 그리고 아무리 지능이 뛰어나더라도, AI가 어떻게 온 지구의 자원을 혼자 쓸 수 있겠는가?

초지능처럼 경이로운 기술의 출현은 당연히 많은 위험을 동반한다. 그런 위험들에 대비하려면, 먼저 헛된 위험들을 가려내야 한다. 헛된 위험들에 주목하면, 긴요한 기술의 발전을 늦출 따름이다.

오늘의 신문 - 2025.08.26(화)