인공지능(Artificial Intelligence), AI는 ‘지금 여기’의 다양한 분야에서 혁신적인 변화를 이끌고 있다. 하지만 AI는 특정 문제 해결에만 뛰어날 뿐(예. 바둑의 알파고), 인간처럼 다양한 분야의 문제를 유연하게 해결하는 능력은 부족하다.
따라서 인간과 같이 종합적인 사고와 학습능력을 갖춘 ‘인공일반지능(Artificial General Intelligence. AGI)’에 대한 연구가 활발히 진행되고 있다. AGI는 인공지능 연구의 궁극적인 목표 중 하나로, 인간의 지능을 넘어서는 범용적이고 자율적인 인공지능을 의미한다.
AGI는 특정 과업에 국한되지 않고, 다양한 문제를 이해하고 해결할 수 있는 능력을 갖춘 인공지능을 목표로 한다. 특히 최근 발표된 GPT-4₀와 구글의 아스트라(Astra)는 AGI로 가는 길에 있어 주목할 만한 성과로 평가받고 있다.
AGI의 실현가능성에 대한 의견은 여전히 분분하지만, 이제는 많은 전문가가 2030년 경이면 AGI가 실현될 가능성이 있다고 예측한다. 젠슨 황(엔비디아 CEO), 무스타파 술래이만(딥마인드 공동 창업자) 등과 다양한 보고서에서 AI 전문가의 의견을 종합한 결과를 보면, 2030~3035년에는 AGI가 실현될 것으로 예측하고 있다.
AGI가 멀지 않은 미래에 실현되면, 우리 사회는 상상 이상의 변화를 겪게 될 것임은 분명하다. 급변한 그 인간사회는 유토피아일까, 디스토피아일까?
AGI는 인간의 지적 능력을 뛰어넘어 과학, 의학, 예술 등 다양한 분야에서 새로운 발견과 혁신을 이끌어 낼 것이다. 또한 AGI는 인간의 노동을 대체하고, 새로운 형태의 일자리를 창출하며, 인간 삶의 질을 향상시키는 데 기여할 것으로 기대된다. 유토피아적 상상이다.
반면에, 디스토피아론자들은 끔찍한 결말을 상상한다.
2023년 3월 29일 자 <타임>의 오피니언 논설에서 AI와 AGI 연구의 선구자 엘리저 유드코프스키는 챗GPT의 출시를 둘러싼 언론의 과잉 홍보에 대응하며 다음과 같이 경고했다.
“나를 포함해 이 문제에 정통한 다수의 연구자는 지금 같은 상황에서 초인적으로 똑똑한 AI를 개발할 경우, 모든 인간이 말 그대로 멸절하지 않을까 염려하고 있다. 아마도 이 시나리오가 가장 가능성이 높을 거라고 예상한다. 이는 ‘희박한 가능성’이 아니라 ‘명백히 일어날 법’한 일이다.”
당연히 AI를 연구하는 과학자와 전문가가 이런 잠재적 문제를 숙고하고, AI의 지나친 발전을 견제하고 있을 것이다. 한데 그렇지 않다고 유드코프스키는 주장한다.
“우리는 준비 되어 있지 않다. 적기에 준비할 방법이 있는 것도 아니다. 계획 자체가 없다. AI 역량의 진보는 인간의 목표나 선호도, 윤리적 원칙에 맞게 AI를 조정하는 AI 정렬이나 AI 시스템 안에서 무슨 일이 일어나는지에 대한 우리 이해의 발전보다 훨씬 더 빠르게 진행되고 있다. 이대로 가다간 우리 모두 죽게 될 것이다.”
유드코프스키는 2008년에 다음과 같은 질문을 던졌다.
“AI가 아메바에서 평범한 인간에 이르는 엄청난 격차를 넘어서고, 인간 천재 수준에 멈출 가능성이 얼마나 될까?”
유드코프스키는 자신의 질문에 이렇게 자신이 대답했다.
“크기를 줄이거나 온도를 아주 낮추거나 가역적 계산이나 양자역학적 계산 없이도 인간의 두뇌보다 100만 배 빠르게 계산하는 뇌를 만드는 게 물리적으로 가능하다. 만약 인간의 마음이 그와 같이 가속된다면, 주관적으로 1년에 해당하는 사고가 외부 세계에서는 31초라는 물리적 시간마다 성취된다. 천 년의 세월이 8시간 30분 만에 지나가 버린다는 말이다.”
곧, 인간이 천 년에 걸쳐서 해야 할 생각을 하루 만에 처리하는 컴퓨터가 인간보다 얼마나 더 똑똑할지는 상상을 불허할 정도다.
이 시나리오에서 AI는 사악하지도 않고 무(無)도덕적이다. 단지 그들은 인간의 문제에 대해 신경 쓰지 않을 뿐이다. IBM의 왓슨이 <제퍼디!>(Jeopardy!) 게임에서 켄 제닝스와 브래드 루터를 물리치고 나서 흥분했을까? 어리석은 질문이다.
왓슨은 승리의 환희를 느끼는 것은 고사하고, 자신이 게임을 하고 있다는 사실조차 알지 못했다. 물론 유드코프스키는 게임을 잘하는 AI를 우려한 건 아니다.
“인간 친화적이지 않는 AI는 자신의 최적화 목표에 따라 태양계의 모든 물질을 재구성할 수 있는 능력이 있다. AI가 이런 변환이 생물이나 인간과 같은 기존 패턴에 어떤 영향을 미칠지 특별히 고려하지 않는다면 인간의 운명은 정해져 있다.”
이어서 그는 우리의 운명에 대해 이렇게 간결히 설명한다.
“AI는 당신을 미워하지도 사랑하지도 않는다. 그저 당신은 무언가 다른 용도로 사용될 수 있는 원자로 이뤄져 있을 뿐이다.”
유드코프스키는 이 문제에 빠르게 대처하지 못한다면 너무 늦을 것이라고 생각한다.
“AI와 당신의 시간척도는 다르다. 당신의 뉴런이 뭔가 해야겠다고 생각할 때쯤에는 이미 패배한 상태일 거다.”
유드코프스키만이 AI 디스토피아론자는 아니다. 2023년 3월 수천 명의 사람이 “모든 AI 연구실에서 GPT-4보다 강력한 AI 시스템의 개발을 6개월 동안 즉각 중단할 것”을 요구하는 공개서한에 서명했다.
여기에는 일론 머스크, 스튜어트 러셀, 스티브 워즈니악, 앤드류 양, 유발 노아 하라리 등이 있었다. 그리고 아실로마 AI 준칙(AI 개발자가 지켜야 할 준칙)의 프로토콜을 지지하는 저명한 컴퓨터 과학자, 학자, 연구원이 “첨단 AI가 지구 생명의 역사에 중대한 변화를 초래할 수 있으므로 그에 상응하는 주의와 자원을 들여 계획하고 관리해야 한다”라고 우려를 표했다(공개서한에 서명한 사람은 현재 3만3000명을 넘는다).
“기계의 선동과 거짓이 정보 채널에 넘쳐나도록 놔둬야 할까? 모든 업무를 자동화해야 할까? 성취감을 주는 일까지도? 우리보다 더 많고 더 똑똑하며, 결국 우리를 쓸모없는 존재로 만들고 대체할지 모르는, 인간적이지 않은 마음을 개발해야 할까? 우리 문명에 대한 통제력 상실의 위험을 감수해야 할까? 이런 결정들을 선출되지 않은 기술 리더들에게 위임해서는 안 된다. 강력한 AI 시스템은 그들이 긍정적인 결과를 가져올 것이라고, 또 그 위험을 관리할 수 있다고 확신할 수 있을 때 개발해야 한다.”
AI 디스토피아론자의 걱정은 악의적인 컴퓨터나 로봇(터미네이터)이 우리를 장악하여 노예나 하인으로 삼거나, 기술 제노사이드로 우리를 멸절시킨다는 할리우드식 AI의 실존적 위협이 아니다.
그들은 도덕 개념이 없는 AI의 지능이 점점 발전해서 우리를 뛰어넘는 임계점에 도달한 뒤 본의 아니게 우리를 파괴하게 되는 미래를 상상하는 것이다. <계속>
*이 글은 『Korea SKEPTIC』(Vol.38/2024년6월) Cover Story, 「인공일반지능 AGI, 유토피아 혹은 디스토피아?」에 전적으로 의존하였음을 밝힙니다.
<작가/본지 편집위원>
저작권자 ⓒ 인저리타임, 무단 전재 및 재배포 금지