인공지능과 인간의 능력
송성수(부산대 교양교육원 교수, 전 한국과학기술학회 회장)
인공지능의 진화
인공지능이 범용 기술로 부각되기 시작한 것은 최근의 일이지만, 사실상 인공지능 자체도 상당한 역사를 가지고 있다. 인공지능이란 용어는 1956년에 개최된 다트머스 회의에서 처음 채택되었다. 이후에 인공지능은 제1차 붐, 첫 번째 침체기(winter), 제2차 붐, 두 번째 침체기, 제3차 붐을 거쳐 왔다.
1956~1974년에 해당하는 제1차 인공지능 붐의 시기에는 컴퓨터로 수학적 추론을 하여 문제를 푸는 방식이 사용되었다. 이 시기의 인공지능은 ‘상징적 인공지능(symbolic AI)’로 불리기도 한다. 상징적 인공지능은 기호로 환원될 수 있는 문제는 잘 풀었지만, 실제 현실의 문제에는 능력을 발휘하지 못했고, 1970년대 중반에는 인공지능에 대한 투자가 급속히 위축되었다.
1980년대에는 ‘전문가 시스템(expert system)’이 활용되면서 제2차 인공지능 붐이 생겨났다. 전문가 시스템은 의사, 법률가, 과학기술자 등 전문가들이 가진 지식을 알고리즘으로 구현해 활용하는 방식을 채택했다. 그러나 지식을 서술하고 관리하는 작업이 엄청나게 방대하고 전문가 시스템의 유지보수가 매우 복잡하다는 점이 드러나면서 1987~1993년에 인공지능은 두 번째 침체기를 맞이했다.
인공지능은 1990년대 들어와 ‘기계학습’이란 이름으로 다시 부활했다. 기계학습은 컴퓨터가 외부의 프로그램에 좌우되지 않고 대량의 데이터를 바탕으로 스스로 학습을 수행하는 것을 의미한다. 1997년에는 IBM이 개발한 딥블루(Deep Blue)가 당시 세계 체스 챔피언이던 카스파로프(Garry Kasparov)를 물리쳤다. 이를 계기로 인공지능에 관한 기술 패러다임은 규칙 기반 인공지능에서 학습 기반 인공지능으로 변경되는 양상을 보였다.
더 나아가 2006년에는 ‘심층기계학습’으로 번역할 수 있는 ‘딥러닝(deep learning)’이 현실화되었다. 딥러닝은 여러 개의 은닉층(hidden layers)으로 구성된 인공 신경망을 활용한 것으로 하나가 아닌 복수의 층을 거치면서 보다 심도 있는 학습을 가능하게 한다. 구글 딥마인드가 개발한 알파고는 2016년에 이세돌과 5번을 겨뤄 4번을 이겼고, 2017년에는 알파고 마스터(AlphaGo Master)가 커제와의 대국에서 3전 전승을 거두었다.
이제는 인공지능에 심심찮게 접할 수 있는 세상이 되었다. 애플의 시리(Siri)는 개인 비서 노릇을 톡톡히 수행하고 있고, 아마존의 알렉사(Alexa)는 사용자들로부터 많은 청혼을 받기도 했다. 핸슨 로보틱스의 소피아(Sophia)는 얼굴 표정으로 수십 개의 감정을 표현하고 있으며, 일명 ‘리걸테크(legaltech)’로 불리는 인공지능 법률 서비스도 모습을 드러내고 있다. 급기야 2020년에는 오픈AI가 대량의 데이터를 기반으로 다양한 주제에 대해 대화할 수 있도록 개발된 챗GPT(Chat Generative Pre-trained Transformer)를 선보였다. 오늘날의 인공지능은 특정한 영역의 문제를 푸는 데 국한된 ‘약한 인공지능(weak AI)’으로 평가되며, 제조, 금융, 운송, 물류, 법률, 의료, 교육, 오락 등의 다양한 분야에서 활용되고 있다.
규격화된 업무에 탁월한 인공지능
인공지능의 능력에 관한 비유로 오랫동안 거론되어 온 것으로는 ‘모라벡의 역설(Moravec’s paradox)’을 들 수 있다. 로봇공학과 인공지능의 전문가인 모라벡(Hans Moravec)은 1988년에 발간한 『마음의 아이들(Mind Children)』에서 “기계는 사람이 어려워하는 일을 잘 하는 반면 우리에게 쉬운 일은 잘 처리하지 못한다.”라고 썼다. 그것은 이후에 “인간에게 쉬운 것은 컴퓨터 시스템에게 어렵고 인간에게 어려운 것은 컴퓨터 시스템에게 쉽다.”는 식으로 각색되었다. 이에 대한 예로 인공지능은 체스 대국에서 어른의 실력을 능가하는 모습을 보여주지만 운동 능력의 측면에서는 한 살짜리 아기에 상응하기 어렵다는 점이 줄곧 거론되어 왔다.
그러나 모라벡의 역설이 언제까지 유효할지는 의문이다. 두 다리로 뛰는 로봇이 등장하고 있듯, 최근의 인공지능은 딥러닝을 통해 인간의 지각 능력과 운동 능력도 빠른 속도로 익히고 있기 때문이다. 또한 인간에게 어려운 것이 인공지능에게 쉬운 것만은 아니라는 점에도 유의해야 한다. 예를 들어 새로운 문제를 정의하고 이에 대한 해법을 탐색하는 것은 인간뿐만 아니라 인공지능에게도 어려운 과제일 것이다.
MIT의 경제학자인 오터(David H. Autor)는 비유적 차원을 넘어 학술적 차원에서 자동화와 노동의 관계를 지속적으로 탐구해 왔다. 2003년에 오터, 레비(Frank Levy), 머네인(Richard J. Murnane)은 기술변화와 숙련 수준에 관한 경험적 연구를 발표했고, 그것은 세 사람의 이름을 따 ‘ALM 가설’로 불리고 있다. 이들의 연구는 인간이 특정 업무를 수행하는 데 필요한 숙련 혹은 교육의 수준이 기계가 그 업무를 수행하기 쉬울지 어려울지를 의미 있게 알려주지 않는다는 점에서 출발한다. 숙련 수준보다 더욱 중요한 잣대는 ‘규격화된 업무(routine task)’인지의 여부였다. 즉 기계는 규격화된 업무는 손쉽게 수행할 수 있지만, 그렇지 않은 업무에는 무력하다는 것이었다.
오터는 2011년에 에이스모글루(Daron Acemoglu)와 함께 쓴 논문에서 인간 노동을 인지노동(cognitive labor) 대 육체노동(manual labor), 그리고 규격화된 노동 대 규격화되지 않은 노동(non-routine labor)의 2×2 행렬로 나누어 실증 분석을 시도했다. 그 결과는 자동화가 진전되면서 인지노동이든 육체노동이든 간에 규격화된 노동에 대한 수요가 빠르게 감소한 것으로 나타났다. 또한 중간 임금 노동자가 수행한 노동에는 규격화된 업무가 많았지만, 저임금 노동자와 고임금 노동자의 노동은 그렇지 않았다. 결국 기계가 중간 부분에 몰려 있는 규격화된 업무를 잠식하면서 일자리의 양극화가 발생하는 셈이다.
여기서 규격화되지 않은 업무는 암묵적 지식, 즉 암묵지(tacit knowledge)에 의존하는 업무로 볼 수 있다. 암묵지는 영국의 과학자 폴라니(Michael Polanyi)가 1958년에 발간한 개인적 지식(Personal Knowledge)에서 처음 언급한 것으로 명확히 표현할 수는 없지만 어떤 일을 성취하는 데 필요한 일련의 노하우에 해당한다. 암묵지에 대비되는 개념은 명시지(explicit knowledge) 혹은 형식지(formal knowledge)인데, 그것은 문서나 매뉴얼을 통해 외부적으로 표출되는 성격을 띠고 있다.
유명한 과학기술학자 콜린스(Harry M. Collins)는 TEA 레이저(Transversely Excited Atmospheric lasers)에 대한 사례연구를 수행하면서 과학 활동에서 암묵지의 중요성에 주목했다. 캐나다의 국방연구소에서 개발된 TEA 레이저가 1970년에 학술지에 보고된 후 수많은 과학기술자집단이 이를 복제하기 위해 노력했지만, 문자로 표현된 지침서에만 의존했던 집단은 작동 가능한 TEA 레이저를 만들 수 없었다. 이와 달리 방문이나 전화를 활용하여 캐나다의 국방연구소와 접촉했던 집단은 레이저를 제작하는 데 성공할 수 있었다. 여기서 콜린스는 지식 전달의 모형을 알고리즘 모형(algorithm model)과 문화화 모형(enculturational model)으로 구분하고 있다. 알고리즘 모형은 지식이 컴퓨터 프로그램과 같은 일련의 명령들로 환원될 수 있다는 시각을 견지하고 있는 반면, 문화화 모형에서는 지식을 실천 이전에 주어지는 것이 아니라 사전에 확정될 수 없는 숙련, 습관, 절차 등으로 구성된 열린 체계로 파악하고 있다.
이러한 논의를 인공지능에 적용해 보면, 인공지능은 형식지는 잘 수행할 수 있지만 인간의 암묵지를 대신하기는 어렵다는 논변으로 이어질 수 있다. 즉 인공지능은 일련의 절차와 방법이 정해진 경우에는 상당한 능력을 발휘하지만, 그렇지 않은 경우에는 문제를 적절히 풀이하지 못한다는 것이다. 그것은 앞서 예를 든 과학 실험과 같은 인지적 성격의 노동은 물론이고 육체적 성격이 강한 노동에도 적용될 수 있다. 예를 들어 인간이 비교적 어렵지 않게 수행하는 머리 손질하기, 수건 개기, 밥상 치우기 등을 인공지능이 효과적으로 감당하기는 쉽지 않은 것이다.
그러나 암묵지의 일부분이 형식지로 전환될 수 있다는 점에도 유념해야 한다. 예를 들어 초밥은 오랫동안 장인(匠人)의 손길이 들어간 음식의 대명사로 간주되어 왔지만, 최근에는 초밥 로봇이 샤리를 만드는 사례도 등장했다. 일본의 회전초밥 체인점 구라스시(くら寿司)에서는 초밥 로봇이 밥알을 뭉쳐 먹기 좋은 크기와 모양의 샤리를 만들며, 샤리 위에 생선을 얹는 작업은 장갑을 착용한 직원이 담당한다. 밥알을 뭉치는 작업은 암묵지에서 형식지로 전환되어 로봇이 담당할 수 있게 된 반면, 생선을 얹는 작업은 여전히 인간의 암묵지로 남아 있는 셈이다. 물론 이후에는 생선을 얹는 작업 역시 형식지로 전환되어 인공지능이 담당하게 될지도 모른다.
인간 특유의 능력을 찾아서
그렇다면 인간의 암묵적 능력 중에 인공지능으로 대체하기 어려운 것에는 무엇이 있을까? 인공지능에 관한 많은 저술들이 공통적으로 주목하고 있는 인간 특유의 능력으로는 창의적 능력과 정서적 능력을 들 수 있다.
인공지능에게는 창의성이 있는가? 인간의 창의성이 잘 드러나는 분야로 간주되는 예술과 창작에서도 인공지능은 인간에 필적할 만한 수준에 이르렀다. 인공지능이 그린 그림, 인공지능이 작곡한 음악, 인공지능이 작성한 대본 등이 우수한 평가를 받았다는 기사가 연이어 보도되고 있는 것이다. 인공지능 화가가 그린 초상화가 크리스티 경매에서 높은 가격에 낙찰되었고 쥬크덱(Juke Deck)이란 벤처기업이 인공지능을 활용하여 만든 노래에 저작권까지 부여되었다는 사실은 인간 스스로가 인공지능의 창의성을 널리 인정하기 시작했다는 점을 보여준다.
그러나 인공지능의 창의성에는 일종의 한계가 있는 것으로 판단된다. 창의적 능력은 창의적인 문제를 제기하는 능력과 창의적으로 문제를 해결하는 능력으로 구분할 수 있는데, 인공지능의 창의성은 문제제기가 아닌 문제해결에 집중되어 있다. 인공지능은 주어진 문제를 해결하는 능력에 있어서는 인간에 필적하거나 인간을 넘어설 수도 있겠지만, 스스로 창의적인 문제를 제기하거나 정의하는 능력은 여전히 인간 특유의 영역으로 남아 있을 것이다.
정서적 업무는 인공지능이 대체하기 어려운 분야로 간주되곤 하지만, 정서적 능력을 갖춘 인공지능이 이미 현실화되고 있는 것도 분명한 사실이다. 예를 들어, 애플의 시리(Siri)는 개인 비서 노릇을 톡톡히 수행하고 있고, 아마존의 알렉사(Alexa)는 사용자들로부터 많은 청혼을 받은 바 있으며, 핸슨 로보틱스의 소피아(Sophia)는 얼굴 표정으로 수십 개의 감정을 표현하고 있다. 양로원의 노인들이 반려 로봇에 푹 빠져 지내는가 하면 성인용 인형을 넘어 섹스 로봇의 개발도 추진되고 있다.
이처럼 인공지능은 여러 형태로 인간과 친밀하게 교류하고 있지만, 사실상 인공지능의 친교 능력은 인간이 부여한 성격을 띠고 있다. 인간이 인공지능에게 친교 능력이 있다고 믿으면서 인공지능의 감정 표현으로부터 영향을 받는 것이다. 또한 인공지능의 정서적 능력은 친교의 수준에 그치는 것이지 결속의 수준으로 나아가지는 못한다. 인공지능은 인간에게 특별한 요구를 하지 않은 채 인간과 교제하고 있을 뿐이며, 인간처럼 요구를 주고받으면서 서로 타협하고 책임을 공유하는 존재가 되기는 어려워 보인다.
창의적 문제제기 능력과 정서적 결속 능력 이외에 필자가 주목하고자 하는 것은 총체적 판단 능력이다. 인공지능도 판단을 하는 존재이다. 자율주행차량은 교통 상황에 대한 인지는 물론 판단도 수행하며, 인공지능 변호사는 법률적 판단을 바탕으로 자문을 수행한다. 또한 인공지능 의사는 환자에게 도움이 되는 진단을 내리며, 반려 로봇은 상대방에게 필요한 감정을 판단한다. 이러한 판단은 중요한 의사결정의 기초로 작용할 수 있다. 가령 인공지능 변호사가 의뢰인에게 제공한 자문이나 인공지능 의사가 환자에게 내린 진단은 인간의 의사결정을 제약할 수 있다.
그러나 인공지능의 판단은 총체적이 아닌 부분적인 차원에 국한될 가능성이 높다. 인공지능은 다양한 데이터를 활용하여 콘텐츠(contents)를 생산하지만, 고객의 사연을 감안하여 그 맥락(context)을 이해하기는 역부족이다. 또한 인간은 다양한 아이디어를 떠올리고 우발적 상황까지 감안하여 판단을 내릴 수 있지만 인공지능에게 이러한 능력을 기대하기는 어렵다. 인공지능은 인간의 총체적 판단 중의 일부를 지원할 수 있지만 그것을 주도적으로 이끌지는 못한다.
향후에 인공지능이 더욱 발전할수록 인간 특유의 업무나 능력의 범위는 줄어들 것으로 보인다. 그러나 인공지능의 성능이 계속해서 개선된다 하더라도 창의적 문제제기 능력, 정서적 결속 능력, 총체적 판단 능력 등은 오랫동안 인간의 영역으로 남아 있을 것이다. 이 세 가지 능력은 우리가 더욱 관심을 기울이고 개발해야 하는 능력이라 할 수 있으며, 인공지능 시대의 연구와 교육도 이러한 능력을 중시하는 방향으로 이루어져야 한다. 인간의 창의적 문제제기 능력, 정서적 결속 능력, 총체적 판단 능력이 촉진되는 과정에서는 새로운 수요나 시장이 개척될 것이고 기존에 없던 일자리도 상당 부분 창출될 것이다.
필자는 인공지능이 인간의 모든 것을 대신할 수 있다는 입장과 인공지능이 창의성, 정서, 판단력을 가질 수 없다는 입장에 모두 거리를 두고 있다. 창의성, 정서, 판단력 중에서도 인공지능이 확보하기 어려운 창의적 문제제기 능력, 정서적 결속 능력, 총체적 판단 능력에 주목한 것이다. 물론 인공지능의 성능이 지금과는 다른 차원으로 향상된다면 인공지능과 인간의 경계가 다시 구축되어야 할 것이다. ‘인간이란 무엇인가’ 혹은 ‘왜 인간인가’ 하는 물음은 인공지능이 진화하는 과정에서 계속 제기될 수밖에 없는 성격을 띠고 있는 것이다.
기술결정론을 넘어서
세계경제포럼은 2016년에 발간한 『직업의 미래 보고서 2020』에서 4차 산업혁명으로 인한 일자리의 미래를 전망했다. 그 보고서는 향후 5년 동안 200만 개의 일자리가 생겨나고 710만 개의 일자리가 사라질 것으로 내다봤다. 2020년이 되면 510만 개의 일자리가 감소한다는 것이었다. 보고서의 근간을 이룬 것은 세계 전체 고용의 65%를 차지하는 15개국의 371개 기업에서 인적자원관리 혹은 전략기획을 담당하는 임원들을 대상으로 실시한 조사였다. 그러나 2020년이 지난 지금 세계경제포럼의 일자리 전망이 실현되었는지는 알 수 없고, 이에 대한 세계경제포럼의 반응도 없다.
이러한 조사에는 상당한 한계가 존재한다. 우선 일자리 문제에는 매우 복합적인 요소들이 결부되어 있다. 기술적 요소뿐만 아니라 경제적, 사회적, 심리적 요소 등이 중첩되어 있는 것이다. 사실상 일자리 문제는 인공지능의 활용 여부와는 상대적으로 무관하게 경기변동의 시기에 계속해서 논의되어 온 성격을 띠고 있다. 또한 기술적 요소에 주목한다 하더라도 어떤 수준의 인공지능인지가 분명하지 않다. 인공지능은 단순한 자동화 기기에서 규칙 기반 인공지능과 학습 기반 인공지능에 이르기까지 다양한 모습을 가지고 있는 것이다. 이보다 더욱 중요한 문제는 하나의 직업이 여러 업무로 구성되어 있다는 점에서 찾을 수 있다. 모든 일자리는 다양한 업무로 구성되어 있으며, 어떤 업무가 다른 업무에 비해 자동화되기 쉬울 뿐인 것이다.
인공지능으로 인해 일자리가 조금씩 줄어들 수는 있겠지만 한꺼번에 사라지지는 않는다. 이와 관련하여 오터는 “기계가 인간의 노동을 대체하는 수준은 과장되고, 자동화와 인간 노동의 상호 보완성은 무시”된다고 지적한 바 있다. 우리가 대체의 담론에서 벗어나 보완의 담론에 주목한다면 인공지능과 인간이 공존 혹은 공생의 관계를 형성할 여지를 얼마든지 찾아낼 수 있다. 또한 향후에 인공지능이 더욱 발전한다 하더라도 인간은 창의적 문제 제기, 정서적 결속, 총체적 판단 등의 능력을 매개로 인공지능과 공생할 수 있을 것이다.
사실상 인공지능으로 인해 인간이 필요 없어진다거나 노동의 시대가 끝났다는 주장은 전형적인 기술결정론(technological determinism)의 논리에 해당한다. 과학기술학에서 기술결정론의 대안으로 강조되어 온 사회구성주의(social constructivism)에 따르면, 기술이 변화하는 과정에는 이해당사자 혹은 관련된 사회집단의 개입, 갈등, 조정 등이 불가피하다. 이러한 시각은 인공지능에도 적용될 수 있다. 인공지능이 진화하는 모든 과정에는 정치적, 경제적, 문화적 요인들이 영향을 미치게 되며, 기술변화의 속도, 기술의 형태, 기술의 결과 등은 미리 정해진 것이 아니라 가변적인 성격을 띠는 것이다.
위너(Langdon Winner)의 기술철학에도 주목할 필요가 있다. 그는 기술이 인간의 통제를 벗어나 자율적으로 보이게 되는 현상을 ‘기술의 표류(technological drift)’라고 명명했다. 위너는 기술이 표류하는 원인이 기술을 만들어 사용하기만 하고 제대로 돌보지 않는 인간에게 있다고 보았다. 제작과 사용이란 관점에서만 기술을 취급하고 기술이 인간 삶의 맥락에 미치는 영향을 고려하지 않기 때문에 기술이 방향성을 상실한 채 표류하고 있다는 것이다. 이러한 진단을 바탕으로 위너는 우리가 자신이 만들고 사용하는 기술에 세심한 주의를 기울여야 하며 어떤 기술이 바람직한지에 대해 민주적으로 토론하고 합의해야 한다고 주문하고 있다.
한국 사회에서도 인공지능에 관한 논의가 다각도로 진행되어 왔지만, 한 가지 우려스러운 점으로는 강한 인공지능(strong AI) 혹은 초지능(superintelligence)에 과도하게 주목하는 경향을 들 수 있다. 이러한 논의들은 머지않은 시기에 인공지능이 인간과 동일하거나 인간을 능가할 것으로 상정하면서 인간과 기계를 대립적인 구도로 몰아가는 경향을 보이고 있다. 그러나 강한 인공지능 혹은 초지능이 구현 가능한지, 언제 실현될 것인지, 그럴 경우에 인간이 노예로 전락할 것인지 등은 흥미로운 질문이긴 하지만, 우리가 당면하고 있는 현실적인 과제를 간과하거나 외면하게 하는 결과를 초래할 수 있다. 불확실한 미래를 상정하고 이에 비추어 현재를 진단하는 것은 미래를 위해 현재를 희생하는 것에 다름 아니다.
<부산대 교양교육원 교수, 전 한국과학기술학회 회장>
저작권자 ⓒ 인저리타임, 무단 전재 및 재배포 금지