인공지능의 급격한 발전을 보고 있는 이 시점에서 인류는 무슨 대책을 세워야 할까? 정답은 아직 없다. 다만 인공지능을 비롯해 로봇이나 빅데이터, 초연결, 유전공학 및 뇌과학 등의 발전으로 다가올 미래에 대비해야 한다는 데는 많은 사람들이 공감하는 것 같다.
그런데 어떤 비극적인 상황에 대비해야 할까? 인류는 과학기술 문명의 발전으로 지금까지 역사에서 한 번도 경험하지 못한 번영을 누리고 있지만, 반대로 한 번도 경험하지 못한 엄청난 위험도 또한 가까이 두고 있다.
조금 멀리서는 2차 대전 때 원자폭탄이 일본에 투하돼서 수 십 만명이 순식간에 사라지는 비극이 있었다. 그리고 지금 한반도에서는 북한의 핵무기 개발과 이를 억지하려는 미국의 엄청난 군사적 압력으로, 대한민국 국민들은 공포의 막다른 골목으로 끌려가는 듯한 위기를 느낀다.
그럼에도 불구하고 핵무기를 둘러싼 긴장에서 일반 개인이 할 수 있는 일은 거의 없다. 일어나면 당할 수 밖에 없는 것이 특징이므로 위기임에도 불구하고 위기를 느끼기 어렵고, 설사 닥친다 해도 막을 방법이 없다.
요컨대 과학기술문명의 발전은 항상 위험요소를 내포하면서 이뤄졌으며, 지금도 마찬가지라는 점이다. 그리고 대부분의 보통 사람은 수동적으로 당할 수 밖에 없다는 점이다.
인간을 훨씬 뛰어넘는 초지능의 시대는 올까?
인공지능이 노동환경과 교육의 모습을 근본적으로 바꾸고 있는 이 시점에서도 마찬가지이다. 많은 사람들이 조금씩 머리 한 구석에서 찜찜하게 생각하는 부분은 과연 인공지능이 혹은 기계 초지능(superintelligence)이 인간을 훨씬 뛰어넘는 그런 ‘특이점’의 시대나 ‘지능 대확산’((intelligence explosion)이 올 것인지, 온다면 언제 올 것인지 하는 것이다.
‘슈퍼인텔리전스 경로, 위험, 전략’(SUPERINTELLIGENCE, Paths, Dangers, Strategies)을 쓴 닉 보스트롬(Nick Bostrom 1973~ )은 기계초지능이 가져올 위험을 어떻게 대응해야 할 것인지 경각심을 일깨워준다.
대비책을 세우려면 어떤 위험이 도사리는지 알아야 한다. 닉 보스트롬은 경제적으로, 철학적으로, 과학적으로 매우 위험한 상상을 해 보았다. 만약 미래의 고용주가 초지능을 이용해서 노동자를 마음대로 조종할 수 있다면 어떻게 할까? 우울하고도 비극적이지만, 가능할 수도 있는 위험한 상상에 독자들을 초대한다.
사람이 현재의 교육제도와 고용 및 사회제도 아래에서 직업을 갖고 노동자로 혹은 근로자로 혹은 전문인으로 활동하려면 ‘전문지식과 경험의 수준에 따라 15년에서 30년 가량이 소요된다. 이 기간 동안 사람은 많은 비용을 들여서 먹어야 하고, 자야 하고 보살핌을 받아야 하고 교육을 받아야 한다.’
만약 초지능이 인간의 지능을 월등하게 추월한다면 다음과 같은 일이 일어나지 않으리라고 장담할 수 없다.
‘새 카피(COPY)의 디지털 노동자를 만드는 것은 작업 메모리에 새 프로그램을 까는 것만큼이나 쉽다. 생명이 값싸다는 말이다. 회사들은 사업의 수요에 맞추려고 새 카피를 만들고, 컴퓨터의 연산자원을 확보하기 위해서 더 이상 불필요한 카피는 제거할 것이다. 이것은 디지털 노동자의 엄청난 사망률을 의미한다. 많은 디지털 노동자들이 단 하루밖에 살 지 못할지도 모른다.’
물론 이런 비인간적인 상황이 일어나서는 안된다. 그리고 잘 일어나지도 않지만, 지금도 많은 근로자들은 부분적으로는 조금씩 그런 느낌을 받는다.
더구나 이미 역사에서 노동력이 떨어진 종을 없애거나, 생체실험의 도구로 사용하거나, 범죄 집단이 마약중독자에게 죽을 때까지 마약을 팔아 인간을 착취하는 행태는 비록 일부라고 해도 있어왔다.
그러므로 닉 보스트롬이 책에서 주장한 것처럼 ‘이런 형상이 벌어질 것이라고 말하는 것이 아니라, 이런 현상이 벌어지지 않으리라고 장담하지 못한다는 것이다.
비극적인 위험은 아무리 적어도 대비해야
지능대확산은, 혹은 레이 커즈와일이 이야기한 특이점의 세계는 아직 오지 않았다. 언제 올 것인지 장담하기 어렵고, 과연 올 것인지도 아직은 확실하지 않다. 의견도 매우 분분하다. 그리고 그 반대의 주장도 매우 많다.
그런 미래가 오기 전에는 인간은 폭탄을 가지고 노는 작은 어린아이와 같다. 위험을 예방하는 방법은 아이들이 폭발물을 내려놓고 가장 가까이에 있는 어른에게 알려서 제거해야 한다.
그런데, 아이는 한 명이 아니라 다수이고, 이들은 각각의 격발장치를 가지고 있고, 그 중에는 바보같거나 미치광이 같은 아이들도 있다.
인공지능이 가져올 죽음의 낭떠러지가 다만 1개라고 해도 우리는 그곳에 안전 펜스를 설치해야 한다.
이런 종류의 책이 그렇듯이 인간이 대처할 방안이 아직은 막연하다.
‘우리의 인성, 즉 우리의 근본, 상식 그리고 푸근한 품위 같은 성향에 어느 정도 의지해야 한다.’
스웨덴 철학자인 닉 보스트롬은 영국 옥스퍼드 대학 철학과 교수이자, 옥스퍼드 마틴 스쿨의 인류 미래 연구소(FUTURE OF HUMANITY INSTITUTE) 소장, 미래 기술의 영향에 대한 프로그램(PROGRAMME ON THE IMPACTS OF FUTURE TECHNOLOGY) 창립 센터장이다. 지금까지 약 200건의 저술을 집필했다.
- 심재율 객원기자
- kosinova@hanmail.net
- 저작권자 2017-04-27 ⓒ ScienceTimes
관련기사