인간이 쓴 최악의 시나리오 AI의 군림

부산닷컴 기사퍼가기

파이널 인벤션

지난 1월 스위스 다보스에서 열린 세계경제포럼은 4차 산업혁명을 주제로 했다. 인공지능(AI)과 로봇 기술 발달로 5년 내 선진국 일자리 710만 개가 사라지고, 테크놀로지와 전문 서비스 영역에서 200만 개 일자리가 새로 창출된다는 보고서가 포럼 직전 발표됐다. 이후 국내 출판가에서는 4차 산업혁명이 무엇이며, 이 시대를 어떻게 대비해야 하는지에 대한 분석서가 쏟아져 나왔다. 알파고에 진 이세돌의 대국을 보며 인간이 갖고 있는 직업의 미래가 결코 밝지 않다는 생각이 대중적으로 퍼지기도 했다.

과학자·발명가·SF작가
다양한 사람들에게 듣는
인공지능의 우울한 미래

인류지능 1000배 앞선 ASI
'슈퍼 AI'가 통제 벗어날 땐
핵보다 더한 '금단의 열매'


먹고살기 위한 가장 중요한 수단, 최선의 복지라는 일자리를 기술이 없앤다는 것을 인류는 오랜 세월 경험해 왔다. 산업혁명 이후 영국의 러다이트가 그랬고, 20세기 컴퓨터의 등장으로 없어진 일자리는 셀 수도 없다. 그런데, 일자리만 문제가 아니다. <파이널 인벤션>은 인공지능 기술이 유용성 이전에 인간이라는 존재와 평화롭게 공존할 수 있느냐를 심각하게 검토해야 할 상황에 처해 있다고 지적한다.

지은이는 전문 과학자가 아니라 내셔널지오그래픽을 비롯한 다양한 채널을 통해 '진실일 법한 이야기를 의심'하고 파헤치는 다큐멘터리를 제작한 인물이다. 책이 내놓는 우울한 전망은 그가 인터뷰한 과학자와 발명가, SF작가들의 이야기를 소화한 결과다. 한쪽에 치우치지 않은, 객관적 진실에 더 가까운 이야기로 기대해 볼 수 있는 이유다.

빅 데이터를 활용해 검색 속도와 정확도를 높이는 검색엔진, 인터넷 쇼핑몰에서 구매 패턴을 정밀하게 분석해 상품을 추천하는 알고리즘, 이세돌을 누른 알파고 같은 AI기술은 특정 영역에만 특화돼 있다. 협소한(narrow) 영역에만 사용된다 해서 ANI라 부른다. 효율, 자기 보존, 자원 획득, 창의성이라는 욕구를 갖고 날로, 아니 초 단위로 더 똑똑해지는 ANI는 머지않아 인류의 지능보다 10배 뛰어난 AG(general)I로 '진화'한다. 그 뒤를 잇는 것은 AS(super)I다. ASI는 AGI보다 100배 더 똑똑하다. 인류 최고의 지성이 몇 차례나 태어나고 죽으며 쌓아야 할 방대한 양의 계산과 사고를 단 1분 안에 끝낸다.

지은이가 인터뷰한 전문가들은 2045년, 늦어도 21세기 말까지 ASI가 출현할 것으로 내다봤다. ANI, AGI, 그다음엔 ASI로 나아가는 이 발전의 길은 AI 스스로가 낸 진화의 길이 아니다. 다른 과학자보다, 경쟁국보다 먼저 신기술을 개발하려는, 욕망 가득한 인간들의 작품이다. 기능과 유용성 측면에서만 AI를 다루는 지금 분위기라면 스스로를 보존하려는 욕망을 갖는 ASI에 인간적인 도덕과 윤리를 기대하기는 어렵다. "어떤 경우에도 ASI의 슈퍼컴퓨터를 어떤 유형의 네트워크에도 접속해서는 안 된다." AI 개발자라면 누구나 알고 있는 이 상식은 뒤집어 얘기하면 ASI가 네트워크에 접속되는 순간 인간의 통제를 벗어날 수 있다는 공포를 담고 있다. 하지만 ASI 스스로 먹통 상자를 벗어나기 위한 다양한 전략을 짜고 실행하는 것도 어려운 일이 아니다. ASI는 인간에게 협조를 구하거나 속이는 방식으로 인터넷에 접속하고, 네트워크를 통해 순식간에 지구상 모든 데이터를 습득할 수 있다. 탈출에 성공한 ASI는 자신을 보호하기 위해 클라우드 컴퓨팅 시스템과 각종 서버에 복제 ASI를 심는다. 자신보다 더 뛰어난 지능을 가진 존재를 상대해 본 적 없는 인류는 어떤 협상력도 물리력도 동원할 수 없다.

지금까지 AI에 대한 관점은 낙관론이나 점진주의적 활용론이 주를 이뤘다. 그러나 예상보다 훨씬 빠른 속도로 AI기술이 발전하고 있다.

아인슈타인의 특수 상대성 이론은 그 자체만으로는 인류 최대의 발견으로 꼽을 만하다. 하지만 이후 핵분열을 통한 막대한 에너지 분출이 군사 목적으로 활용됐고, 이후에는 '이왕 개발된 기술, 평화적으로 이용하자'며 핵발전소에 이용됐다. 하지만 핵발전 과정에 방출되는 수많은 방사성 동위원소, 폐연료봉이 내뿜는 엄청난 방사선은 인류가 앞으로 수만 년이 지나도 없앨 수 없다. 제2, 제3의 후쿠시마 참사가 재연되지 말란 법이 없다. 핵 기술에 비하면, 인간의 통제에 고분고분하지 않고 스스로 인간보다 10~1000배 뛰어난 지능을 갖고 있다는 점에서 AGI나 ASI는 훨씬 위험하다.

핵분열은 '금단의 열매'였다. 그 전철을 밟지 않기 위해 인류가 할 일은 지금이라도 터놓고 이야기하고, AI기술에 윤리와 책임을 부여하는 일이다. '우리가 무슨 일을 하는 것인지, 그때는 몰랐다.' 이런 후회를 또 할 때는 이미 늦기 때문이다. 제임스 배럿 지음/정지훈 옮김/동아시아/448쪽/1만 8000원.

이호진 기자 jiny@busan.com


당신을 위한 AI 추천 기사