국민일보

전체메뉴보기 검색

[신종수 칼럼] 악마가 되지 말자

입력 2018-04-13 05:10:02


1942년 미국에서 원자폭탄을 개발하기 위해 ‘프로젝트 맨해튼’이 만들어진다. 노벨 물리학상 수상자인 이탈리아의 엔리코 페르미를 비롯한 유럽의 물리학자들이 미국에 망명해 프랭클린 루스벨트 대통령 밑에서 비밀리에 원자폭탄을 개발하기 위해 만든 프로젝트다. 이로부터 3년 뒤 일본 히로시마와 나가사키에 원폭이 투하된다.

엔리코 페르미와 함께 이 프로젝트에 참여해 수소폭탄까지 개발한 에드워드 텔러(1908∼2003)는 한 인터뷰에서 “우리는 새로운 것을 발견하고 또 발견하고 있다”면서 “우리는 너무 빨리 가고 있고 우리에게는 그렇게 많은 것을 한꺼번에 발견하고 이해할 여력이 없다”고 말했다. 그러면서 그는 “이제라도 속도를 늦춰야 한다. 그렇지 않으면 인류가 공멸하고 말 것”이라고 경고한 바 있다.

과학기술은 가치중립적이다. 장인은 예리한 칼을 만들 뿐이다. 이 칼이 요리에 사용될지, 인명 살상용으로 사용될지 여부는 통제 밖이다. 에드워드 텔러도 과학기술은 선한 목적으로도, 나쁜 목적으로도 사용될 수 있다며 세계 전쟁은 과학이 일으킨 것이 아니라 극단적인 민족주의가 일으켰다고 주장했다. 과학은 철학이나 이념이 아닌 기술적 접근만 시도할 뿐 정책 결정은 공동체가 책임져야 한다는 것이다.

미 국방부 무기개발 프로그램인 ‘프로젝트 메이븐’이 있다. 무인전투기(드론)의 타격 능력을 향상시키기 위해 AI(인공지능)를 사용하는 프로젝트다. 영화 ‘오블리비언’이나 ‘터미네이터’에서 인간을 공격하는 드론이나 로봇이 현실화되는 것이다. 이 프로젝트에는 구글이 참여하고 있다. 그런데 구글의 핵심 기술인력 3000여명이 최근 최고경영자에게 청원서를 보냈다. AI 기술이 전쟁에 사용돼선 안 된다는 내용이다.

구글의 기업모토는 ‘악마가 되지 말자(Don’t be evil)’이다. 구글의 AI 기술이 인명살상에 사용될 경우 구글은 악마가 된다.

한국에서도 논란이 있었다. 외국의 저명한 과학자 50여명이 얼마 전 카이스트에 경고 서한을 보냈다. 서한을 통해 카이스트와 방위산업체인 한화시스템이 지난 2월 말 공동 개소한 ‘국방AI융합연구센터’가 킬러로봇을 개발하려는 것 아니냐는 의혹을 제기했다.그러면서 카이스트와의 공동연구 보이콧 방침도 밝혔다. 카이스트는 “방위산업 관련 물류 시스템과 무인항법 기술 개발 등이 목적”이라며 “인간 존엄성에 어긋나는 연구는 결코 하지 않을 것”이라고 해명했다. 이 해명에 따라 보이콧은 철회됐다.

우수한 무기에 대한 인간의 탐욕과 적국에 대한 불신 때문에 군비경쟁이 우려된다는 것이 학자와 전문가들의 전망이다.

호주의 철학자 피터 싱어는 “돈에 눈이 먼 군수업자, 각국의 무기 경쟁 등이 AI 무기 개발을 가속화시킬 수 있다”고 말했다. 제임스 밀러 전 미국 국방부 차관보도 “미국은 AI가 스스로 판단하는 무기를 갖지 않는 게 원칙이지만, 러시아 혹은 중국 같은 적국이 AI를 장착한 강력한 무기를 준비한다면 그 대응은 달라질 것”이라고 밝혔다.

핵무기는 핵확산금지조약(NPT) 등을 통해 어느 정도 통제가 되지만 킬러로봇에 대해서는 국제적인 규제 시스템이 없는 실정이다. 중국은 인공지능 개발을 위한 차이나브레인 프로젝트 13차 5개년 계획(2016∼2020)에 군사용 로봇 개발을 포함시켰다. 유엔 인권위원회는 2013년 미국과 이스라엘, 영국, 일본 등에서 킬러로봇을 개발 중이라는 보고서를 낸 바 있다.

4차 산업혁명은 필요하고 거스를 수도 없다. 그러나 칼이 요리에만 사용되지 않고, 다이너마이트가 광산 개발에만 사용되지 않으며, 핵이 원자력발전에만 사용되지 않고 있다는 점을 잊어서는 안 된다. 인간은 죄성을 갖고 있고, 탐욕은 통제되기 어렵다. 알파고가 이세돌을 이기는 것을 넘어 인간의 생명까지 위협하는 수준까지 가는 것을 과학기술 발전이라는 이름하에 방치할 수는 없다. 생명을 지키고 전하는 것이 과학기술 발전보다 더 큰 가치다.

신종수 논설위원 jsshin@kmib.co.kr



입력