차가운 인공지능에게 따뜻한 윤리 가르치기
상태바
차가운 인공지능에게 따뜻한 윤리 가르치기
  • 문상호
  • 승인 2017.02.17 11:26
  • 댓글 0
이 기사를 공유합니다

인공지능이 인간에게 위협적인 존재가 될 것임을 두려워하는 석학 중 많은 수가 의외로 인공지능의 연구에 깊이 발을 담그고 있다. 그들은 인공지능 개발을 금지하는 것은 더 이상 대안이 될 수 없다고 생각한다. 돌이켜 보면 인류의 역사는 그것이 얼마나 유해한가 여부와는 상관없이 맹목적으로 과학과 기술의 발전에 집착해왔다. 인공지능 역시 마찬가지일 가능성이 크다. 인간이 더 이상 이해할 수 없는 인공지능의 위험성을 경고한다고 해서 이 분야의 기술개발이 중단되지는 않을 것이다.

통제 불가능한 인공지능을 
저지하려는 인간의 노력

그래서 인간이 통제 가능한 인공지능을 연구함으로써 닥쳐올 지도 모르는 위기를 막아보려는 전문가들이 있다. 그 대표적인 사람이 테슬라자동차의 CEO인 엘론 머스크(Elon Musk)다. 그는 인공지능이 핵보다 위험하다고 경고한 바 있으며, 심지어 인공지능을 연구하는 것은 악마를 소환하는 것이나 마찬가지라는 강경한 발언까지 쏟아냈다. 
그러나 그는 한편으로 지난 2015년 안전한 인공지능 연구를 위한 프로젝트에 1천만 달러를 기부하는 등 인공지능 연구에 깊이 관여하고 있다. 
인공지능에게 윤리를 가르치는 것은 인간에게 적대적이지 않은 안전한 인공지능을 개발하는 한 가지 방법일 수 있다. 그러나 인공지능에게 윤리를 가르치는 것은 앞으로 닥쳐올 미래를 대비하기 위한 것만은 아니다. 그것은 이미 우리 곁에 와 있는 현재에 필요한 문제이다. 
동글납작한 원반처럼 생긴 로봇이 집안을 알아서 돌아다니면서 청소를 한다. 청소로봇 이야기이다. 미국의 로봇 회사인 아이로봇(iRobot)사는 ‘룸바’(Roomba)라는 청소로봇을 내놓아서 소위 대박을 쳤다. 이 로봇은 집안의 지형을 학습한다. 몇 번 돌아다니면서 여기저기 부딪쳐 본 다음에는 자기가 알아서 안전히 돌아다니며 청소를 한다.

스스로 학습하며 임무를 수행하는
청소로봇과 무인전투로봇 

그런데 이 회사는 사실 청소기만 만드는 회사가 아니다. 이 회사에서 내놓은 더 유명한 제품은 ‘팩봇’(Packbot)이라는 무인 전투 로봇이다. 청소로봇과 무인전투로봇이라니 서로 아무 연관성이 없어 보이지만, 지형을 인식하고 로봇의 위치를 제어하여 임무를 수행한다는 점에서 두 로봇은 일맥상통하는 바가 있다. 

인공지능은 아군과 적군을 어떻게 구별할 것인가? 인공지능은 항복하는 적을 어떻게 구별할 것인가? 인공지능은 적군과 민간인을 어떻게 구별할 것인가? 인공지능은 장난감 총을 든 어린아이와 실제 무기를 든 군인을 어떻게 구별할 것인가?

팩봇은 미 방위고등연구기획국(Defense Advanced Research Projects Agency, DARPA)의 요청에 의해 1998년에 개발되었다. 여러 기종이 있지만 대략 무게는 20kg 남짓이다. 병사 한 명이 운반할 수 있는 수준이다. 팩봇은 2002년 아프가니스탄에 투입되었고 이듬해에는 이라크에 투입되었다. 이후 팩봇은 전 세계에서 다양한 용도로 사용되고 있다. 팩봇은 적이 매복해 있을 것으로 의심되는 지역을 수색정찰하거나 폭발물을 제거하는 데에 사용되기도 한다. 그러나 반드시 방어적이고 소극적인 용도로만 사용되는 것만은 아니다. 산탄총 등 간단한 무장을 장착하고 인명을 살상하는 용도로 사용되기도 하고 때로는 폭탄을 장착하고 적 근처로 접근시켜 폭발임무를 수행하기도 한다. 
포스터-밀러(Foster-Miller)사에서 개발한 ‘탤론’(Talon)도 대표적인 무인전투로봇 중 하나이다. 탤론 역시 수색정찰이나 폭탄제거 등에 사용할 수 있지만, 대체로 이쪽은 좀 더 공격적인 용도로 사용된다. 탤론은 기관총, 유탄발사기 등 다양한 무기를 장착할 수 있어, 총격을 받으면 총탄이 날아온 방향을 향하여 즉시 응사할 수 있도록 개발됐다. 

무인군사로봇에게 윤리적 판단을 
가르쳐야할 시대가 다가온다

무인 전투 로봇은 한국에도 있다. 2015년 한국일보 보도에 의하면, 미국의 한 군사로봇전문가는 “SGR-A1이라는 로봇이 한국의 DMZ에서 사용되고 있다”1)고 밝혔다. 이 로봇은 삼성테크윈이 지난 2007년 선을 보인 로봇이다. 4대의 카메라가 내장되어 있으며 주로 감시 임무를 수행한다. 그러나 필요에 따라 기관총이나 유탄발사기를 탑재하여 교전도 가능하다. 
국내 해안선 방어에는 다른 국내 기업에 의해 개발된 무인감시 시스템인 ‘와쳐(Watcher)’가 사용된다. 이라크에 파병된 한국군 자이툰 부대는 이 회사에서 개발한 좀 더 최신의 무인감시 시스템을 사용하였다. ‘이지스(Aegis)’ 시리즈로 명명된 이 시스템은 무인감시뿐만 아니라 원격조정에 의한 무인교전도 가능하다. 
군사목적 로봇을 사용하는 것은 군대뿐만이 아니다. 조선일보에 의하면, 한국 경찰은 도심 테러와 같은 비상상황에 대비하여 팩봇에 폭탄을 장착한 형태의 폭탄로봇을 보유하고 있다고 한다.2)
이처럼 군사목적으로 활용되는 로봇이 만약 오작동을 일으켜 사고가 날 경우 그 결과는 매우 치명적일 것이다. 이미 2007년 10월 남아프리카에서 반자동로봇대포가 오작동을 일으켜 군인 9명이 죽고 14명의 부상자가 나온 사건이 있었다. 이렇듯 인명을 살상할 수 있는 로봇 시스템이 이미 오래전부터 세계 각국에서 사용되고 있지만, 아직까지는 인공지능에게 직접 윤리를 가르쳐야 할 단계는 아니다.
왜냐하면 현재까지 무인군사로봇은 스스로 전투하지 못하기 때문이다. 그것은 아직까지는 인간 병사에 의해 원격으로 조종된다. 그러므로 지금까지 일어난 무인군사로봇에 의한 사건사고는 단순한 시스템의 오작동이거나 혹은 조종하는 병사의 실수나 착각에 의한 것이다. 이런 경우에 윤리문제는 인공지능 보다 인간에게 적용되어야 맞다.
물론 이 문제 역시 간단하지 않다. 원격으로 조종할 수 있는 무인군사로봇이 등장함으로써 전장에서 활동하는 병사들의 위험은 크게 개선되었을지 모르지만, 병사들은 전장으로부터 물리적 거리가 생김으로써 마치 컴퓨터 게임을 하는 가벼운 마음으로 전투에 임하게 되었다. 전장에서 로봇이 카메라로 촬영하여 전송하는 영상을 보고 원격으로 무기를 작동시켜 시설을 파괴하고 인명을 사살하면서 그들은 자신이 사람을 죽이고 있다는 것을 미처 자각하지 못하게 되는 것이다. 자연스럽게 인명을 경시하고 작전상 꼭 필요하지 않은 잔인한 행동을 할 가능성이 높아졌다.

자율적 전투 수행이 가능한 킬러로봇 
인간의 안전을 보장할 수 있는가?

그러나 이제 무인군사로봇 분야에서 로봇이 스스로 윤리적인 판단을 할 수 있도록 해야 할 필요가 대두되는 시기가 곧 다가올 것이다. 자율적으로 전장 환경을 파악하고 반응할 수 있는 능력을 가진 로봇이 곧 등장할 것이기 때문이다. 로봇이 투입되는 것은 인간병사의 위험을 낮추기 위해서인데, 아직까지는 통신이 원활하지 않은 극단적인 환경에서는 정작 로봇을 제대로 활용할 수 없다는 약점이 있다. 이런 문제를 극복하기 위해서는 조종하는 인간병사가 없어도 로봇이 자율적으로 환경을 파악해서 사전에 프로그램된 대로 전투행위를 수행할 수 있어야 한다. 
자율적으로 전투를 수행하는 인공지능 킬러로봇이 등장한다고 가정하면 윤리문제는 매우 중요해진다. 인공지능은 아군과 적군을 어떻게 구별할 것인가? 인공지능은 항복하는 적을 어떻게 구별할 것인가? 인공지능은 적군과 민간인을 어떻게 구별할 것인가? 인공지능은 장난감 총을 든 어린아이와 실제 무기를 든 군인을 어떻게 구별할 것인가? 인공지능은 적을 사살해야 하는 상황과 전투 행위를 중단해야 하는 상황을 어떻게 판단할 것인가? 
어떤 이들은 이런 염려가 지나친 것이라고 생각할 지도 모른다. 단순히 킬러로봇의 문제는 인공지능에 의한 자율적인 판단을 하는 로봇생산을 금지하고, 오직 인간이 원격 조정하는 로봇만을 생산하는 것으로 제한함으로써 우회할 수도 있다. 그러나 인공지능에게 윤리가 요구되는 상황은 비단 그것뿐만이 아니다.
구글을 비롯해서 많은 기업이 자율주행자동차를 연구하고 있다. 자율주행기능을 일부 갖고 있는 일종의 ‘하이브리드’ 자동차들은 이미 시중에 나와 있다. 이런 차는 내장된 인공지능이 앞차와의 거리를 계산해서 안전거리를 스스로 확보하기도 하고 심지어 스스로 주차를 하기도 한다. 
머지않아 완전한 자율주행자동차가 시중에 출시되고 보급될 것이다. 그 시범버전들이 이미 여러 해 전에 개발되어 계속 업그레이드되고 있다는 소식이다. 그런데 이런 차가 대중화되면 어떤 일이 벌어질까?

보편화 될 자율주행자동차
돌발 상황에서 어떤 선택을?

자율주행자동차를 조종하는 인공지능은 사람 운전자가 그러하듯 도로 위에서 예상치 못한 돌발 상황에 놓일 가능성이 크다. 그 때에 인공지능은 어떤 선택을 할 것인가? 인공지능은 탑승객과 보행자 중 어느 쪽의 안전을 우선시해야 할까? 탑승객과 보행자의 안전을 공평하게 판단해서 무조건 피해자를 줄이는 방식으로 작동하는 인공지능이 조종하는 차라면 아무도 탑승하려 하지 않을 것이다. 경우에 따라서는 많은 보행자의 안전을 확보하기 위해 탑승객의 안전을 희생하려 들 것이기 때문이다. 또한 반대의 경우라면 도로 위의 흉기라고 규탄을 받게 되지 않을까?
이제껏 윤리와 도덕은 오롯이 인간의 영역이었다. 그것은 오직 인간을 규제하는 용도로 사용되었고 인간을 인간답게 만들었다. 그러나 우리는 곧 인간이 아닌 다른 ‘지적존재’에게도 윤리와 도덕을 적용해야 하는 시대에 살아가게 될 것이다.

------------------------------------------------------------
1) 2015년 4월 10일 한국일보 인터넷판 보도
2) 2015년 4월 10일 한국일보 인터넷판 보도

 

문상호 목사/ 기쁨가득한 교회 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토