인공지능의 윤리, 사람의 윤리
상태바
인공지능의 윤리, 사람의 윤리
  • 주일뉴스
  • 승인 2017.03.16 18:12
  • 댓글 0
이 기사를 공유합니다

당신은 휴대폰으로 SNS 메시지를 받는다. 그리고 무엇인가를 검색해서 이메일을 보낸다. 그것은 아마도 누군가에게 줄 선물을 마련하기 위해서 쇼핑몰을 찾아본 것일 수도 있다. 

생활 이곳저곳에 깊숙이 자리해
편리함을 제공하는 인공지능

사실 작은 휴대폰 화면의 터치스크린에 정확한 메시지를 입력하는 것은 조금 불편한 일이다. 하지만 문장을 입력하다보면 휴대폰 화면에는 추천단어와 어휘가 뜬다. 그런 것들을 적절히 사용하면 생각보다 꽤나 빠르게 일을 마칠 수 있다. 메시지를 보내는 상대는 고객일 수도 있고 혹은 오랜만에 만나는 친구일 수도 있다. 어쩌면 엊그제 졸업한 아들딸일 수도 있다. 당신은 선물을 고르기 위해, 혹은 함께 식사를 하려고 자동차를 타고 출발한다. 처음 가보는 곳이라 길을 모르지만 염려할 필요가 없다. 자동차에는 내비게이션이 장착되어 있고 주소만 누르면 언제나 빠르고 정확한 길을 안내해 준다. 
이 모든 것은 다 인공지능의 도움을 받은 것이다. 당신의 휴대폰에는 인공지능이 내장되어 있다. 단어와 어휘를 추천하고 검색 어플리케이션에 접속하는 것 모두 인공지능이 하는 일이다. 당신이 포털 사이트에 접속해서 무엇인가를 검색한다면 이제부터는 인공지능의 도움이 시작된다.
예전에는 검색 실력이 형편없었지만 현재의 인공지능은 꽤나 능숙하게 임무를 해낸다. 그것은 당신이 찾으려는 어휘를 포함한 문장이나, 알고 싶은 주제와 관련된 뉴스, 아니면 당신이 궁금한 장소나 사람을 구분할 줄 안다. 또한 필요하다면 외국어로 된 내용도 검색해서 보여줄 것이다. IT뉴스에서 접하는 소식과는 달리 아직 번역의 수준은 좀 미비하지만 그래도 대강의 내용을 이해할 수 있을 정도는 해내고 있다. 당연한 말이지만 이런 방대한 정보를 사람 직원을 고용해서 검색하려고 한다면 엄청난 시간과 비용이 필요할 것이다. 그리고 그 대부분의 정보는 당신이 필요로 하는 시점에서는 이미 사용할 수 없게 된다.
당신이 주로 사용하는 쇼핑몰이나 애용하는 상품이 있다면 인공지능은 그런 것을 기억해 두었다가 신제품이 들어왔을 때에 추천해 보여주기도 한다. 때로는 당신이 지난번에 구매한 상품을 다시 구매해야 할 시기를 예측해서 가르쳐준다. 당신이 누군가와 식사를 하기 원한다면 적당한 식당을 추천해 줄 수도 있다. 

인공지능을 의지하는 우리
오작동으로 인한 문제는 어떻게? 

자동차를 타고 이동하는 길에 사용하는 내비게이션 역시 인공지능의 도움을 받는다. 그것은 기본적으로 인공위성에 의해 제공되는 GPS(The Global Positioning System) 정보를 사용한다. 어찌 보면 인공위성을 제어하는 인공지능이란 대단히 전문적인 분야에 종사하는 일부 사람들만이 필요로 할 것 같다. 하지만 오늘날 많은 사람이 이용하는 정보 통신은 모두 이런 인공지능의 도움을 기반으로 한다. 
자동차를 타고 원하는 목적지로 가는 과정에서 교통을 통제하는 시스템 역시 일종의 인공지능이다. 그리고 이런 인공지능이 작동하는 서버를 포함해 당신이 사용하는 각종 기계장치에 전기를 공급하는 발전소 역시 인공지능에 의해 작동이 통제된다. 
이렇듯 우리는 부지불식간에 삶의 많은 부분을 인공지능에 의지해서 살아간다. 그렇다면 만약 이런 인공지능이 오작동하거나 예기치 않은 문제를 일으킨다면 어떻게 될까? 

편의를 제공하는 착한 친구에서
끔직한 재앙을 불러올 악당으로

만약 원자력 발전소를 통제하는 인공지능이 문제를 일으켜서 원자로를 제대로 제어할 수 없게 된다면 엄청난 재앙이 닥칠 것은 불을 보듯 뻔하다. 원자로가 녹아내리고 방사능이 누출되어 수많은 사람이 죽을 것을 상상하면 끔찍하다. 또한 교통 시스템을 통제하는 인공지능이 문제를 일으킨다면 엄청난 교통대란이 일어날 것이다. 곳곳에서 대규모 교통사고가 일어날 수도 있다. 
물리적인 사건사고와는 관계없어 보이는 인공지능의 경우에도 사정은 마찬가지이다. 주식시장에서는 인간은 체감할 수도 없는 짧은 시간에 매매를 담당하는 인공지능이 활용되고 있다. 만약 이런 종류의 인공지능에 문제가 생긴다면 주식시장은 비정상적으로 작동할 것이다. 어떤 기업은 망하게 될 것이고 어떤 기업의 주식은 지나치게 높거나 낮게 평가될 것이다. 이런 일들이 경제에 악영향을 미치고 많은 사람의 자산을 탕진하게 만들 수도 있다. 

왜곡된 정보의 전파로 인해
사회적 혼란 야기할 수도 

검색엔진과 관련된 인공지능 역시 마찬가지이다. 이런 인공지능에 문제가 생긴다면 검색결과는 왜곡될 수밖에 없다. 부정확한 정보와 지식이 전파된다는 뜻이다. 이런 부정확한 정보와 지식은 삽시간에 수많은 SNS 등을 통해서 다시 전파된다. 부정확한 정보와 지식을 교정하려는 노력이 뒤따르겠지만 이미 전파된 잘못된 정보와 지식은 쉽게 없어지지 않는다. 그것은 인터넷과 SNS의 어디선가에는 존재하게 마련이고 누군가의 머릿속에 선입견을 심어놓게 된다. 그리고 사람들의 선입견이란 인터넷 상의 잘못된 정보만큼이나 교정되기 어렵다. 이는 나아가 사회의 혼란으로 이어질 수도 있다. 
나는 아직 군사적 목적으로 사용되는 인공지능은 언급하지 않았다. 인류의 멸망을 그리는 많은 영화와 소설은, 군사목적으로 사용되는 인공지능의 오작동으로 인한 핵전쟁을 상상한다. 그것은 레이더에 비치는 새떼의 영상을 적국의 핵미사일로 오인할 수도 있다. 단순히 핵미사일을 통제하는 인공지능의 오류일 수도 있다. 감청시스템에 문제가 생겨서 잘못된 정보가 전달되어 어느 나라의 지도자가 핵무기 사용을 결정하게 될 수도 있다. 이런 영화나 소설에서는 누가 먼저 발사버튼을 눌렀는지는 중요하지 않다. 결국은 인류의 멸망으로 끝이 나기 때문이다.
나는 의도적으로 글에서 인공지능에 의해 발생한 ‘문제’라고 표현했다. 그러나 사실 실제로는 매우 다양한 경우가 있을 것이다. 그것은 단순한 오작동일 수도 있다. 그러나 조금 더 공상과학소설에 가깝게 상상한다면 그것은 인간에게 잘못된 윤리를 배운 인공지능의 잘못된 결정이 될 수도 있다. 보다 현실적으로 생각해보면 누군가 인공지능을 해킹하거나 혹은 권력을 가지고 의도적으로 자신이 원하는 방식으로 작동시키는 경우가 있을 수 있다.

인공지능에 의해 발생하는 문제는
단순히 재난? 윤리적 사건? 

원자력 발전소나 교통시스템을 해킹하는 경우라면 테러리스트의 짓이겠지만, 검색 엔진을 의도적으로 통제하는 것은 권력자의 의도일 가능성이 크다. 그리고 이렇게 발생하는 모든 문제의 결과는 모두 단순한 재난이 아니라 ‘윤리적’인 사건이 된다.
무엇을 말하고 싶은 것인가? 나는 공학자도 아니고 윤리학자도 아니건만 지난 몇 편의 글에서 주제넘게도 ‘인공지능과 윤리’라는 매우 거창한 주제를 다루었다. 우리 인간은 미지의 존재와의 조우를 본능적으로 두려워한다. 또한 인류의 존속을 위협할 인공지능이 등장하는 것들 두려워한다. 우리는 인공지능이 윤리를 배워야 한다고 주장한다. 그러나 결국 진정한 문제는 인간 자신에게 있는 것이 아닐까?
인공지능이 윤리적 문제를 일으키는 경우는 대개 다음 세 가지 중의 하나이다. 
먼저 혹자가 두려워하는 것처럼 인간을 초월하는 인공지능이 등장하는 경우이다. 

레이 커즈와일이 말하는 윤리적 사회

레이 커즈와일(Ray Kurzweil)은 인공지능의 세계를 적극 찬성하지만 그 역시 이런 문제를 알고 있다. 그런데 그의 견해는 독특하다. 그는 인공지능의 위험을 제거하기 위한 대안은 인류 스스로 도덕적이고 윤리적인 사회를 건설하는 것이라고 주장한다. 아마도 인류가 충분히 도덕적이고 윤리적인 존재가 된다면 미래에 등장할지도 모르는 초월적인 인공지능은 인류를 존중하게 될 지도 모른다. 그리고 사실 인공지능과는 별개로 인류가 스스로 충분히 도덕적 윤리적 사회를 건설하지 못한다면 스스로 자멸의 길을 걸을 것이다. 따지고 보면 인공지능에 대한 공포는 말기 암 환자가 감기를 두려워하는 것과 비슷한 것인지도 모른다. 
결국 문제는 인공지능이 아니라 인간 자신에게 있다.
다음으로 우리가 지난 글에서 다루었던 것처럼 인공지능에게 윤리와 도덕을 학습시킬 수 있게 된다고 하더라도 여전히 문제는 인간에게 있다. 
인간 자신이 충분히 윤리적이고 도덕적이지 못하다면 인간에게 윤리와 도덕을 학습한 인공지능 역시 윤리적이고 도덕적이지 못할 것이다. 결국 그런 인공지능이 잘못된 판단을 내려서 문제가 일어난다면 그 궁극적인 책임은 잘못된 도덕과 윤리를 가르친 인간에게서 찾아야 한다.

인공지능은 인간의 추악한 모습을 
그대로 비춰주는 거울이자 자화상

마지막은 매우 현실적인 문제이다. 앞의 두 가지가 미래에 일어날 지도 모르는 일들에 대한 상상이라면, 이 경우는 지금 당장 일어날 수 있는 문제이다. 
누군가 고의적으로 인공지능을 해킹하거나 잘못된 명령을 입력하는 경우를 상상해보자. 그것은 주식시장을 조작해서 막대한 이익을 얻고자 하는 욕망에서 비롯될 수도 있다. 또는 검색결과를 조작해서 선거에 승리하려는 욕망에서 일어날 수도 있다. 아니면 적국의 주요 기간시설을 파괴해서 전쟁에 승리하려는 욕망에서 일어날 수도 있다. 결국 범인은 인공지능이 아니라 사람이다. 
따라서 인공지능은 일종의 거울인지도 모른다. 그러고 보면 ‘인공지능’이란 표현은 참으로 적절하다. 그것은 인간을 본 딴 인간의 모사 판이기 때문이다. 그것은 어쩌면 우리의 추악한 모습을 그대로 비춰주는 자화상일 수도 있다. 문제는 우리에게 있다.

문상호 목사 / 기쁨가득한 교회

인공지능과는 별개로 인류가 스스로 충분히 도덕적 윤리적 사회를 건설하지 못한다면 스스로 자멸의 길을 걸을 것이다. 결국 문제는 인공지능이 아니라 인간 자신에게 있다.

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토