인공지능은 도덕적 주체가 될 수 있을까?
상태바
인공지능은 도덕적 주체가 될 수 있을까?
  • 주일뉴스
  • 승인 2017.03.10 16:45
  • 댓글 0
이 기사를 공유합니다

인공지능이 운전하다가 사고가 났다고 해서 인공지능에 결함이 있었다고 할 수 있을까? 인공지능에게 벌금을 물리거나 징역형에 처하는 것이 가능할까? 이런 질문은 부차적인 것이다. 그보다 본질적인 것은 인공지능이 법적, 도덕적, 윤리적 책임을 질 수 있는가 하는 것이다. 

당신에게 오늘은 행복한 날이다. 모처럼 가족과 함께 여행을 가기로 했기 때문이다. 며칠은 밖에서 자야 하니 짐이 한 가득이다. 자동차를 몰고 가는 여행길은 사실 편하기만 한 것은 아니다. 때로는 길이 막히기도 하고 때로는 날씨가 말썽일 때도 있다. 그래도 여행은 언제나 가슴을 설레게 한다.

현실로 다가올 인공지능 관련 사건·사고
 
마침내 당신은 도로에 나섰다. 얼마의 시간이 지났을까? 한참 고속도로를 달리고 있는데 차가 막히기 시작한다. 이상한 일이다. 이 길은 평소에 차가 막히는 일이 거의 없기 때문이다. 얼마 후에 당신은 원인을 알게 된다. 교통사고가 났던 것이다. 그것도 여러 대의 차가 연쇄추돌사고를 일으킨 대형 사고다. 당신은 가슴을 쓸어내린다. 자칫하면 그 사고에 당신도 휘말릴 뻔  했음에 안도의 한숨을 내쉰다. 
목적지에 도착해서 뉴스를 보니 아니나 다를까 지나는 길에 보았던 교통사고가 보도된다. 그런데 이 사고는 다른 사고와 다른 점이 있다. 사고를 일으킨 차량이 무인 자율주행차량인 것이다. 많은 사람이 죽고 다쳤다. 그런데 그 책임은 과연 누가 져야 할까?

사고의 책임은 소유주? 제작사? 아니면 인공지능??

이런 일들이 앞으로 곧 현실화될 것이다. 인공지능이 운행하는 자율주행차량이 교통사고를 일으킨다면 누가 책임을 져야 할까? 차량의 소유주일까? 사람이 운전하는 경우라면 당연할 지도 모른다. 그런데 그는 전혀 운전에 관여하지 않았다. 그는 단지 평소처럼 인공지능에게 운전을 맡기고 잠을 청하고 있었을 뿐이다. 심지어 그 사고로 인해 소유주 자신도 부상을 당했다. 그에게 사고의 책임이 있을까? 물론 오늘날도 차량의 소유주와 실제 운전자가 다를 경우 사고책임을 누가 져야 하는가에 관한 보험사의 복잡한 규정이 있다. 
그러나 이 경우는 다르다. 소유주는 자신의 차 열쇠를 무책임하게 다른 사람에게 건네준 것이 아니다. 해당차량은 애초에 인공지능이 운행하도록 제작된 자율주행자동차이다. 소유주는 단지 본래 도구의 목적과 사용방법대로 사용했을 뿐이다.
그렇다면 차량의 제작사가 책임을 져야할까? 제작사는 사고에 대한 대책이 완비된 완전무결한 인공지능을 개발해서 공급해야 할 책임이 있다. 그런데 인공지능의 문제로 인해 사고가 일어났으니 이것은 제작사의 책임이 아닐까? 오늘날에도 차량의 결함으로 인한 사고가 명확한 경우라면 제작사에게 책임을 물을 수 있다. 그러나 실제로 사고 시에 차량의 결함임을 입증하기는 매우 어려운 일이다. 게다가 자율주행자동차의 사고와 같은 경우에는 정말로 인공지능의 결함이 있었다고 입증하는 것은 거의 불가능한 일이 될 것이다. 사람이 운전할 경우에도 사고가 난다. 이 경우에는 단지 운전자가 인공지능이었을 뿐이다. 인공지능이 운전하다가 사고가 났다고 해서 인공지능에 결함이 있었다고 할 수 있을까?
그렇다면 인공지능 자체에 책임을 물어야 할까? 인공지능에게 벌금을 물리거나 징역형에 처하는 것이 가능할까? 이런 질문은 부차적인 것이다. 그보다 본질적인 것은 인공지능이 법적, 도덕적, 윤리적 책임을 질 수 있는가 하는 문제이다. 
애완동물이 사람을 습격하는 사고가 일어날 경우 사고를 일으킨 애완동물을 안락사 시키는 경우가 있다. 그러나 이것은 애완동물에게 도덕적인 책임을 묻는 것이 아니다. 사고를 일으킨 애완동물이 또 사람을 공격할 위험성이 있다고 간주하고 위험을 사전에 예방하려는 의도에서 행하여지는 일이다. 물론 이 일이 실제로 진행되는 과정에는 철저한 논리와 법리가 아니라 다분히 인간의 감정적인 대응이 포함되는 것이 사실이지만, 현재까지의 인간의 법체계에서 인간 이외에 다른 존재는 법적인 주체가 될 수 없다. 사고를 일으킨 애완동물은 철저히 도구와 재물 그리고 위험요소로 취급된다. 그렇다면 인공지능은 이와는 다른 경우인가?

인간 이외에 다른 존재는 법적인 
주체가 될 수 없는 현재의 법체계

또 다른 예를 생각해보자. 인공지능 의사는 이미 현실화되어 있다. 인공지능은 사람 의사를 보조하며 환자의 병명을 진단하고 치료법을 제안한다. 물론 그것을 실제로 적용하는 것은 사람 의사가 담당한다. 하지만 병원은 매우 바쁘고 대개의 경우 인공지능은 오진이 거의 없다. 그리고 사람 의사보다 훨씬 높은 비율로 정확하게 병명을 진단하고 치료법을 제안한다. 따라서 인공지능에 익숙해진 병원은 거의 의심 없이 인공지능의 진단과 치료법을 신뢰하게 될 것이다. 그러나 오진은 언젠가는 반드시 일어난다. 만약 인공지능이 오진을 하고 그 결과 환자가 죽음을 맞이하는 일이 일어났다면 어떻게 해야 할까?
이미 언급한 것처럼 인공지능은 사람보다 훨씬 정확하게 진단한다. 아마도 전부가 사람 의사로 채워진 병원보다 인공지능 의사가 함께 있는 병원이 오진과 의료사고가 훨씬 적을 것이다. 사정이 이렇다보니 인공지능 때문에 의료사고가 일어났다고 비난하기란 쉽지 않다. 그러나 오진이 있었고 그 결과 환자가 죽음을 맞이했다면 누군가는 그에 대해 책임을 반드시 져야 한다. 이때에 우리는 누구에게 책임을 물어야 할 것인가? 인공지능과 함께 일하고 있는 수많은 의사 중 한명에게 책임을 물어야 할까? 환자를 지근거리에서 관찰했던 간호사들 중 누군가를 비난해야 할까? 해당 병원의 병원장이 책임을 져야 할까? 아니면 인공지능을 납품하고 관리하는 회사의 책임일까? 혹은 인공지능 자신이 책임의 주체가 되어야 할까?
아마도 현실에서 이런 일이 일어난다면 결국 병원도 의사도 회사도 인공지능도 책임이 없다고 판결이 나기가 십상일 것이다. 오늘날에도 의료사고는 입증하는 것이 대단히 어렵다. 하물며 이런 경우라면 어떤 의사였다 해도 일어날 수밖에 없는 오진이었고 병원은 최선을 다했다고 항변할 것이 분명하다. 법적으로는 아무도 책임지지 않는다 해도 우리의 윤리적 감정은 이 상황을 받아들일 수 있을까?

사고를 일으키는 인공지능은 
단지 도구가 아닌 사고의 주체?

어쩌면 그다지 멀지 않은 미래에 인공지능에게 법적인 책임을 지우는 법이 만들어질지 모른다. 이것은 사고를 일으킨 인공지능은 단지 도구가 아니라 사고의 주체로 받아들여지게 된다는 의미가 된다. 인공지능이 사고의 주체라면 인공지능이 책임을 지는 것이 당연하게 받아들여질 지도 모른다. 
인간의 판단이 개입할 여유 없이 인공지능이 스스로 판단해서 진행하는 영역이 점차 늘어나고 있다. 다시 말해서 기능상으로는 인공지능을 주체로 보아야 할 일이 많아지고 있다는 뜻이다. 현재까지의 인공지능은 아직 ‘자아’라고 할 개념이 없는 것으로 보인다. 하지만 그럼에도 불구하고 현실적으로 인간의 관리감독 없이 인공지능에 의해 진행되는 일의 영역이 넓어지고 있는 것이 사실이다. 이는 당연한 일이다. 인공지능을 개발한 목적이 바로 거기에 있기 때문이다. 사람이 일일이 신경 쓰기에는 너무 분량이 방대하거나 너무 빠른 시간에 이루어져야 하는 일, 또는 너무 복잡한 일을 인공지능이라는 도구를 사용해서 극복하려 했던 것이다. 
그런데 이는 결국 인간이 책임질 수 없는 상황에서 많은 일이 진행된다는 것을 뜻한다. 기능적인 주체는 어느 시점에서는 도덕적 주체로 인정되어야 할지도 모른다. 앞서 예로 든 교통사고나 의료사고는 빙산의 일각에 불과할 것이다.

인공지능에게 윤리적 책임 물을 시에 
인공지능을 인격적 주체로 수용하게 돼

이런 문제들은 법률가들과 공학자들이 머리를 맞대고 고민해야할 주제이다. 그렇다면 우리는 좀 더 본질적인 문제에 관해 생각해보자. 인공지능이 도덕적으로 책임을 져야 하는 상황에 놓인다면 이는 인공지능의 권리도 인정해야 하는 상황이 온다는 뜻이 아닐까? 책임을 질 수 있는 주체라면 권리도 요구하는 것이 당연한 것이 아닐까?
앞의 사례로 돌아가 보자. 사람 운전자의 경우라면 교통사고를 일으켰다고 해서 사형을 시키지는 않지만 우리는 대체로 사람 이외의 존재에 대해서는 가혹해지는 경향이 있다. 교통사고를 일으켜 여러 사람이 죽고 부상을 당한 데에 대한 책임을 지고 해당 인공지능을 사형-삭제한다고 가정해보자. 눈에는 눈, 이에는 이라는 함무라비 법전의 법을 따라 감정으로 대해서는 안 될 일이지만, 아무튼 그렇게 했다고 가정하자. 그렇다면 우리는 인공지능의 삭제와 사형수의 생명을 빼앗는 것을 동등하게 받아들인 셈이 된다. 우리는 인공지능에게 법적 도덕적 책임을 묻는 과정에서 부지불식간에 인공지능을 인간의 인격 혹은 생명과 비슷한 정도의 무게로 인정하게 되는 것은 아닐까? 인공지능에게 책임을 묻는다면 인공지능의 권리도 인정해야 하는 것은 아닐까?

인간의 본질에 대한 질문으로 환원하는
인공지능에 관한 모든 상상

이런 상상은 각종 공상과학소설이나 영화, 게임 등에서 이미 종종 등장해왔다. 1940년대부터 출간된 아이작 아시모프의 고전적인 SF소설에서부터 최근 PC방에서 가장 인기 있는 게임이라는 「오버워치」의 배경 이야기에 이르기까지 이런 상상은 끊이지 않았다. 그런데 이것이 과연 상상으로만 끝날까?
인공지능이 윤리적 주체가 될 수 있다면 이는 인공지능이 인격적 주체로 받아들여지게 된다는 것을 의미한다. 우리는 이런 주제에 대해 어떤 반응을 보일 수 있을까? 만약 찬성한다면 그 이유는 무엇이며 반대한다면 그 근거는 무엇이 될 것인가? 결국 이는 “누가 인간인가?”라는 주제로 수렴한다. 인공지능에 관한 모든 상상은 역설적으로 인간의 본질에 대한 질문으로 환원하게 되는 것이다. 이것이 이 분야에 대해 전혀 아무것도 모르는 비전문가이며 심지어 목사인 내가 이 글을 쓰기 시작한 이유이기도 하다. 
우리는 과연 ‘인간’에 대해 얼마나 알고 있는가? 

문상호 목사 / 기쁨가득한 교회

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토