[뉴스워치= 이우탁 기자] AI 로봇의 알고리즘에 전쟁법, 군법, 교전규칙, 합동표적목록, 식별 매뉴얼 등을 유기적으로 담지해 프로그래밍한다고 하더라도 인권과 인간의 윤리성이 미래 전쟁에서 직면하게 될 법적 딜레마는 쉽게 해결되지 않을 것이다.

군사 표적과 관련해 얘기하자면, 사실 전투가 격렬해져 가는 전장에서 민간 표적과 합법적인 군사 표적을 식별-판단하고 사격 통제를 하는 것이 종종 힘든 경우가 많다.

특히 시가전이 벌어지는 도심 한가운데에서는 더욱 그렇다. 그 이유는 시가전 상황에서는 도처에 민간인이 혼재해 있고, 심지어 민간인이 방패막이로 이용되는 경우가 있기 때문이다.

1993년 어느 봄날 필자
1993년 어느 봄날 필자

예를 들어, 적의 장갑차가 의료시설 안에 자리잡고 반격 준비를 하고 있는 것으로 판단했을 때 그것을 타격하는 것이 합법적인가?

또는 적의 탱크가 주택 밀집 지역 도로 위를 달리고 있는데 그 위에 민간인이 타고 있는 경우, 혹은 전투 상황에서 적이 앰뷸런스에 전투원이나 무기를 싣고 이동하고 있는 경우는 어떨까?

이런 상황에 대해 군인이든 군 법무관이든, 기타 관련 전문가들이 내놓는 대답이 일치하지 않는다.

하물며 과학·기술적으로 아직 완숙되지 않은 AI 로봇에게 이런 상황에 대한 판단을 내리도록 할 수 있는가라는 문제는 그 해석과 입장 정리가 더욱 힘들다. 만에 하나 적군이 아군 로봇의 교전수칙이나 표적 식별 알고리즘을 역으로 이용한다면, 더더욱 혼란에 빠질 것이다.

전쟁의 또 다른 측면을 살펴보자. 전시(戰時)에도 민간 사회처럼 범죄가 발생한다. 여느 범죄와 마찬가지로 전쟁 범죄에도 다양한 원인이 있기 마련이다.

민간인이나 포로에 대한 비인간적인 폭력과 살상이 가학적인 성향이 강한 혹은 정신불안 상태에 빠진 군인의 개인적인 차원에서 자행되기도 하고, 제2차 세계대전 당시 중국 헤이룽장성(黑龍江省) 하얼빈에 주둔했던 일본군 731부대의 경우나 홀로코스트(Holocaust)처럼 계획된 전략이나 정책으로 집단적인 잔혹 행위가 벌어지기도 한다. 결과적으로 전쟁이 이를 부추기거나 실현시켜주는 산파역을 한 셈이기도 하다.

납득하거나 설명하기가 어려운 사례도 있다. 베트남 전 당시 자행됐던 몇몇 민간인 학살 사건이 그렇다. 대개는 전투 경험이 많고 노련한 군인들이었지만 이성을 잃고 우발적인 범죄를 저질렀던 경우다. 이는 가학적인 성향을 가진 인간에 의해서만 잔혹 행위가 저질러지는 것이 아님을 단적으로 보여준다.

격렬한 전투 중에 그때그때마다 군인들은 필연적으로 격정적인 감정과 분노에 빠질 수 있는 상황에 놓이게 된다. 이 경우에 일어나는 분노는 범죄를 먼저 저지른 적을 향한 것일 수도 있다. 또한 끝까지 살아남아 고향에 있는 가족의 품으로 돌아가기 위해 적을 죽이지 않을 수 없는 상황에 몰린 자기 자신에 대한 분노일 수도 있다. 특히 이 분노는 임무를 완수하고 고국의 가족에게 돌아가기 위해서라면 끔찍한 행위까지 주저하지 않게 만들 가능성이 크다.

따라서 이러한 분노들은 전쟁 범죄의 뜨거운 연료가 돼 군의 규율이나 전문성을 무력화시키는 역할을 한다. 이는 개별 병사 혹은 부대 전체의 평정심과 전문성이 순간적인 감정과 분노의 열기로 상실될 수 있음을 의미하는 것이다.

이러한 광기를 폭발시키는 촉발제는 다양하다. 지휘관이나 동료의 죽음을 목도하며 극단으로 치닫는 박탈감, 지휘관의 그릇된 리더십, 열악한 환경에서 장기간 계속된 스트레스의 심화 등이 분노의 심지에 붙은 불꽃이 된다.

결국 전쟁터에서 보통의 인간으로서의 군인은 전투의 열기, 보복의 욕구, 비인간화의 충동, 비이성과 잔혹성의 유혹과 덫에 자유로울 수 없는 존재이다.

국방과학연구소와 한화디펜스 등이 개발 중인 무인수색차량은 육군 기계화 부대에 앞장 서서 수색-정찰 임무를 수행하기 위해 개발중인 국내 최초의 무인 지상 로봇무기로 원격 또는 자율주행이 가능하다. 한화디펜스가 최근 공개한 영상에서 이 로봇은 어둠 속에서 12.7mm K6 중기관총 사격을 하거나 야외 기동 중 기관총 사격을 실시했다./한화디펜스 영상 캡처(이 글과 관계 없음)
국방과학연구소와 한화디펜스 등이 개발 중인 무인수색차량은 육군 기계화 부대에 앞장 서서 수색-정찰 임무를 수행하기 위해 개발중인 국내 최초의 무인 지상 로봇무기로 원격 또는 자율주행이 가능하다. 한화디펜스가 최근 공개한 영상에서 이 로봇은 어둠 속에서 12.7mm K6 중기관총 사격을 하거나 야외 기동 중 기관총 사격을 실시했다./한화디펜스 영상 캡처(이 글과 관계 없음)

AI 로봇이 전쟁의 희생뿐만 아니라 범죄까지도 줄일 수 있는 대안이 될 수 있을까?

인간이 도달하기 힘든 수준의 유기적이고 조직적인 활동으로 작전 수행이 가능한 로봇은 분노, 복수에의 열망, 박탈감, 광기 등에 휘둘리지 않는다. 또한 로봇은 판단력을 저하시키는 피로감이나 무력감을 느끼지 않으며, 예측 불가능한 충동적인 행동을 유발하는 호르몬을 분비하는 일도 없다. 따라서 우발적인 범죄는 로봇 병사의 영역에서 없는 것이다.

이것이 가능한 이유는 로봇이 감정이 아닌 알고리즘에 따라 프로그래밍된 바대로 행동하기 때문이다. 다만 계획적-의도된 범죄에는 이용될 가능성이 여전히 남아 있다.

로봇 체계를 조종하는 인간 병사의 경우를 생각해 보자.

지능형 무인로봇을 조종하는 인간 병사는 전투 현장에서 아주 멀리 떨어져 있기 때문에 동료가 죽어가는 모습을 자신의 로봇을 통해 보더라도 아드레날린이 폭발하지 않는다. 그래서 그는 상대적으로 두려움이나 감정이 배제된 상태에서 표적에 대한 사격 여부를 결정하고 실행할 수 있다.

이 같은 인간 병사의 로봇을 통한 작전 접근성은 민간인 살상 가능성을 줄이는 데에 기여할 수 있지만, 한편으로는 인간이 비디오 게임이라는 가상 세계에서 과격하고 파괴적인 행위를 아무렇지 않게 할 수 있는 것처럼, 원거리 무인 로봇을 조종하는 일부 인간 병사는 살인이나 파괴에 대해 무감각해질 수 있다.

더욱이 실제 살인이나 파괴 행위가 모니터 상의 아이콘이나 점 따위를 제거하는 행위로 바뀌었을 때, 그것이 반복됨에 따라 보통의 인간 병사들마저도 그 행위를 하는 것에 대해 가볍고 무감각한 감정을 느낄 가능성이 농후하다.

이와 관련해 전쟁에서의 살해에 관한 몇몇 전문적인 연구는 표적에 대한 관점과 표적과의 거리가 살해 시도와 의미 있는 상관관계가 있음을 시사하고 있다.

인간 병사에게 표적을 비인간적으로 생각하고 대우하도록, 인간이 아닌 어떤 무엇으로 보도록 상황을 의식화-대상화할 경우 살해 행위에 쉽게 이를 가능성이 커진다. 이 경우 인간 병사는 적을 하등한 존재로 비하하거나 본때를 보여줘야 할 비인간화 된 대상물로 간주하게 된다.

또 다른 살해 촉진 요인은 표적과의 거리가 물리적·정서적으로 멀리 떨어질수록 살해가 보다 더 쉬워진다는 것이다. 즉 멀리 떨어져 전투를 수행하는 병사는 백병전에 임할 때와 비교해 살해에 따른 두려움이나 거부감을 거의 느끼지 않는다.

결과적으로 전장에서의 AI 로봇의 출현은 그 조종자로서의 인간 병사가 대상(표적)을 바라보는 방식을 원거리-가상적인 것으로 바꿔놓음으로써 살해 촉진 요인이 더욱 강화되게 만들었다는 것이다. 이에 더해 로봇의 자율성이 점차 증대된다면 전쟁에서의 인간적인 요소(인권·윤리성에서 고수돼 온 몇몇 입장과 정서)가 부분적으로 제한되거나 변하는 것에 그치지 않고 완벽하게 배제될 위험성이 증대할 것이다.

그런데 전쟁터에서 벌어지는 참극 중에는 민간에서 말하는 과실치사에 해당되는 실수 때문에 벌어지는 것들이 있다.

이 문제와 관련해 무인 로봇시스템이 전쟁에서 실수와 의도하지 않은 희생을 줄여줄 수 있는 몇 가지 대안을 제공할 것으로 예측되고 있다. 왜냐하면 로봇 병사가 가지고 있는 감지·인지·연산·정보처리·추론 능력이 인간의 것과 비교해 압도적으로 정교하기 때문이다.

로봇의 정확성이 높아질수록 작전 수행 시 실수나 의도하지 않은 민간인 살상이 크게 줄어들 것이라는 점은 명백하다. 특히 로봇이 민간인 인명 피해를 예측해주는 AI 시뮬레이션 모듈을 장착할 경우 그 정교함은 배가돼 여러 형태의 민간인 피해를 상당한 수준으로 경감시킬 것이다.

그렇다고 로봇 병사의 능력을 지나치게 과신하지는 말자.

컴퓨터가 운영자인 인간의 실수가 아닌 컴퓨터 시스템 자체의 문제 때문에 다운될 수 있듯이 로봇 역시 그와 같은 문제가 있을 수 있다. 가령, 인간의 경우와 비교해 로봇에게는 아주 드문 경우라고 하더라도 민간인을 군인으로, 민간 트럭을 탱크로, 아군을 적군으로 오인해 벌어지는 참극이나 인명 피해가 미래에도 존재할 것이다.

이러한 비극은 로봇의 알고리즘이나 소프트웨어의 문제이거나 부적절한 설계 때문에 야기된 것일 가능성이 가장 높다. 이 경우 누가 책임져야 하는가? 설계자일까? 프로그래머일까? 아니면 사용자일까?

(이 물음과 관련해 한 가지 특이한 점은 연구·개발·설계를 맡은 로봇 공학자들은 자신들이 만든 로봇의 잘못으로 인명 피해를 줄 경우 자신에게 법적 책임이 있다거나 범죄 행위가 된다고 진지하게 생각하는 경우가 드물다는 것이다.)

로봇 병사의 자율성과 그에 따른 위험성의 문제에 대해 본격적인 고찰에 들어가기에 앞서, 예를 하나 들어보자.

처음에는 '특정한 지역에서만 특정한 표적만을 공격하라'는 식의 아주 제한된 방식을 기반으로 한 교전수칙과 체크리스트를 프로그래밍해 로봇 병사에게 그 자율성을 제한-부여할 것이다. 그 리스트의 가상적인 예는 다음과 같다.

"START

1)도시 A지점에서 50킬로미터 떨어진 곳인가? 지역 식별 완료.

2)표적이 T-90 전차인가? 표적 식별 완료.

3)식별 완료된 해당 표적이 허용된 자유 사격 지역 안에 있는가? 사격 허용 위치 확인 완료.

4)표적 반경 300미터 내 아군 부대가 있는가? 아군 없음.

5)표적 300미터 내에 민간인이 있는가? 민간인 없음.

6)무기 발사 승인.

7)인간 지휘 승인 불필요.

8)발사 실행."......

이처럼 초보적인 수준에서 출발한 로봇 병사의 자율성은 점차 높고 강한 수준으로 나아갈 공산이 크다. 그때마다 맞닥뜨리게 될 법적·윤리적 딜레마는 인간을 더욱 당혹스럽게 만들 것이다.

그런 상황에서 로봇 병사에게 치명적인 행위를 결정할 권한을 어느 정도 양도해야 할까?

양도의 정도가 어느 수준이 됐든 '양도'라는 사실 자체와 양도의 주체가 여전히 변함이 없다고 한다면, 로봇 병사에게 양도되는 '그것'의 본질과 그 변양태는 무엇일까?

[다음 편에 계속]

이우탁 경제산업부 부국장 newswatch@newswatch.kr

저작권자 © 뉴스워치 무단전재 및 재배포 금지