[뉴스워치= 이우탁 기자] 인공지능(AI) 알고리즘, 프로그래밍 언어, 소프트웨어, 로봇플랫폼 등은 인간이 만든 피조물이며 도구다. 하지만 그 피조물이 결국에는 인간의 소유와 통제를 벗어나 독자적인 운명을 개척하는 존재로 향해 갈지 모른다는 생각은 종종 AI 로봇에 대한 공포로 이어진다.

혹자는 AI 로봇이 멀지 않은 미래에 모든 분야에서 인간을 압도할 것이기 때문에 인간이 로봇과 공존하는 법을 배우지 않으면 인류의 생존은 장담할 수 없는 일이 될 것이라고 경고한다. 따라서 로봇과 경쟁할 수 없다면, 인간 고유의 통찰력·상상력·공감력·도덕성 같은 능력을 더 향상시켜 로봇과의 공생을 도모해야 한다고 강조한다.

1993년 어느 봄날 필자
1993년 어느 봄날 필자

여기서 AI 로봇이 인간을 압도하게 된다는 것은 감정이 배제된 과학적·논리적 방식으로 인류를 지배한다는 것만을 뜻하지 않는다. 그 로봇이 인간에게 공포를 안겨주는 어떤 목적과 의도를 가질 수도 있다는 것도 포함돼 있다.

이 같은 우려는 AI가 총체적으로 인간의 수준을 추월하자마자 아주 빠른 속도로 인간의 통제권을 무력화시키는 수순을 밟게 될 것이라는 가설에 근거한다. 예를 들어, 어떤 강한 인공지능(strong AI)이 신속하게 자신을 닮은 다수의 강한 AI를 만들어내고, 그 AI들이 보안을 뚫고 자신의 초기 알고리즘과 설계에 접근해 이를 해독·이해한 다음 스스로를 급속도로 개선하거나 수정하게 된다.

이 과정이 무한 반복되고 기하급수적인 개선과 혁신이 이뤄지면서 보다 뛰어난 능력을 가진 강력한 AI로 진화해간다. 그 진화 과정의 종착역은 초지능(Super Intelligence) 단계다. 이 존재는 제일 먼저 인터넷이나 스타링크와 같은 전(全) 지구적 정보·통신망으로 점프해 무한대의 처리 능력에 접근할 것이다.

이것을 공상과학 소설이나 영화에서 나올 법한 스토리라고 치부하는 사람들도 있겠지만, 일선에 있는 과학자나 관련 전문가, 정책수립자들 사이에서는 인간에 대한 로봇의 지배나 인간과 로봇의 공생이라는 문제로 열띤 논쟁이 계속 진행되고 있다.

사실 로봇이 인간의 지배권에서 벗어나 완전한 독자성·자율성을 획득하기 위해서는 단기간에 넘기 힘든 한계들이 있다.

AI 로봇의 관점에서 자신들의 반란이 성공하기 위해서는, 인간의 개입이나 도움 없이 재생산, 정비, 에너지 공급 등을 할 수 있어야 한다. 또한 인간의 독특한 특성인 윤리와 감정이입 등을 자신의 세계에서 배제해야 할 뿐만 아니라, 생존본능과 함께 환경을 통제하려는 의지를 갖고 있어야 한다. 마지막으로 인간이 자신을 통제·관리할 수 있는 인터페이스를 완전히 봉쇄해야 한다.

결과적으로 이 모든 조건들이 충족돼야만 로봇 자신들에 대한 인간의 지배권을 무용지물로 만들 수 있을 것이다.

그러나 고도로 자동·자율화돼 가는 AI 로봇이 군사·생산·교육·의료·문화 분야에서 자신의 작용력과 영향력을 확장하고 있음에도 로봇은 여전히 연료 공급, 지원, 운영 등에서 인간의 지배 하에 놓여 있다.

AI 로봇이 결국 모든 분야에서 인간을 압도한다 하더라도, 사회·문화·복지 분야에서는 인간이 자신을 돕거나 지원하고, 경우에 따라서 권한을 위임하는 제한적인 목적의 로봇을 만들기 위해 공감성 및 윤리 알고리즘이라는 DNA를 로봇에 이식하려는 부단히 노력할 것이다.

이 때문에 로봇이 강력한 AI와 결합한다 하더라도 인간과 교감하고 공생하는 특성을 완전 배제할 수 없게 돼 인간에 대한 반란을 주저하게 될 가능성이 높아진다.

그런데 군사나 치안 분야의 경우를 생각해보면, 그들은 원칙적으로 전장에서의 병력 손실이나 범죄에 대한 민간인의 피해를 줄이기 위해 AI 로봇을 사용할 것이라고 주장하지만 때때로 그들은 특수한 목적과 정당한 목적이라는 불가피성을 내세우며 로봇의 자율 통제력과 자율 생존력 부여를 은밀하게 실험할 것이다.

실제 전쟁이나 범죄 현장에서는 자율성·생존성이 강화된 로봇이 특수 목적과 명분 하에 살상·파괴 작전에 투입되는 경우가 눈에 띄고 있다.

미국 텍사스 주 댈러스 경찰이 경찰 저격범 진압 과정에서 사용한 '폭탄 로봇'과 비슷한 모델의 로봇./미 해군 제공
미국 텍사스 주 댈러스 경찰이 경찰 저격범 진압 과정에서 사용한 '폭탄 로봇'과 비슷한 모델의 로봇./미 해군 제공

군용 로봇이 민간 범죄자를 제거하기 위한 목적으로 투입된 이례적인 사례를 하나 들면, 지난 2017년 7월 8일(현지시각) 미국 텍사스 주 댈러스 경찰이 경찰 5명을 살해한 저격범을 제압하는 과정에서 폭탄을 장착한 군사용 원격조종 로봇을 투입해 대치 중이던 저격범을 폭사시킨 사건이 있었다.

경찰이 민간인 신분의 범인을 제압하기 위해 군사용 로봇을 사용한 것을 두고 당시 미국 사회에서는 논란이 뜨거웠다. 그 논란의 쟁점은 △경찰의 군사무기 사용의 적법성 △과도한 무력 사용 △충격적인 전례 확립 △경찰의 군사무기 통제 능력 등에 관한 것이었다. 이외에도 경찰의 군사용 로봇 투입이 치안과 전쟁의 경계를 무너뜨릴지도 모른다는 지적도 제기됐다.

당시 미국 소식통에 따르면 데이비드 브라운 댈러스 경찰국장이 기자회견에서 폭탄 로봇이 아닌 다른 수단들은 경찰관들을 엄중한 위험에 노출시킬 수 있었다면서 로봇 투입 결정은 정당한 이유로 불가피한 것이었다고 항변했다.

이와 관련해 미국 사회의 일각에서는 범인을 밖으로 유인하거나 저격수를 활용할 수도 있지 않았느냐고 문제를 제기하면서, 이 문제는 경찰의 폭탄 로봇 투입의 법적 정당성 문제와 직결되는 것이라고 지적했다.

이에 대해 라이언 칼로 워싱턴대학 교수는 누군가 치명적인 위협을 계속할 때 경찰이 스스로 위험한 상황을 자초할 의무는 없다면서 법원이 법적인 문제점을 찾기는 쉽지 않을 것이라는 입장을 내놓았다. 또한 그는 이 문제에 대한 미국 사회의 논란과 혼란은 정당한 상황에서 폭탄로봇(킬러로봇)의 사용은 용인할 수 있지만, 그 방법이 익숙한 것이 아니기 때문이라고 분석했다.

또 다른 예는 자율주행 군용 드론이 실제 공격을 감행한 최근 사례들 중 하나다. 터키군의 자율주행 드론 카구-2(Kargu-2)가 지난 2021년 3월 말 리비아에서 리비아 군을 공격했다. 이 사실은 유엔상임이사회의 리비아 관련 전문가 패널 보고서가 공개되면서 뒤늦게 알려지게 됐다.

그 보고서에 따르면 리비아 군을 공격한 '카구-2' 드론 내부에 "일단 발사하라. 그리고 잊고 다른 수색 작업을 계속 진행하라"는 식으로 프로그래밍돼 있었다면서, 20여 대가 동시에 공격을 가하거나 폭발물을 싣고 자살폭탄 공격을 감행할 수도 있다고 했다. 이 드론의 무게는 약 6.8킬로그램이며, 최대 속도 144km/h(90mph)로 30분간 비행 후 복귀할 수 있는 것으로 알려졌다.

사실 군에서 병력 손실과 피해를 줄일 목적으로 자율 로봇시스템을 연구·개발해 운용한다고 하지만 전쟁의 본성과 불확실성이라는 측면을 고려해본다면, 그 원칙을 고수하는 일이 매우 힘들다는 사실은 부인할 수 없을 것이다.

터키군이 지난 2021년 3월 말 리비아에서 리비아 군을 공격했던 자율주행 드론 카구-2(Kargu-2)와 비슷한 모델의 드론./사진=STM
터키군이 지난 2021년 3월 말 리비아에서 리비아 군을 공격했던 자율주행 드론 카구-2(Kargu-2)와 비슷한 모델의 드론./사진=STM

AI 로봇이 완전한 독자성·자율성에 이르는 데 걸림돌이 되는 다른 측면을 살펴보자. 인간이 미래에 언젠가는 AI 로봇이 위협적인 존재가 될 가능성이 있음을 염두에 두고 있기 때문에 AI의 의사결정을 통제할 수 있는 인터페이스와 그 안전 및 보안장치를 진화 수준에 맞춰 설계하고 강화시켜 나갈 것이라는 점이다.

어떤 전문가 집단은 AI와 로봇의 발전으로 야기될 수 있는 위험과 문제를 심각하게 고려해볼 때, 그 사태를 대비한 현실적인 대안은 AI와 로봇 연구개발에 제한을 두거나 그것을 포기하게 해야 한다고 주장한다.

이 주장의 근거는 강력한 무기를 설계·제조할 수 있는 능력이 있음에도 불구하고 그 무기 개발을 위한 특정한 과학·기술 연구를 포기하거나 제한한 전례가 있다면서, 대부분의 국가들이 핵무기나 생·화학무기 개발과 보유에 대해 제한을 두거나 포기하는 것에 합의를 했다는 것이다. 또한 국제 사회가 미래에 위협이 될 혐오스러운 하이테크 무기에 대한 사전차단 노력도 함께 진행 중이라는 것이다.

예를 들어 보자. 스위스 제네바에서 유엔 무기 관련 다자회의가 2015년 4월에 열린 적이 있는 데, 그 회의 안건 중 하나는 '킬러로봇 책임 부재'라는 '휴먼라이트워치'의 보고서였다.

50여 개 글로벌 인권단체 및 비정부기구들과 함께 지난 2013년부터 '킬러로봇 중지 캠페인' 벌이고 있는 이 단체는 자율 로봇이 인류를 위협하는 살상무기가 될 가능성을 사전에 차단하는 것을 목적으로 하고 있다.

당시 안건으로 채택된 휴먼라이트 보고서는 전(全)자동 살상무기가 갖는 특성상 민·형사상 책임을 묻기가 어려운 상황이 발생할 수 있음을 지적하고 있다. 이에 대해 유엔 회의에 참석한 주요 강대국 대표들은 아직은 AI 전자동으로 사람을 공격하는 형태의 로봇은 존재하지 않는다거나 인간의 승인 없이 스스로 인간을 공격하는 형태의 로봇은 만들 계획이 없다는 등 킬러로봇에 대한 자국의 입장을 밝힌 바 있다.

그러나 AI 자율 로봇에 대한 연구에 제한을 둬야 한다거나 킬러로봇 출현을 사전 차단해야 한다는 주장은, 만만치 않은 적과 지금도 전쟁 중에 있고 잔혹한 테러리스트나 잠재적인 적들로부터의 진화된 공격에 상시 대비하기 위해 하이테크 무기로 무장한 군사력이 필요하다고 생각하는 사람들이 상대적으로 많다는 사실과 바로 그들이 AI와 로봇 연구를 주도하고 있다는 것을 간과하고 있다.

게다가 인간은 본성상 전쟁·권력·이익 추구라는 운명적 굴레에서 벗어날 수 없는 존재이다. 또한 인간은 새로움과 미지에의 지적 욕구도 포기할 수 없다. 때문에 인간들 중 일부는 AI와 로봇에 대한 연구와 실험에서 한계를 넘으려는 시도를 감행할 것이 분명하다.

다시 말해서, AI 로봇 연구에 대한 제한이나 금지를 규정하는 구체적인 시스템 구축이라는 전 지구적인 합의에 이른다고 하더라도(이 가능성은 희박하지만), 그 합의는 언제든 깨질 수 있다. 왜냐하면 누군가는 은폐된 혹은 은밀한 곳에서 금지된 연구를 진행하거나 전쟁·테러 등에서 벌어질 불가피한 상황을 정당화 해 판도라의 상자를 열 것이기 때문이다.

사우디와 아랍에미리트에서 격추된 예멘 반군의 드론./사진=유엔안전보장이사회 패널 보고서
사우디와 아랍에미리트에서 격추된 예멘 반군의 드론./사진=유엔안전보장이사회 패널 보고서

AI가 야기할 만일의 사태나 위험을 대비하기 위한 또 다른 선제적인 대안은?

AI 로봇을 만드는 과학자와 기술자의 윤리와 AI 로봇 내부의 인공 윤리(artificial ethics)를 규정하고 관리해야 한다는 두 가지 차원에서 그 대안을 모색해볼 수 있다.

그런데 인간의 측면에서 보면, AI 로봇 과학자들이 어려운 과학적 문제에 대한 윤리적 대응 방안을 강구하려고 할 때, 참조할 수 있는 전문가적 규율이나 전통이 없기 때문에 이런 윤리를 관리하기가 힘들다.

오늘날 AI 로봇 분야의 발전과 혁신이 인간의 조건을 변화시키고 인간의 생활에 직접적이고 광범위한 영향을 주고 있음에도 불구하고 이 분야에서의 인간 윤리라는 주제에 관해서 철학자와 윤리학자들은 아직까지도 통일된 답을 내놓지 못하고 있다.

예를 하나 들어보자. 자율(자동) 로봇시스템에 적용돼야 할 윤리적 지침을 얘기할 때 종종 언급되는 것이 있는 데, 그것은 아이작 아시모프의 공상과학 소설인 '아이, 로봇'에 등장하는 '로봇의 3대 원칙'이다.

△제1원칙: 로봇이 인간에게 해를 가하거나 혹은 행동하지 않음으로써 인간에게 해가 되도록 해서는 안 된다 △제2원칙: 로봇은 인간이 내리는 명령에 복종해야 하며, 단 이 명령이 첫 번째 원칙에 위배될 때만 예외로 한다 △제3원칙: 로봇은 자신을 스스로 보호해야 하며, 단 이 보호가 첫 번째와 두 번째 원칙에 위배될 때는 예외로 한다.

그런데 이 원칙에는 문제가 있다.

우선 이 원칙을 로봇의 내부에 이식할 수 있는 과학기술은 현재까지 신뢰할 만한 수준에 도달하지 못했다. 아시모프가 선언한 로봇 원칙이 인간의 언어로 시원스럽게 개념화 됐지만 이것을 프로그래밍하는 것은 쉬운 일이 아니다.

설령, 그것을 프로그래밍하는 데 성공했다고 하더라도 실제에서 예상한 대로 상황이 전개될 지는 그 전례가 전무하다. 더구나 참조할 만한 충분한 실증 데이터의 축적을 마냥 기다리는 것도 더더욱 힘든 일이다.

문제는 이 뿐만이 아니다. AI 로봇 관련 연구비 중 상당 부분을 군이나 특정 대기업이 주도하고 있다. 만약 군(軍)이 △자신의 목숨은 아랑곳하지 않는 로봇 △모든 인간 혹은 특정 인간에게서 명령을 받지 않는 로봇 △정당한 이유가 있으면 언제든 반격할 수 있는 자율 킬러로봇 등을 필요로 한다면, 군 분야의 로봇 원칙은 무의미한 것이 될 수도 있다.

마지막으로 이러한 로봇들에게 인간에 대한 특정한 의미 부여를 상정해 특정 집단만을 '인간'이라고 인식하게 한다면, 로봇은 원칙 모두를 따르면서도 특정된 인간에서 배제된 다른 인간에게 해를 끼칠 수도 있을 것이다.

LG전자 직원이 안전펜스, 출입문 비상정지장치, 안전제어 시스템 등 산업용 로봇 안전 기준을 점검하고 있다./사진=LG전자(이 글 내용과 직접적인 관계는 없음)
LG전자 직원이 안전펜스, 출입문 비상정지장치, 안전제어 시스템 등 산업용 로봇 안전 기준을 점검하고 있다./사진=LG전자(이 글 내용과 직접적인 관계는 없음)

"그렇다고 좌절하지 말자."

로봇에게 안전장치를 성공적으로 달아주기 위한 또 다른 방안으로, 앞을 내다보는 설계라는 측면에서 윤리적 설계의 필요성을 검토하는 것이다. 그것은 발생 가능한 문제를 모두 고려해 사전에 AI 로봇 시스템과 그 통제장치를 설정함을 의미한다.

이런 윤리적 설계에 대한 시작점은, AI 로봇 설계는 가능한 한 예측 가능해야 한다는 것이다. 다시 말해서, AI 로봇은 항상 설계된 대로 기능하도록 해야 한다. 이 말은 일정 시간이 지남에 따라 △새로운 형태로 △예측하지 못한 형태로 △위험성이 내재된 형태로 진화할 수 없도록 선제적으로 조치해야 함을 의미한다.

또한 AI 로봇의 자율성이 증대되는 상황에서는 로봇을 통제하고 상황에 따라 그 작동을 중지시킬 수 있는 시스템도 정립돼야 한다. 특히 실제 세계에서의 AI 로봇의 통제는 특정된 사용자나 소유자로 제한돼야 한다. 그 이유는 사악한 의도를 가진 전문가가 AI 로봇에 대한 통제뿐만 아니라, 악의적으로 그것을 탈취하거나 그 프로그램을 임의로 변경해 악용하는 것을 막아야 하기 때문이다.

가능하다면 모든 AI 로봇이 자신의 각 기능을 여러 곳에서 독립적으로 진행하게 함으로써 상호 교차 확인이 가능하도록 설계돼야 한다. 이러한 방식은 로봇의 잠재적 위험 변수를 기하급수적으로 낮춰 줄 수 있다.

그리고 정보 자체가 위험성을 내포하고 있다는 인식 또한 윤리적 설계의 당위성을 뒷받침하는 주요한 근거다. 정보에 대한 이러한 인식은 AI 로봇 시스템의 설계뿐만 아니라 그 시스템을 통해 수집·저장되는 모든 정보에 적용될 수 있다.

따라서 공정할 수만 있다면, AI 로봇의 행위에 관한 정보를 수집·저장·관리할 수 있는 공공 제도나 체계도 갖출 필요가 있다. 예를 들면, AI 로봇에 이상이 발생할 경우 그 책임을 따질 수 있기 위해서는 각각의 AI 로봇에 고유한 인식코드를 부여해 각각의 모든 행적을 추적할 수 있게 하는 것이다.

어쩌면 미래 전쟁에서의 교전수칙 및 제네바 협약 같은 프로토콜을 담지한 알고리즘과 인간을 닮은 군인이 되게 해줄 여타 도덕적 교리를 반영한 '어떤 알고리즘을'을 AI 로봇에게 성공적으로 부여할 날이 올 것이다.

그럼에도 불구하고 이 모든 문제에서 부인할 수 없는 핵심은 '윤리'가 AI 로봇뿐만 아니라 그것을 연구하고 설계하고 제작하고 운용하는 모든 인간에게도 적용돼야 한다는 것이다.

AI 로봇이 초지능 단계로 점프해 인류를 지배하게 될지는 알 수 없지만, AI 로봇 기술의 광범위한 영향력의 확대로부터 돌출돼 나올 많은 윤리적 문제는 다양한 층위의 실제성을 지니고 있기 때문에 안이하게 이 문제에 접근해서는 안 될 것이다. 가능하다면 선제적인 조치에 과감해야 한다. 그게 실패한다면, 인류는 돌이킬 수 없는 깊은 나락으로 추락할 수도 있다.

AI 로봇 기술의 혁명적 전환기에서 우리의 노력이 너무 늦은 일이 되지 않기를 바랄 뿐이다.

이우탁 경제산업부 부국장 newswatch@newswatch.kr

저작권자 © 뉴스워치 무단전재 및 재배포 금지