스스로 적을 파악하고 공격하는 ‘킬러로봇’, 더 이상 영화 속 상상력이 아니다. 인공지능 무기화에 속도가 붙으면서 ‘기계 자체가 인명을 살상하는 날’이 가까워지고 있다. 인간의 개입 없이 전투를 수행하는 인공지능 무기 개발 상황을 살펴보고, 그에 따른 논란도 짚어봤다.
#. 1991년 개봉 영화 ‘터미네이터2’
1997년 미국 정부는 인공지능(AI) ‘스카이넷’이 무인 스텔스 폭격기를 능숙하게 조종하자 미군의 모든 무기를 스카이넷이 통제하도록 국방체계를 완전히 바꾼다. 군 지휘권도 모두 넘어간다. 스카이넷은 자신을 위협하는 인간을 모두 ‘적’으로 간주하고, 인류 전체 말살에 나선다. 그해 8월 29일 스카이넷은 러시아에 핵미사일을 쏘아 미·러 간 핵전쟁을 유발한다. 인류 대부분은 핵폭탄에 휘말려 숨지고 소수만 살아남아 스카이넷과 외로운 투쟁에 나선다.
#. 2005년 개봉 영화 ‘스텔스’
스텔스기 3대로 이뤄진 ‘테론’ 편대에 3명 파일럿이 선발된다. 이들에게 최첨단 인공지능 무인 스텔스기인 ‘에디’가 추가 투입된다. 하지만 갑자기 인공지능 회로에 문제가 생기면서 통제 불능이 된다. 에디는 피아 식별을 제대로 하지 않는데다 민간인 피해도 고려하지 않고 공격에 나선다. 또 러시아를 가상이 아닌 실제 적대국으로 인식하고 폭격을 시도한다.
영화 속 인공지능 무기 얘기다. 먼 미래 모습이라고 생각했던 살상극은 이미 현대 전쟁에서도 한창이다. 그 현장은 시리아다. 2015년 1월 중순 러시아 관영 매체 스푸트니크에 따르면 시리아군이 러시아제 군사 무인로봇 기갑차량인 ‘플랫폼-M’을 실전 배치했다. 플랫폼-M은 기관총과 대전차 로켓 발사기를 장착한 무인 전투차량이다. 러시아군도 특수부대에 배치했다는 소식을 전했지만, 실전 배치는 당시가 처음이었다.
물론 러시아는 다른 속내가 있었다. 최첨단 무기를 아무 이유 없이 시리아에 내줄리 없다. 플랫폼-M을 시리아 내전 현장에 투입해 무인 무기체계 개발, 더 나아가 인공지능 무기체계 개발을 위한 전술 실험장으로 활용하기 위해서다. 실제 러시아군은 이를 토대로 얻은 정보로 현장에서 인공지능 체계가 어느 정도 오차 범위로 공격 명령을 성공시키는지, 피아 식별의 정밀함 등을 테스트하고 있다.
이뿐만이 아니다. 시리아에선 우란-6, 우란-9으로 명명된 러시아제 신형 무인 전투차량도 목격됐다. 우린-6는 폭탄·지뢰 제거를 전담하는 차량으로 시리아에서만 3000개 이상의 폭발물을 탐지해 제거한 성과를 올렸다. 우란-9은 본격적인 공격용 전투차량이다. 기관포와 대전차로켓을 장착하고 중동 극우 이슬람국가 무장단체(IS)를 공격하는 모습은 이미 유튜브를 통해서 유명해졌다. 무인기계가 인간을 공격하는 시대가 본격화된 것이다.
총알도 적과 아군을 구별할 날도 가까워졌다. AK-47 소총을 만드는 러시아 업체 칼라시니코프는 ‘신경 회로망’ 기술을 활용한 전자동 전투무기를 개발했다. 7.62㎜ 구경 소총에 카메라와 컴퓨터 시스템을 연결한 후 과거 전투 사례를 반복 학습시킨다. 군인이 들고 다니지만, 특정 대상만을 공격해 전투 현장에서 발생할 오인사격 확률 0%에 도전할 계획이다.
그래도 여기까진 인간이 조종하거나 통제한다. 100% 인공지능 무기도 실전 배치될 날이 머지않았다. 러시아는 무인 무기체계 운용에서 얻은 정보로 각종 무기에 인공지능을 탑재하는 노력에 박차를 가하고 있다. 대표적으로 인공지능 방어체계가 있다. 자국 레이더방어망이 실시간으로 탐지한 후 데이터를 분석해 발사하는 미사일을 개발 중이다. 2017년 보리스 오브노소브 러시아 전술 미사일 개발 회사 최고경영자는 모스크바 에어쇼에서 “스스로 방향과 고도와 속도를 조절하는 인공지능 미사일을 개발하고 있다”며 “적국의 레이더망을 실시간으로 탐지하고 데이터를 분석해 목표물을 택한 후 파괴할 수 있다”고 했다.
1997년 미국 정부는 인공지능(AI) ‘스카이넷’이 무인 스텔스 폭격기를 능숙하게 조종하자 미군의 모든 무기를 스카이넷이 통제하도록 국방체계를 완전히 바꾼다. 군 지휘권도 모두 넘어간다. 스카이넷은 자신을 위협하는 인간을 모두 ‘적’으로 간주하고, 인류 전체 말살에 나선다. 그해 8월 29일 스카이넷은 러시아에 핵미사일을 쏘아 미·러 간 핵전쟁을 유발한다. 인류 대부분은 핵폭탄에 휘말려 숨지고 소수만 살아남아 스카이넷과 외로운 투쟁에 나선다.
#. 2005년 개봉 영화 ‘스텔스’
스텔스기 3대로 이뤄진 ‘테론’ 편대에 3명 파일럿이 선발된다. 이들에게 최첨단 인공지능 무인 스텔스기인 ‘에디’가 추가 투입된다. 하지만 갑자기 인공지능 회로에 문제가 생기면서 통제 불능이 된다. 에디는 피아 식별을 제대로 하지 않는데다 민간인 피해도 고려하지 않고 공격에 나선다. 또 러시아를 가상이 아닌 실제 적대국으로 인식하고 폭격을 시도한다.
영화 속 인공지능 무기 얘기다. 먼 미래 모습이라고 생각했던 살상극은 이미 현대 전쟁에서도 한창이다. 그 현장은 시리아다. 2015년 1월 중순 러시아 관영 매체 스푸트니크에 따르면 시리아군이 러시아제 군사 무인로봇 기갑차량인 ‘플랫폼-M’을 실전 배치했다. 플랫폼-M은 기관총과 대전차 로켓 발사기를 장착한 무인 전투차량이다. 러시아군도 특수부대에 배치했다는 소식을 전했지만, 실전 배치는 당시가 처음이었다.
물론 러시아는 다른 속내가 있었다. 최첨단 무기를 아무 이유 없이 시리아에 내줄리 없다. 플랫폼-M을 시리아 내전 현장에 투입해 무인 무기체계 개발, 더 나아가 인공지능 무기체계 개발을 위한 전술 실험장으로 활용하기 위해서다. 실제 러시아군은 이를 토대로 얻은 정보로 현장에서 인공지능 체계가 어느 정도 오차 범위로 공격 명령을 성공시키는지, 피아 식별의 정밀함 등을 테스트하고 있다.
이뿐만이 아니다. 시리아에선 우란-6, 우란-9으로 명명된 러시아제 신형 무인 전투차량도 목격됐다. 우린-6는 폭탄·지뢰 제거를 전담하는 차량으로 시리아에서만 3000개 이상의 폭발물을 탐지해 제거한 성과를 올렸다. 우란-9은 본격적인 공격용 전투차량이다. 기관포와 대전차로켓을 장착하고 중동 극우 이슬람국가 무장단체(IS)를 공격하는 모습은 이미 유튜브를 통해서 유명해졌다. 무인기계가 인간을 공격하는 시대가 본격화된 것이다.
총알도 적과 아군을 구별할 날도 가까워졌다. AK-47 소총을 만드는 러시아 업체 칼라시니코프는 ‘신경 회로망’ 기술을 활용한 전자동 전투무기를 개발했다. 7.62㎜ 구경 소총에 카메라와 컴퓨터 시스템을 연결한 후 과거 전투 사례를 반복 학습시킨다. 군인이 들고 다니지만, 특정 대상만을 공격해 전투 현장에서 발생할 오인사격 확률 0%에 도전할 계획이다.
그래도 여기까진 인간이 조종하거나 통제한다. 100% 인공지능 무기도 실전 배치될 날이 머지않았다. 러시아는 무인 무기체계 운용에서 얻은 정보로 각종 무기에 인공지능을 탑재하는 노력에 박차를 가하고 있다. 대표적으로 인공지능 방어체계가 있다. 자국 레이더방어망이 실시간으로 탐지한 후 데이터를 분석해 발사하는 미사일을 개발 중이다. 2017년 보리스 오브노소브 러시아 전술 미사일 개발 회사 최고경영자는 모스크바 에어쇼에서 “스스로 방향과 고도와 속도를 조절하는 인공지능 미사일을 개발하고 있다”며 “적국의 레이더망을 실시간으로 탐지하고 데이터를 분석해 목표물을 택한 후 파괴할 수 있다”고 했다.
러시아 100% 인공지능 레이더망 “기계가 목표물 선택”
지상에서 미사일 체계를 작전·지휘할 인공지능 시스템 개발은 더 가시화됐다. 2016년 1월 러시아 크론슈타트 그룹의 아르멘 이사키안 대표는 “무인 미사일·항공기용 인공지능 소프트웨어를 개발 중”이라며 “곧 무인 비행체까지 상호작용하며, 지상 인공지능 체계가 가진 데이터와 연동해 자율 판단으로 임무를 수행하게 될 것”이라고 했다. 다시 말해 앞서 본 무인 전투차량과는 달리 인간의 지시 없이 무기 스스로가 자체 판단해 살상에 나설 수 있다는 얘기다.
최근 미국에서는 신형 미사일이 주목 받고 있다. 기존 하푼 미사일을 대체할 것으로 보이는 신형 장거리 대함미사일(LRASM)은 인공지능을 탑재했다. 적 함정을 향해 날아가다가 공격 목표가 바뀌거나 적국의 요격 미사일을 피해야 할 경우 인공지능 기술로 자체 비행 방향을 설정할 수 있다.
무인기는 상당한 수준에 도달했다. 중동 테러조직 알카에다와 IS 소탕작전을 벌일 때마다 투입될 정도다. ‘MQ-1 프레데터’나 ‘MQ-9 리퍼’와 같은 무인 공격기는 공중에서 땅을 향하는 공대지 미사일과 레이저 정밀 유도 폭탄을 장착하고 아프가니스탄이나 파키스탄 북부에 정밀 폭격으로 테러범을 암살하는 데 사용됐다.
미군, 드론으로 이미 테러단체 수장 암살
실제 2015년 6월 국제테러단체 알카에다의 예멘 지부인 ‘알카에다 아라비아반도지부(AQAP)’를 이끌어 온 나세르 알 우하이시가 미국의 드론 공격으로 숨졌다. 미 해병대는 ‘저비용 무인기 군집기술(LOCUST)’을 활용해 드론 떼를 상륙전의 선봉에 세우는 전략을 수립하겠다고까지 밝혔다.
미 해군에서도 인공지능은 핫 아이템이다. 2017년 11월 미 해군은 무인 함정 ‘시 헌터(Sea Hunter)’ 배치를 공식 선언했다. 길이 40m, 최대 시속 50㎞로 최장 3개월 동안 해상에 머물며 원거리에서 적 잠수함을 탐지할 수 있다. 항공기 제작사인 보잉은 길이 15.54m 장거리 무인 잠수정 ‘에코 보이저(Echo Voyager)’를 개발 완료해 미 해군에서 시험 운항 중이다. 이 무인 잠수정은 최대 1개월간 자율 운항하면서 적 잠수함 정보를 수집한다.
미국은 ‘인간 통제력’을 절대 놓아선 안 된다는 입장이다. 전장 상태를 판단하는 건 인공지능에 맡기되 마지막 공격 스위치는 인간의 몫으로 남겨뒀다. 미국 국방부는 군사용 로봇을 100% 인공지능 로봇이 아닌 ‘지능 확장(IA·Intelligence Augmentation)형 로봇’ 개념으로 개발하고 있다는 얘기다.
이 밖에 중국·영국·한국도 인공지능을 무기화하는데 노력하고 있다. 2017년 7월 중국은 미 해군의 항행 자유 작전으로 투입한 항모전단에 맞서 글라이더 형태의 수중 드론 ‘하이이(海翼)’ 12대를 남중국해에 투입했다. 영국은 영화 ‘스텔스’에서 나온 인공지능 전투기 개발에 한발 더 다가섰다. 영국 방위산업체 BAE시스템스가 개발한 스텔스 무인기 ‘타라니스’는 정찰은 물론 공중전, 지상 공격까지 가능하다. 인간 파일럿이 탑승한 기존 전투기가 가진 거의 모든 기능을 갖췄다고 보면 된다. 전체 길이가 12m, 날개는 10m로 기존 전투기와도 흡사해 세계에서 가장 큰 무인 전투기이기도 하다. 한국도 성과는 있다. 비무장지대(DMZ)에 사격이 가능한 ‘센트리 가드 로봇(SGR-A1)’이 배치돼 있다고 알려져있다. 한화테크윈이 개발한 이 로봇은 칠흑 같은 밤에도 최대 4㎞ 내 적을 포착해 발포할 수 있다. 물론 조종은 대기 중인 군인 몫이다.
인간이 최종 판단·결정의 끈을 놓지 않았다 해도 비난 여론은 여전하다. 프로그램 알고리즘을 활용한 지능형 기계는 언제든지 자체 판단하는 인명 살상용 무기로 전환될 수 있다는 우려 때문이다.
미 해군에서도 인공지능은 핫 아이템이다. 2017년 11월 미 해군은 무인 함정 ‘시 헌터(Sea Hunter)’ 배치를 공식 선언했다. 길이 40m, 최대 시속 50㎞로 최장 3개월 동안 해상에 머물며 원거리에서 적 잠수함을 탐지할 수 있다. 항공기 제작사인 보잉은 길이 15.54m 장거리 무인 잠수정 ‘에코 보이저(Echo Voyager)’를 개발 완료해 미 해군에서 시험 운항 중이다. 이 무인 잠수정은 최대 1개월간 자율 운항하면서 적 잠수함 정보를 수집한다.
미국은 ‘인간 통제력’을 절대 놓아선 안 된다는 입장이다. 전장 상태를 판단하는 건 인공지능에 맡기되 마지막 공격 스위치는 인간의 몫으로 남겨뒀다. 미국 국방부는 군사용 로봇을 100% 인공지능 로봇이 아닌 ‘지능 확장(IA·Intelligence Augmentation)형 로봇’ 개념으로 개발하고 있다는 얘기다.
이 밖에 중국·영국·한국도 인공지능을 무기화하는데 노력하고 있다. 2017년 7월 중국은 미 해군의 항행 자유 작전으로 투입한 항모전단에 맞서 글라이더 형태의 수중 드론 ‘하이이(海翼)’ 12대를 남중국해에 투입했다. 영국은 영화 ‘스텔스’에서 나온 인공지능 전투기 개발에 한발 더 다가섰다. 영국 방위산업체 BAE시스템스가 개발한 스텔스 무인기 ‘타라니스’는 정찰은 물론 공중전, 지상 공격까지 가능하다. 인간 파일럿이 탑승한 기존 전투기가 가진 거의 모든 기능을 갖췄다고 보면 된다. 전체 길이가 12m, 날개는 10m로 기존 전투기와도 흡사해 세계에서 가장 큰 무인 전투기이기도 하다. 한국도 성과는 있다. 비무장지대(DMZ)에 사격이 가능한 ‘센트리 가드 로봇(SGR-A1)’이 배치돼 있다고 알려져있다. 한화테크윈이 개발한 이 로봇은 칠흑 같은 밤에도 최대 4㎞ 내 적을 포착해 발포할 수 있다. 물론 조종은 대기 중인 군인 몫이다.
인간이 최종 판단·결정의 끈을 놓지 않았다 해도 비난 여론은 여전하다. 프로그램 알고리즘을 활용한 지능형 기계는 언제든지 자체 판단하는 인명 살상용 무기로 전환될 수 있다는 우려 때문이다.
머스크 CEO “킬러로봇 개발 금지 촉구”
“인공지능의 안전성을 반드시 걱정해야 한다. 인공지능은 북한보다 훨씬 더 위험하다.”
2017년 8월 전기차 업체 테슬라 일론 머스크 회장이 자신의 트위터에 올린 내용이다. 머스크 회장은 116명의 AI·로봇기업 대표와 ‘킬러로봇(살상용 로봇)’ 무기 개발 금지를 촉구하는 서한을 유엔에 보냈다. 그는 서한에서 “치명적인 자동화 무기는 전쟁의 3차 혁명이 될 수 있다”며 “킬러로봇은 우리 생각보다 대규모 무장충돌을 일으킬 것”이라고 했다. 각계각층의 비난도 잇따랐다. AI 분야의 석학인 호주 뉴사우스웨일스대학의 토비 월시 교수는 “기술 개발이 가속화될수록 군에서 ‘신형 장난감’을 없애기란 불가능할 것”이라고 했다. 스티븐 호킹 박사는 “AI와 로봇이 급성장하면서 인간의 힘으로 통제 불가능한 시점이 다가오고 있다”고 했다. 로봇업계 현직 종사자도 거들었다. 앤드루 낸슨 울트라 일렉트로닉스 무기 담당 책임자는 “인공지능 기술을 로봇에 활용하면 어떤 근거로 목표물을 선정하는지 정확하게 파악하기 어렵다”며 “인간도 분명 공격 대상이 될 수 있다”고 주장했다.
찬성론도 있다. 인류사에서 전쟁을 피할 수 없다면 차라리 로봇을 활용해 방위비 부담을 줄이고 인명 손실을 최소화하자는 의견이다. 남호주대학 산하 방위시스템연구소 소장인 안토니 핀 교수는 “살상 자율 무기는 ‘파이어 앤 포겟(Fire & Forget, 발사하면 자체적으로 탐색해 날아가 맞히는 방식) 무기처럼 콜래트럴 데미지(민간인 피해)를 줄일 수 있다”고 했다.
그럼에도 인공지능 무기개발 주체들은 논란을 크게 신경 쓰지 않는 듯하다. 트럼프 행정부는 미래형 국방 시스템 구현에 국방비 10%(540억 달러)를 증액했다. 이 예산의 절반에 가까운 239억 달러가 무인 로봇을 비롯한 각종 반(半) 인공지능 무기체계 개발에 투입된다. 미국 인공지능 무기체계 개발을 주도하는 국방고등연구기획국(DARPA)에 2017년 배정된 예산만 29억7000만 달러에 달한다. 개발 성과도 상당하다. DARPA는 한번 충전으로 3000㎞ 이상 운행할 수 있고 한 달간 잠수함 추적이 가능한 ‘대잠 지속추적 무인정(ACTUV)’에 어뢰까지 탑재해 2020년까지 미 해군에 인도할 계획이다.
이유는 분명하다. 앞서 ‘킬러로봇’ 반대표를 던진 머스크 회장조차 “인공지능 무기가 핵무기보다 싸고 대량 생산이 가능하다”고 인정했다. 국방기술품질원 강인원 박사는 “군사작전에서 로봇 무기 투입은 이미 이뤄지고 있다”며 “2025년 정도면 무인 자율 로봇이 전쟁의 중심에 등장할 것이다”라고 경고했다.
김영문 기자(ymk0806@joongang.co.kr)
박지현 기자(centerpark@joongang.co.kr)
2017년 8월 전기차 업체 테슬라 일론 머스크 회장이 자신의 트위터에 올린 내용이다. 머스크 회장은 116명의 AI·로봇기업 대표와 ‘킬러로봇(살상용 로봇)’ 무기 개발 금지를 촉구하는 서한을 유엔에 보냈다. 그는 서한에서 “치명적인 자동화 무기는 전쟁의 3차 혁명이 될 수 있다”며 “킬러로봇은 우리 생각보다 대규모 무장충돌을 일으킬 것”이라고 했다. 각계각층의 비난도 잇따랐다. AI 분야의 석학인 호주 뉴사우스웨일스대학의 토비 월시 교수는 “기술 개발이 가속화될수록 군에서 ‘신형 장난감’을 없애기란 불가능할 것”이라고 했다. 스티븐 호킹 박사는 “AI와 로봇이 급성장하면서 인간의 힘으로 통제 불가능한 시점이 다가오고 있다”고 했다. 로봇업계 현직 종사자도 거들었다. 앤드루 낸슨 울트라 일렉트로닉스 무기 담당 책임자는 “인공지능 기술을 로봇에 활용하면 어떤 근거로 목표물을 선정하는지 정확하게 파악하기 어렵다”며 “인간도 분명 공격 대상이 될 수 있다”고 주장했다.
찬성론도 있다. 인류사에서 전쟁을 피할 수 없다면 차라리 로봇을 활용해 방위비 부담을 줄이고 인명 손실을 최소화하자는 의견이다. 남호주대학 산하 방위시스템연구소 소장인 안토니 핀 교수는 “살상 자율 무기는 ‘파이어 앤 포겟(Fire & Forget, 발사하면 자체적으로 탐색해 날아가 맞히는 방식) 무기처럼 콜래트럴 데미지(민간인 피해)를 줄일 수 있다”고 했다.
그럼에도 인공지능 무기개발 주체들은 논란을 크게 신경 쓰지 않는 듯하다. 트럼프 행정부는 미래형 국방 시스템 구현에 국방비 10%(540억 달러)를 증액했다. 이 예산의 절반에 가까운 239억 달러가 무인 로봇을 비롯한 각종 반(半) 인공지능 무기체계 개발에 투입된다. 미국 인공지능 무기체계 개발을 주도하는 국방고등연구기획국(DARPA)에 2017년 배정된 예산만 29억7000만 달러에 달한다. 개발 성과도 상당하다. DARPA는 한번 충전으로 3000㎞ 이상 운행할 수 있고 한 달간 잠수함 추적이 가능한 ‘대잠 지속추적 무인정(ACTUV)’에 어뢰까지 탑재해 2020년까지 미 해군에 인도할 계획이다.
이유는 분명하다. 앞서 ‘킬러로봇’ 반대표를 던진 머스크 회장조차 “인공지능 무기가 핵무기보다 싸고 대량 생산이 가능하다”고 인정했다. 국방기술품질원 강인원 박사는 “군사작전에서 로봇 무기 투입은 이미 이뤄지고 있다”며 “2025년 정도면 무인 자율 로봇이 전쟁의 중심에 등장할 것이다”라고 경고했다.
김영문 기자(ymk0806@joongang.co.kr)
박지현 기자(centerpark@joongang.co.kr)