생각의 발자취
[ 이 생각은 2021년 08월 19일 시작되어 총 1명이 참여하였습니다. ]
과학기술정보통신부 공공데이터 개방·활성화를 위한 설문조사
안녕하십니까?

과학기술정보통신부의 공공데이터를 이용해 주시는 여러분께 감사드립니다.

우리 부는 과학기술정보통신부의 공공데이터 사용자에게 좀 더 많은 신규 공공데이터 개방·확대를 통해 우리 부 공공데이터에 대한
이용 활성화와 공공데이터 제공에 대한 서비스 질을 제고하기 위하여 설문조사를 실시하고자 합니다.

귀하의 소중한 의견을 개진하여 주시면 감사하겠습니다.

응답에 소요되는 시간은 약 5분이며, 응답하신 내용은 통계법 제33조에 의거 비밀이 보장되고 통계작성 외의 목적으로 사용되지 않으니,
솔직한 응답 부탁드립니다.

귀하의 관심과 협조에 깊이 감사드립니다.

조사기간 : 2021. 8. 23.(월) ~ 9. 3.(금)

설문이 시작되면 중도에 그만두지 마시고, 마지막 페이지에서 제출하기 버튼을 꼭 눌러주시기 바랍니다.

설문에 대해 궁금한 점이 있으시면 아래의 연락처로 문의 바랍니다.
※ 연락처 : 과학기술정보통신부 정보화담당관 이건우 주무관 044-202-4476
완료된 설문
현재 참여인원은 1명 입니다. 결과보기
  • 1[필수] 성별
  • 2[필수] 연령
  • 3[필수] 직업
  • 4[필수] 과학기술정보통신부 홈페이지 또는 공공데이터 포털 등을 통해 공공데이터를 검색하거나, 직접 이용해 본 경험이 있으십니까?
  • 5 공공데이터를 이용해 본 경험이 있으시다면 어떤 목적으로 사용하셨습니까?
    (2개 이내로 선택해주세요)
  • 6 공공데이터를 이용해 본 경험이 있으시다면 과학기술 분야 중 어느 분류의 데이터를 사용하셨습니까?
    (복수 응답 가능)
  • 7 공공데이터 분야 중 만족도가 높았던 데이터는 어떤 데이터입니까?
    (복수 응답 가능)
  • 8 과학기술, 정보통신 공공데이터 중 국민과 민간에서 활용가치가 높다고 생각하는(또는 필요로 하는) 데이터가 있다면 자유롭게 기술하여 주시기 바랍니다.
  • 9 공공데이터 포털에서 제공하는 과학기술, 정보통신 공공데이터 외에 추가로 제공되었으면 하는 과학기술, 정보통신 공공데이터 가 있다면 기술하여 주시기 바랍니다.
  • 10 과학기술, 정보통신 공공데이터 이용시 어려운 점이나 개선되었으면 하는 점이 있으면 기술하여 주시기 바랍니다.
  • 참여기간 : 2021-08-23~2021-09-03
  • 관련주제 : 통신·과학>기타
  • 그 : #공공데이터
0/1000
인공지능 자율무기체계의 자율살상무기 법률에 관한 제안

 4차 산업혁명 신기술의 급격한 발전으로 인해 미래의 전쟁에서는 지금의 수행방식과 완전히 다른 모습을 띨 것이다. 인공지능과 로봇은 다른 기술들과 융합하여 새로운 개념의 자율 무기체계로 발전할 것이다. 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯해 우리가 예상치 못한 여러가지 문제가 생길 수 있다.  최근 4차 산업혁명이라 불리는 신기술들의 급격한 발전은 인류 사회의 모든 분야에 큰 영향을 미치며 인간의 삶을 새로운 양상으로 이끌어가고 있다. 그리고 여기에는 군사 분야도 예외는 아니다. 미래전 수행방식은 지금과는 완전히 다른 모습을 띨 것이라고 대부분의 미래학자와 군사전문가들은 전망하고 있다. 전쟁의 역사는 전쟁과 과학 기술이 밀접한 관계를 가지고 있음을 말해준다. 1차산업혁명을 통해 기계가 출현하면서 인간의 완력에 의존하던 전쟁이 기계에 의존하는 전쟁으로 변환하였으며, 이어서 1950년대 이후 컴퓨터와 통신 기술이 발전하면서 네트워크 중심의 전쟁으로 진화하였다. 앞으로의 미래전 수행방식에 가장 큰 영향을 미치게 될 기술은 인공지능과 로봇일 것이다. 인공지능은 연관 기술들과 결합하여 인간의 두뇌 활동을 대신할 것이며, 로봇은 인간의 육체 활동을 대신할 것이다. 아직은 초기 단계이기는 하지만 인공지능과 로봇이 군사 분야에 도입되어 그 활용범위가 확대되고 있다. 앞으로 인공지능과 로봇은 그 기술 수준이 높아지면서 다른 기술들과 융합하여 완전히 새로운 개념의 자율 무기체계로 발전할 것이다. 그 결과 미래전은 인간 전투원과 지능형 군사로봇과의 협업으로 진행될 것이 분명해 보인다. 이렇듯, 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯한 문제가 발생할 수 있다. 이러한 점에서 이 글은 인공지능과 로봇 기술이 중심이 된 자율 무기체계의 군사적 활용에 대해 얘기해 보려고 한다.  인공지능과 로봇 기술의 군사적 결합은 자율 무기체계의 형태로 나타날 것이다. 인공지능은 자율 무기체계의 두뇌를 구성하며, 로봇은 곧 몸통이다. '자율'이라는 것은 자신의 행동을 스스로 통제하고 책임을 지는 것을 말하는 것으로, 이는 무기에 대한 인간의 통제가 사라지고 무기 자신이 스스로 통제함을 뜻한다. 지금까지 무기는 대부분 인간의 직접적인 작동 또는 통제로 운용되는 수동적인 전투 수단이었으나, 자율무기는 이러한 기존의 무기체계와는 완전히 다른 개념으로 무기체계가 인간 전투원과 같이 하나의 독립된 전투 주체가 된다. 자동화 시스템에 의해 무기체계가 스스로 표적을 탐지하면 인간의 결정에 따라 발사되어 목표를 자동으로 추적하여 타격하는 '반자율적' 수준에 이르고 있다. 만일 무기체계가 인간의 개입 없이 스스로 목표를 선정하고 공격 여부를 결정한다면 이는 완전한 형태의 자율무기라고 할 수 있다. 자율성의 개념을 더 명확히 이해하기 위해 '자동화'의 개념과 비교해보자. 자동화는 센서를 통한 외부의 데이터 입력에 반응하여 미리 정해진 절차에 따라 작동하는 것을 의미한다. 자율성 또한 정해진 절차에 따라 작동하는 것을 의미하지만 양자의 결정적인 차이는 알고리즘 작동이 폐쇄적인가 개방적인가이다. 즉, 자율성이 자동화와 다른 점은 기계학습을 통해 환경의 변이를 인식하고 스스로 이에 적응할 수 있다는 것이다. 자동화와 자율성의 이러한 구분은 현실적으로 두 가지가 겹쳐서 나타나는 중간 지대가 많아 명확히 구분하기 어려운 실정이다. 다만, 자율성의 정도를 기계에 대해 인간이 관여하는 정도에 따라 구분해 볼 수 있다. 자율성의 구분은 미국 국방부의 '무기체계의 자율성에 관한 지침'이 널리 준용되고 있다. 미 국방부는 전투 행동의 순환 과정에 인간이 어느 정도 개입과 통제를 하는가에 따라 자율성을 첨부 파일과 같이 세 가지 범주로 구분하였다.  1단계는 인간 운용자가 전투 행위의 전 과정에 걸쳐 무기체계를 직접 개입하여 통제하는 것으로 원격으로 조종하는 무인 무기나 무인항공기 등이 여기에 해당한다. 2단계는 무기체계의 전투 행위 과정을 모니터링하면서 무기체계가 인간의 의도와 다른 방향으로 행동하거나 사격 여부를 결정해야 하는 중요한 순간에만 인간이 개입하는 것으로, 신속한 대응이 필요한 방공무기와 같이 상당한 수준의 자율성을 보유하는 무기가 여기에 속한다. 3단계는 완전한 자율성을 가진 무기체계로서 인간의 개입이 필요없이 스스로 표적을 찾아 교전 여부를 결정하고 타격하는 무기체계이다. 통상 자율 살상무기 또는 킬러 로봇으로 불린다. 이 수준의 자율무기가 윤리적으로나 국제법적으로 가장 논란의 대상이 되고 있다. 현재까지는 개발되지 않았으나 인공지능의 발전추세로 보아 머지않아 등장할 것으로 보인다. 앞에서 제시된 자율성의 범주는 자율 무기체계에 내장된 인공지능 기술에 의한 사고와 판단 능력을 기준으로 분류한 것으로, 공학적 요소인 로봇 기술에 해당하는 관측과 행동 능력은 고려되지 않아 자율 무기체계의 포괄적 특징을 설명하기에는 완전하지 않다. 왜냐하면 자율 무기체계 또는 지능형 전투로봇은 인공지능 두뇌와 로봇 몸체로 이루어져 있기 때문이다. 오늘날 인공지능의 중요성이 부각되면서 자율 무기체계에 대해서도 두뇌의 자율성이 강조되는 측면이 있다. 그렇지만 이에 못지않게 중요한 것이 자율적 사고와 판단 결과를 행동으로 옮기는 기능이다. 이 글에서 관심을 가지는 자율 무기체계는 이러한 공학적 능력을 지닌 지능형 무기체계를 말한다.  인공지능과 로봇의 기술이 발전할수록 자율 무기체계가 고도화되어 결국 인간의 통제를 벗어나 기계가 인간을 지배할 것이라고 우려하는 목소리가 커지고 있다. 특히 3단계 수준의 완전한 자율 무기체계는 핵무기에 버금갈 정도의 파괴력을 지니게 될 것으로 보인다. 영화에서와 같이 고도로 지능화된 기계가 인간을 공격하고 인류 문명을 파괴하며, 인류가 이들과 맞서 처절한 전쟁을 벌이는 상황이 반드시 오지는 않을지라도, 어느 시점에 자아를 가진 강인공지능이 개발되어 스스로 판단하고 통제 불가능한 수준에 이르게 된다면 인류 문명에 예측할 수 없는 부정적 영향을 주게 될 것이다. 특히 군사용 인공지능과 로봇, 이를 결합한 자율 무기체계는 본질적으로 전쟁의 수단으로서 살상과 파괴를 전제하고 있어 자칫 잘못하면 치명적인 흉기가 되어 아군이나 국민에게 막대한 피해를 줄 수 있다는 점에서 특별한 주의와 대책이 요구될 것이다. 여기서 군사용 인공지능과 로봇, 즉 자율 무기체계의 몇 가지 한계와 잠재적 문제점을 제시한다.  첫째, 인공지능은 입력된 데이터와 알고리즘에 따라 작동하기 때문에 데이터의 질에 큰 영향을 받는다. 빅데이터 전문가 캐시 오닐이 그의 책에서 지적하듯이 편향된 또는 부정확한 데이터가 입력되면 잘못된 판단과 결정으로 이어지며 잘못된 행동과 치명적 결과를 발생시킨다. 인간의 편견과 오류, 정보의 부정확성이 그대로 인공지능에 입력되어 결과로 산출된다. 만일 아군이 수집한 적에 대한 데이터가 부정확하거나 불충분할 경우 예상치 못한 결론으로 이어질 수 있다. 적에 대한 정보가 제한적일 수밖에 없으며 가변적이고 불확실한 작전 환경의 본질적 특성을 고려하면 이러한 문제는 동반될 수밖에 없을 것으로 보인다.  둘째, 인공지능에 투입된 데이터와 알고리즘의 신뢰성 문제로서, 블랙박스 속에서 처리되어 제시된 산물을 인간이 어느 수준까지 신뢰할 수 있는가? 앞에서 제시된 인공지능 데이터의 부정확성이나 부족, 또는 알고리즘의 편향은 인간이 가지는 본질적인 문제가 인공지능에 전이되는 결과이기도 하다. 다만 인공지능이 인간보다 뛰어나게 유추하고 신속하게 처리할 수 있다는 장점을 가지고 있다. 그러나 인간의 경우 정보처리 과정과 이유에 대한 설명이 가능하여 도출된 결과에 대한 재차 논리적 판단이 가능하지만, 인공지능은 과정에 대한 논리적 설명 없이 결과만 제시한다. 특히 여러 개의 인공지능 시스템이 통합하여 시스템간 상호작용이 일어날 경우 인공지능이 어느 수준에서 무슨 학습을 했으며, 어떤 이유로 특정의 결론을 도출했는지를 판단하기 더욱 어렵게 만들 것이다.  셋째, 만일 인공지능의 처리 결과를 그대로 인정한다면 이것은 인공지능에게 완전한 자율성을 부여하는 것을 의미하며, 이는 인공지능이나 자율 무기체계는 더 이상 인간의 보조 수단이 아닌 인간과 대등한 차원 또는 더 우월한 위치에서 전쟁 또는 전투 행위의 주체가 될 것이다. 이렇게 되면 인간이 자율 무기체계에 대한 통제권을 상실하여 자율 무기체계가 최초 인간의 의도와는 달리 행동하더라도 이를 효과적으로 저지하기 어렵게 된다. 자율살상무기의 경우 책임 문제에 있어서도 불법적으로 인명을 살상한 로봇이나 기계를 처벌할 수 없고 관련자들에 대한 형사처벌도 거의 할 수 없을 것이다. 인공지능의 기술이 발전할수록 시스템이 더 복잡해지고 인공지능의 역할과 행동 범위가 확장됨에 따라 개발자나 운용자의 의도와 다른 방향으로 행동하거나 그 결과도 예측하기 어려워질 가능성이 있다. 인공지능(자율 무기체계) 자체를 윤리적 행위자로 규정하면 개발자나 운용자의 윤리적, 법적 책임은 사라지게 된다. 그렇다고 운용자 또는 지휘관에게 형사적 책임을 묻기도 쉽지 않다. 왜냐하면, 개인이 실제적 또는 추정적으로 자동무기의 오작동을 알고도 시정조치를 제대로 하지 않았거나 고의 또는 과실로 발생한 것이 아니라면 처벌이 어렵기 때문이다.  넷째, 인공지능은 기본적으로 데이터와 디지털 네트워크 체계를 기반으로 하는데 이는 적의 사이버 공격이나 전자기적 공격에 치명적일 수 있다. 인공지능이 사이버 공격이나 방어에 매우 효과적인 기술이면서도 이와 동시에 사이버 공격에 취약한 모순을 가지고 있다. 적이 아군의 데이터 시스템이나 클라우드에 침투하여 데이터를 조작하거나 명령체계를 교란하여 아군을 적으로 오인하도록 하거나 인공지능 시스템을 전자기적으로 파괴하거나 전자 바이러스로 작동불능 상태로 만들어 자율 무기체계가 무용지물이 될 수도 있다. 네트워크로 연결된 자율 무기체계가 적의 수중에 들어가 알고리즘이나 네트워크의 취약점이 노출되면 치명적 결과가 발생할 것이다. 또한 적의 공격으로 한순간에 모든 인공지능과 자율 무기체계의 기능이 마비되는 상황도 배제할 수 없다.  다섯째, 기술적 비대칭성에 따른 전쟁의 유혹과 피해의 확산이 더 커질 수 있다는 점이다. 인공지능과 자율 무기체계로 무장한 국가는 그렇지 못한 국가의 취약점을 활용하여 신속하고 효과적으로 공격할 수 있어 전쟁의 유혹에 쉽게 노출될 가능성이 크다.16) 양측 모두 인공지능으로 무장된 자율 무기체계로 강화된 군사력을 가지고 있다면 군사적 균형이 이루어져 전쟁이 억제될 수 있겠지만, 그렇지 않으면 군사적 균형이 무너지게 된다. 자율 무기체계로 무장한 국가와 그렇지 못한 국가 간의 전쟁은 기계와 인간의 전쟁이 될 것이며, 자율 무기체계를 가진 국가는 자국의 인명 손실에 대한 부담이 없어 전쟁을 너무 쉬운 것으로 만들어 인류의 파괴가 확대될 것이다.  인공지능과 로봇 기술 기반의 무기체계가 가지는 여러 가지 부정적 효과가 제기되고 있음에도 불구하고 무인화, 자율화의 미래전 양상은 거스를 수 없는 시대적 대세일 것이다. 사실 자율 무기체계가 마냥 부정적인 면만 있는 것은 아니다. 자율 무기체계는 매우 정밀·정확하여 불필요한 살상을 방지하고 인간과 같은 실수를 하지 않아 오히려 인명 피해를 줄일 수 있다. 또한 감정이나 스트레스가 없어 전쟁에서 흔히 발생하는 인간의 비윤리적 행위로 인한 무고한 인명 살상과 파괴를 예방할 수 있을 것이다.  이에 대해 우리는 자율무기체계는 인정하되, 3단계 인공지능 자율살상무기 즉, 완전자율무기의 사용은 금지하고자 한다.     첫째, 완전자율무기의 판단력을 신뢰할 수 없다. 제네바 협약 제51조에 의하면 특정한 군사표적물을 표적으로 할 수 없는 전투의 방법 또는 수단을 사용하는 공격으로 그 결과 개개의 경우에 있어 군사목표물과 민간인 또는 민간물자를 무차별적으로 타결하는 성질을 갖는 것은 금지된다. 제 48조에 의하면, 민간 물자 역시 공격 또는 보복의 대상이 되어서는 안된다. 하지만, 무력 충돌 상황에서 군사시설과 민간시설의 외형상 구분이 모호한 경우 자율무기체계가 양자를 어떻게 구분할 것인지가 문제가 된다. 인공지능이 이를 확실하게 실수없이 구분할 수 있는지가 첫번째 문제이고, ‘적군이 병영시설로 사용하고 있고 적군이 무력을 행사함에 있어 방어거점으로 사용하고 있다면 공격이 될 수 있다.’는 원칙과 충돌하는 것이 두 번째 문제이다.  둘째, 생명의 중요성을 경시한다. 제 35조에 의하면 체약국이 고려해야 할 구체적인 원칙으로 과도한 상해 및 불필요한 고통을 초래할 성질의 무기, 투사물, 물자, 전투수단을 사용하는 것은 금지된다. 그리고 ‘시민적 및 정치적 권리에 관한 국제규약 제6조’에 따르면 모든 사람은 고유한 생명권을 가지며 이는 어느 누구도 자의적으로 자신의 생명을 박탈당하지 않는다는 것을 의미한다. 따라서 살인은 오로지 인명을 보호하기 위한 수단이고 위협에 대응하는 방식으로 사용될 때만 적법하다. 그러나, 자율살상무기가 스스로의 독자적 판단에 의해 공격을 실시할 경우, 급박한 상황에서 결정을 내리는데 필요한 공감과 판단력이 부족하고, 군사적 이익에 중점을 두기 때문에 과도한 피해를 입힐 가능성이 크다. 그리고, 국제인도법 조항인 마르텐스 조항에서 중시하는 공공양심의 명령을 위반한다. 인간은 다른 사람들의 경험에 대해 연민과 공감을 느낄 수 있기 때문에 서로를 인도적으로 대하려하지만, 완전자율무기는 이를 이해하는데 필요한 정서적 능력이 부족하다.  셋째, AI와 킬러로봇의 오류와 사고에 대해 관련자 모두가 책임을 회피할 수 있다. 인권 침해의 피해자는 구제받을 권리가 있지만 이 경우에는 누가 책임을 질 수 있는지 분명하지 않다. 범죄는 행동과 정신상태를 모두 고려하지만 완전자율무기는 정신 상태가 결핍되어 있어 법에 따라 책임 질 수 없다. 인간의 경우에도 마찬가지이다. 인간과 완전자율무기의 관계는 상관과 부하와 같다. 상관이 의도적으로 완전자율무기를 배치한 경우 유죄 판결을 받을지도 모르지만, 자율적인 기계의 예측할 수 없는 행동에 대해 책임을 묻는 것은 법적으로 어렵고 불공정할 것이다. 또한, 개발자와 제조사가 처벌받으려면 중대한 증거 입증을 필요로 하는데, 이는 이미 전쟁으로 피폐해진 피해자들에게 막대한 시간과 비용을 요구한다. 참고 문헌: 한국국방기술학회 논문지-인공지능과 로봇의 군사적 활용과 선행 과제  

총0명 참여
목록
제일 상단으로 이동