생각의 발자취
[ 이 생각은 2021년 08월 20일 시작되어 총 0명이 참여하였습니다. ]
ㅇㅇㅇㅇㅇㅇ

2021년 하반기 과학기술·ICT 주요제도, 이렇게 달라집니다!!
카드뉴스로 하나하나 소개해드려요~

감사합니다.
0/1000
인공지능 자율무기체계의 자율살상무기 법률에 관한 제안

 4차 산업혁명 신기술의 급격한 발전으로 인해 미래의 전쟁에서는 지금의 수행방식과 완전히 다른 모습을 띨 것이다. 인공지능과 로봇은 다른 기술들과 융합하여 새로운 개념의 자율 무기체계로 발전할 것이다. 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯해 우리가 예상치 못한 여러가지 문제가 생길 수 있다.  최근 4차 산업혁명이라 불리는 신기술들의 급격한 발전은 인류 사회의 모든 분야에 큰 영향을 미치며 인간의 삶을 새로운 양상으로 이끌어가고 있다. 그리고 여기에는 군사 분야도 예외는 아니다. 미래전 수행방식은 지금과는 완전히 다른 모습을 띨 것이라고 대부분의 미래학자와 군사전문가들은 전망하고 있다. 전쟁의 역사는 전쟁과 과학 기술이 밀접한 관계를 가지고 있음을 말해준다. 1차산업혁명을 통해 기계가 출현하면서 인간의 완력에 의존하던 전쟁이 기계에 의존하는 전쟁으로 변환하였으며, 이어서 1950년대 이후 컴퓨터와 통신 기술이 발전하면서 네트워크 중심의 전쟁으로 진화하였다. 앞으로의 미래전 수행방식에 가장 큰 영향을 미치게 될 기술은 인공지능과 로봇일 것이다. 인공지능은 연관 기술들과 결합하여 인간의 두뇌 활동을 대신할 것이며, 로봇은 인간의 육체 활동을 대신할 것이다. 아직은 초기 단계이기는 하지만 인공지능과 로봇이 군사 분야에 도입되어 그 활용범위가 확대되고 있다. 앞으로 인공지능과 로봇은 그 기술 수준이 높아지면서 다른 기술들과 융합하여 완전히 새로운 개념의 자율 무기체계로 발전할 것이다. 그 결과 미래전은 인간 전투원과 지능형 군사로봇과의 협업으로 진행될 것이 분명해 보인다. 이렇듯, 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯한 문제가 발생할 수 있다. 이러한 점에서 이 글은 인공지능과 로봇 기술이 중심이 된 자율 무기체계의 군사적 활용에 대해 얘기해 보려고 한다.  인공지능과 로봇 기술의 군사적 결합은 자율 무기체계의 형태로 나타날 것이다. 인공지능은 자율 무기체계의 두뇌를 구성하며, 로봇은 곧 몸통이다. '자율'이라는 것은 자신의 행동을 스스로 통제하고 책임을 지는 것을 말하는 것으로, 이는 무기에 대한 인간의 통제가 사라지고 무기 자신이 스스로 통제함을 뜻한다. 지금까지 무기는 대부분 인간의 직접적인 작동 또는 통제로 운용되는 수동적인 전투 수단이었으나, 자율무기는 이러한 기존의 무기체계와는 완전히 다른 개념으로 무기체계가 인간 전투원과 같이 하나의 독립된 전투 주체가 된다. 자동화 시스템에 의해 무기체계가 스스로 표적을 탐지하면 인간의 결정에 따라 발사되어 목표를 자동으로 추적하여 타격하는 '반자율적' 수준에 이르고 있다. 만일 무기체계가 인간의 개입 없이 스스로 목표를 선정하고 공격 여부를 결정한다면 이는 완전한 형태의 자율무기라고 할 수 있다. 자율성의 개념을 더 명확히 이해하기 위해 '자동화'의 개념과 비교해보자. 자동화는 센서를 통한 외부의 데이터 입력에 반응하여 미리 정해진 절차에 따라 작동하는 것을 의미한다. 자율성 또한 정해진 절차에 따라 작동하는 것을 의미하지만 양자의 결정적인 차이는 알고리즘 작동이 폐쇄적인가 개방적인가이다. 즉, 자율성이 자동화와 다른 점은 기계학습을 통해 환경의 변이를 인식하고 스스로 이에 적응할 수 있다는 것이다. 자동화와 자율성의 이러한 구분은 현실적으로 두 가지가 겹쳐서 나타나는 중간 지대가 많아 명확히 구분하기 어려운 실정이다. 다만, 자율성의 정도를 기계에 대해 인간이 관여하는 정도에 따라 구분해 볼 수 있다. 자율성의 구분은 미국 국방부의 '무기체계의 자율성에 관한 지침'이 널리 준용되고 있다. 미 국방부는 전투 행동의 순환 과정에 인간이 어느 정도 개입과 통제를 하는가에 따라 자율성을 첨부 파일과 같이 세 가지 범주로 구분하였다.  1단계는 인간 운용자가 전투 행위의 전 과정에 걸쳐 무기체계를 직접 개입하여 통제하는 것으로 원격으로 조종하는 무인 무기나 무인항공기 등이 여기에 해당한다. 2단계는 무기체계의 전투 행위 과정을 모니터링하면서 무기체계가 인간의 의도와 다른 방향으로 행동하거나 사격 여부를 결정해야 하는 중요한 순간에만 인간이 개입하는 것으로, 신속한 대응이 필요한 방공무기와 같이 상당한 수준의 자율성을 보유하는 무기가 여기에 속한다. 3단계는 완전한 자율성을 가진 무기체계로서 인간의 개입이 필요없이 스스로 표적을 찾아 교전 여부를 결정하고 타격하는 무기체계이다. 통상 자율 살상무기 또는 킬러 로봇으로 불린다. 이 수준의 자율무기가 윤리적으로나 국제법적으로 가장 논란의 대상이 되고 있다. 현재까지는 개발되지 않았으나 인공지능의 발전추세로 보아 머지않아 등장할 것으로 보인다. 앞에서 제시된 자율성의 범주는 자율 무기체계에 내장된 인공지능 기술에 의한 사고와 판단 능력을 기준으로 분류한 것으로, 공학적 요소인 로봇 기술에 해당하는 관측과 행동 능력은 고려되지 않아 자율 무기체계의 포괄적 특징을 설명하기에는 완전하지 않다. 왜냐하면 자율 무기체계 또는 지능형 전투로봇은 인공지능 두뇌와 로봇 몸체로 이루어져 있기 때문이다. 오늘날 인공지능의 중요성이 부각되면서 자율 무기체계에 대해서도 두뇌의 자율성이 강조되는 측면이 있다. 그렇지만 이에 못지않게 중요한 것이 자율적 사고와 판단 결과를 행동으로 옮기는 기능이다. 이 글에서 관심을 가지는 자율 무기체계는 이러한 공학적 능력을 지닌 지능형 무기체계를 말한다.  인공지능과 로봇의 기술이 발전할수록 자율 무기체계가 고도화되어 결국 인간의 통제를 벗어나 기계가 인간을 지배할 것이라고 우려하는 목소리가 커지고 있다. 특히 3단계 수준의 완전한 자율 무기체계는 핵무기에 버금갈 정도의 파괴력을 지니게 될 것으로 보인다. 영화에서와 같이 고도로 지능화된 기계가 인간을 공격하고 인류 문명을 파괴하며, 인류가 이들과 맞서 처절한 전쟁을 벌이는 상황이 반드시 오지는 않을지라도, 어느 시점에 자아를 가진 강인공지능이 개발되어 스스로 판단하고 통제 불가능한 수준에 이르게 된다면 인류 문명에 예측할 수 없는 부정적 영향을 주게 될 것이다. 특히 군사용 인공지능과 로봇, 이를 결합한 자율 무기체계는 본질적으로 전쟁의 수단으로서 살상과 파괴를 전제하고 있어 자칫 잘못하면 치명적인 흉기가 되어 아군이나 국민에게 막대한 피해를 줄 수 있다는 점에서 특별한 주의와 대책이 요구될 것이다. 여기서 군사용 인공지능과 로봇, 즉 자율 무기체계의 몇 가지 한계와 잠재적 문제점을 제시한다.  첫째, 인공지능은 입력된 데이터와 알고리즘에 따라 작동하기 때문에 데이터의 질에 큰 영향을 받는다. 빅데이터 전문가 캐시 오닐이 그의 책에서 지적하듯이 편향된 또는 부정확한 데이터가 입력되면 잘못된 판단과 결정으로 이어지며 잘못된 행동과 치명적 결과를 발생시킨다. 인간의 편견과 오류, 정보의 부정확성이 그대로 인공지능에 입력되어 결과로 산출된다. 만일 아군이 수집한 적에 대한 데이터가 부정확하거나 불충분할 경우 예상치 못한 결론으로 이어질 수 있다. 적에 대한 정보가 제한적일 수밖에 없으며 가변적이고 불확실한 작전 환경의 본질적 특성을 고려하면 이러한 문제는 동반될 수밖에 없을 것으로 보인다.  둘째, 인공지능에 투입된 데이터와 알고리즘의 신뢰성 문제로서, 블랙박스 속에서 처리되어 제시된 산물을 인간이 어느 수준까지 신뢰할 수 있는가? 앞에서 제시된 인공지능 데이터의 부정확성이나 부족, 또는 알고리즘의 편향은 인간이 가지는 본질적인 문제가 인공지능에 전이되는 결과이기도 하다. 다만 인공지능이 인간보다 뛰어나게 유추하고 신속하게 처리할 수 있다는 장점을 가지고 있다. 그러나 인간의 경우 정보처리 과정과 이유에 대한 설명이 가능하여 도출된 결과에 대한 재차 논리적 판단이 가능하지만, 인공지능은 과정에 대한 논리적 설명 없이 결과만 제시한다. 특히 여러 개의 인공지능 시스템이 통합하여 시스템간 상호작용이 일어날 경우 인공지능이 어느 수준에서 무슨 학습을 했으며, 어떤 이유로 특정의 결론을 도출했는지를 판단하기 더욱 어렵게 만들 것이다.  셋째, 만일 인공지능의 처리 결과를 그대로 인정한다면 이것은 인공지능에게 완전한 자율성을 부여하는 것을 의미하며, 이는 인공지능이나 자율 무기체계는 더 이상 인간의 보조 수단이 아닌 인간과 대등한 차원 또는 더 우월한 위치에서 전쟁 또는 전투 행위의 주체가 될 것이다. 이렇게 되면 인간이 자율 무기체계에 대한 통제권을 상실하여 자율 무기체계가 최초 인간의 의도와는 달리 행동하더라도 이를 효과적으로 저지하기 어렵게 된다. 자율살상무기의 경우 책임 문제에 있어서도 불법적으로 인명을 살상한 로봇이나 기계를 처벌할 수 없고 관련자들에 대한 형사처벌도 거의 할 수 없을 것이다. 인공지능의 기술이 발전할수록 시스템이 더 복잡해지고 인공지능의 역할과 행동 범위가 확장됨에 따라 개발자나 운용자의 의도와 다른 방향으로 행동하거나 그 결과도 예측하기 어려워질 가능성이 있다. 인공지능(자율 무기체계) 자체를 윤리적 행위자로 규정하면 개발자나 운용자의 윤리적, 법적 책임은 사라지게 된다. 그렇다고 운용자 또는 지휘관에게 형사적 책임을 묻기도 쉽지 않다. 왜냐하면, 개인이 실제적 또는 추정적으로 자동무기의 오작동을 알고도 시정조치를 제대로 하지 않았거나 고의 또는 과실로 발생한 것이 아니라면 처벌이 어렵기 때문이다.  넷째, 인공지능은 기본적으로 데이터와 디지털 네트워크 체계를 기반으로 하는데 이는 적의 사이버 공격이나 전자기적 공격에 치명적일 수 있다. 인공지능이 사이버 공격이나 방어에 매우 효과적인 기술이면서도 이와 동시에 사이버 공격에 취약한 모순을 가지고 있다. 적이 아군의 데이터 시스템이나 클라우드에 침투하여 데이터를 조작하거나 명령체계를 교란하여 아군을 적으로 오인하도록 하거나 인공지능 시스템을 전자기적으로 파괴하거나 전자 바이러스로 작동불능 상태로 만들어 자율 무기체계가 무용지물이 될 수도 있다. 네트워크로 연결된 자율 무기체계가 적의 수중에 들어가 알고리즘이나 네트워크의 취약점이 노출되면 치명적 결과가 발생할 것이다. 또한 적의 공격으로 한순간에 모든 인공지능과 자율 무기체계의 기능이 마비되는 상황도 배제할 수 없다.  다섯째, 기술적 비대칭성에 따른 전쟁의 유혹과 피해의 확산이 더 커질 수 있다는 점이다. 인공지능과 자율 무기체계로 무장한 국가는 그렇지 못한 국가의 취약점을 활용하여 신속하고 효과적으로 공격할 수 있어 전쟁의 유혹에 쉽게 노출될 가능성이 크다.16) 양측 모두 인공지능으로 무장된 자율 무기체계로 강화된 군사력을 가지고 있다면 군사적 균형이 이루어져 전쟁이 억제될 수 있겠지만, 그렇지 않으면 군사적 균형이 무너지게 된다. 자율 무기체계로 무장한 국가와 그렇지 못한 국가 간의 전쟁은 기계와 인간의 전쟁이 될 것이며, 자율 무기체계를 가진 국가는 자국의 인명 손실에 대한 부담이 없어 전쟁을 너무 쉬운 것으로 만들어 인류의 파괴가 확대될 것이다.  인공지능과 로봇 기술 기반의 무기체계가 가지는 여러 가지 부정적 효과가 제기되고 있음에도 불구하고 무인화, 자율화의 미래전 양상은 거스를 수 없는 시대적 대세일 것이다. 사실 자율 무기체계가 마냥 부정적인 면만 있는 것은 아니다. 자율 무기체계는 매우 정밀·정확하여 불필요한 살상을 방지하고 인간과 같은 실수를 하지 않아 오히려 인명 피해를 줄일 수 있다. 또한 감정이나 스트레스가 없어 전쟁에서 흔히 발생하는 인간의 비윤리적 행위로 인한 무고한 인명 살상과 파괴를 예방할 수 있을 것이다.  이에 대해 우리는 자율무기체계는 인정하되, 3단계 인공지능 자율살상무기 즉, 완전자율무기의 사용은 금지하고자 한다.     첫째, 완전자율무기의 판단력을 신뢰할 수 없다. 제네바 협약 제51조에 의하면 특정한 군사표적물을 표적으로 할 수 없는 전투의 방법 또는 수단을 사용하는 공격으로 그 결과 개개의 경우에 있어 군사목표물과 민간인 또는 민간물자를 무차별적으로 타결하는 성질을 갖는 것은 금지된다. 제 48조에 의하면, 민간 물자 역시 공격 또는 보복의 대상이 되어서는 안된다. 하지만, 무력 충돌 상황에서 군사시설과 민간시설의 외형상 구분이 모호한 경우 자율무기체계가 양자를 어떻게 구분할 것인지가 문제가 된다. 인공지능이 이를 확실하게 실수없이 구분할 수 있는지가 첫번째 문제이고, ‘적군이 병영시설로 사용하고 있고 적군이 무력을 행사함에 있어 방어거점으로 사용하고 있다면 공격이 될 수 있다.’는 원칙과 충돌하는 것이 두 번째 문제이다.  둘째, 생명의 중요성을 경시한다. 제 35조에 의하면 체약국이 고려해야 할 구체적인 원칙으로 과도한 상해 및 불필요한 고통을 초래할 성질의 무기, 투사물, 물자, 전투수단을 사용하는 것은 금지된다. 그리고 ‘시민적 및 정치적 권리에 관한 국제규약 제6조’에 따르면 모든 사람은 고유한 생명권을 가지며 이는 어느 누구도 자의적으로 자신의 생명을 박탈당하지 않는다는 것을 의미한다. 따라서 살인은 오로지 인명을 보호하기 위한 수단이고 위협에 대응하는 방식으로 사용될 때만 적법하다. 그러나, 자율살상무기가 스스로의 독자적 판단에 의해 공격을 실시할 경우, 급박한 상황에서 결정을 내리는데 필요한 공감과 판단력이 부족하고, 군사적 이익에 중점을 두기 때문에 과도한 피해를 입힐 가능성이 크다. 그리고, 국제인도법 조항인 마르텐스 조항에서 중시하는 공공양심의 명령을 위반한다. 인간은 다른 사람들의 경험에 대해 연민과 공감을 느낄 수 있기 때문에 서로를 인도적으로 대하려하지만, 완전자율무기는 이를 이해하는데 필요한 정서적 능력이 부족하다.  셋째, AI와 킬러로봇의 오류와 사고에 대해 관련자 모두가 책임을 회피할 수 있다. 인권 침해의 피해자는 구제받을 권리가 있지만 이 경우에는 누가 책임을 질 수 있는지 분명하지 않다. 범죄는 행동과 정신상태를 모두 고려하지만 완전자율무기는 정신 상태가 결핍되어 있어 법에 따라 책임 질 수 없다. 인간의 경우에도 마찬가지이다. 인간과 완전자율무기의 관계는 상관과 부하와 같다. 상관이 의도적으로 완전자율무기를 배치한 경우 유죄 판결을 받을지도 모르지만, 자율적인 기계의 예측할 수 없는 행동에 대해 책임을 묻는 것은 법적으로 어렵고 불공정할 것이다. 또한, 개발자와 제조사가 처벌받으려면 중대한 증거 입증을 필요로 하는데, 이는 이미 전쟁으로 피폐해진 피해자들에게 막대한 시간과 비용을 요구한다. 참고 문헌: 한국국방기술학회 논문지-인공지능과 로봇의 군사적 활용과 선행 과제  

총0명 참여
통신서비스 중단시, 이용자 피해구제 강화

방송통신위원회(이하 ‘방통위’, 위원장 한상혁)는 최근 크고 작은 통신서비스 중단 사고가 연이어 발생하면서, 이용자의 피해구제에 대한 관심이 높아지고 있는 가운데 이용자 피해구제의 실효성 확보를 위해 주요 통신사(SKT·SKB·KT· LGU+) 이용약관을 개선한다고 밝혔습니다. 현재 주요 통신사의 이용약관에 따르면, 연속 3시간(1개월 누적 6시간) 이상 서비스 중단 시, 초고속인터넷 분야의 경우 해당 서비스 요금의 6배, 이동전화 분야의 경우 8배 상당의 금액을 배상하도록 규정되어 있습니다. 그러나, 최근의 변화된 통신이용 환경을 반영할 필요성 등이 제기되어 방통위는 작년 11월부터 이용약관상 손해배상 기준 등 제도 개선을 위해 주요 통신사와 협의를 진행하며 전문가 의견수렴을 병행했습니다. * 초고속인터넷 분야 : (‘02) 기준시간 4→3시간, (’18) 기준금액 3→6배로 확대이동전화 분야 : (‘01) 기준시간 6→3시간, (’12) 기준금액 3→6배, (‘19) 6→8배로 확대 이번에 개선되는 주요 통신사 피해구제 절차·내용은 다음과 같습니다. 첫째, 손해배상의 기준 시간은 단축되고 금액은 확대됩니다. 초고속인터넷 및 이동전화 서비스 제공이 연속 2시간 이상 중단된 경우, 손해배상을 청구하면 해당 서비스 장애시간 요금의 10배를 배상받을 수 있습니다. 이는 통신망의 고도화, 스마트폰의 도입 및 통신서비스 이용방식 변화 등과 함께 통신서비스 제공 중단 시 소요되는 복구 시간, 전기통신사업법 규정과의 정합성*, 국내외 사례 등을 종합적으로 고려한 것입니다. 아울러, 통신서비스 제공 중단에 따른 이용자 피해에 대해 폭넓은 배상이 이루어지도록 기준 금액을 대폭 확대하였습니다. * 현행 전기통신사업법 시행령상 중요통신시설의 경우 ’지체없이‘ 고지, 기타 통신시설의 경우 ’2시간 이상‘ 장애 시 중단사실 및 손해배상 기준·절차를 고지(제37조의11①제5호) 둘째, 통신서비스가 중단되는 경우, 이용자의 신청이 없어도 다음 달에 자동으로 요금반환이 이루어집니다. 이용자가 직접 신청하여야 하는 손해배상과 달리, 요금반환은 이용자의 신청 없이 통신서비스 중단 일수에 따라 월정액 요금의 일할기준 금액을 반환(또는 감면하여 부과)해야 하나, 명확하지 않은 측면이 있어 “다음 달에 자동으로 반환” 된다는 점을 이용약관에 명시하도록 했습니다. 셋째, 통신사 홈페이지와 고객센터 앱을 통한 통신서비스 제공 중단 및 손해배상 안내가 강화됩니다. 현재 통신서비스 중단 사고 발생 시, 통신사 홈페이지나 고객센터 앱에서 서비스 중단에 대한 정보를 찾기가 쉽지 않고, 심지어 손해배상 청구 절차나 양식에 대한 안내도 전혀 이루어지지 않고 있습니다. 이에 홈페이지 및 고객센터 앱에 별도의 메뉴를 신설해 이용자가 통신서비스 중단 사고를 쉽게 확인하고 신속하게 대처할 수 있도록 할 예정입니다. 방통위는 이용약관 개정의 경우, 주요 통신사에서 과학기술정보통신부 신고 절차를 거쳐 사업자별로 전산시스템을 개선해 7월중 시행할 예정이며, 홈페이지 개편은 8월중에 이루어질 것이라고 밝혔습니다. 한편, 방통위는 통신서비스 중단 시, 다양한 고지 수단 중 하나를 통신사업자가 선택하는 현행 고지 방식을 개선해 이용자가 쉽게 알 수 있는 방법으로 우선 고지하도록 전기통신사업법 시행령을 개정하는 등 이용자 피해구제의 실효성 확보를 위한 제도개선도 지속적으로 추진할 계획입니다.

총1명 참여
인공지능 자율무기체계의 자율살상무기 법률에 관한 제안

 4차 산업혁명 신기술의 급격한 발전으로 인해 미래의 전쟁에서는 지금의 수행방식과 완전히 다른 모습을 띨 것이다. 인공지능과 로봇은 다른 기술들과 융합하여 새로운 개념의 자율 무기체계로 발전할 것이다. 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯해 우리가 예상치 못한 여러가지 문제가 생길 수 있다.  최근 4차 산업혁명이라 불리는 신기술들의 급격한 발전은 인류 사회의 모든 분야에 큰 영향을 미치며 인간의 삶을 새로운 양상으로 이끌어가고 있다. 그리고 여기에는 군사 분야도 예외는 아니다. 미래전 수행방식은 지금과는 완전히 다른 모습을 띨 것이라고 대부분의 미래학자와 군사전문가들은 전망하고 있다. 전쟁의 역사는 전쟁과 과학 기술이 밀접한 관계를 가지고 있음을 말해준다. 1차산업혁명을 통해 기계가 출현하면서 인간의 완력에 의존하던 전쟁이 기계에 의존하는 전쟁으로 변환하였으며, 이어서 1950년대 이후 컴퓨터와 통신 기술이 발전하면서 네트워크 중심의 전쟁으로 진화하였다. 앞으로의 미래전 수행방식에 가장 큰 영향을 미치게 될 기술은 인공지능과 로봇일 것이다. 인공지능은 연관 기술들과 결합하여 인간의 두뇌 활동을 대신할 것이며, 로봇은 인간의 육체 활동을 대신할 것이다. 아직은 초기 단계이기는 하지만 인공지능과 로봇이 군사 분야에 도입되어 그 활용범위가 확대되고 있다. 앞으로 인공지능과 로봇은 그 기술 수준이 높아지면서 다른 기술들과 융합하여 완전히 새로운 개념의 자율 무기체계로 발전할 것이다. 그 결과 미래전은 인간 전투원과 지능형 군사로봇과의 협업으로 진행될 것이 분명해 보인다. 이렇듯, 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯한 문제가 발생할 수 있다. 이러한 점에서 이 글은 인공지능과 로봇 기술이 중심이 된 자율 무기체계의 군사적 활용에 대해 얘기해 보려고 한다.  인공지능과 로봇 기술의 군사적 결합은 자율 무기체계의 형태로 나타날 것이다. 인공지능은 자율 무기체계의 두뇌를 구성하며, 로봇은 곧 몸통이다. '자율'이라는 것은 자신의 행동을 스스로 통제하고 책임을 지는 것을 말하는 것으로, 이는 무기에 대한 인간의 통제가 사라지고 무기 자신이 스스로 통제함을 뜻한다. 지금까지 무기는 대부분 인간의 직접적인 작동 또는 통제로 운용되는 수동적인 전투 수단이었으나, 자율무기는 이러한 기존의 무기체계와는 완전히 다른 개념으로 무기체계가 인간 전투원과 같이 하나의 독립된 전투 주체가 된다. 자동화 시스템에 의해 무기체계가 스스로 표적을 탐지하면 인간의 결정에 따라 발사되어 목표를 자동으로 추적하여 타격하는 '반자율적' 수준에 이르고 있다. 만일 무기체계가 인간의 개입 없이 스스로 목표를 선정하고 공격 여부를 결정한다면 이는 완전한 형태의 자율무기라고 할 수 있다. 자율성의 개념을 더 명확히 이해하기 위해 '자동화'의 개념과 비교해보자. 자동화는 센서를 통한 외부의 데이터 입력에 반응하여 미리 정해진 절차에 따라 작동하는 것을 의미한다. 자율성 또한 정해진 절차에 따라 작동하는 것을 의미하지만 양자의 결정적인 차이는 알고리즘 작동이 폐쇄적인가 개방적인가이다. 즉, 자율성이 자동화와 다른 점은 기계학습을 통해 환경의 변이를 인식하고 스스로 이에 적응할 수 있다는 것이다. 자동화와 자율성의 이러한 구분은 현실적으로 두 가지가 겹쳐서 나타나는 중간 지대가 많아 명확히 구분하기 어려운 실정이다. 다만, 자율성의 정도를 기계에 대해 인간이 관여하는 정도에 따라 구분해 볼 수 있다. 자율성의 구분은 미국 국방부의 '무기체계의 자율성에 관한 지침'이 널리 준용되고 있다. 미 국방부는 전투 행동의 순환 과정에 인간이 어느 정도 개입과 통제를 하는가에 따라 자율성을 첨부 파일과 같이 세 가지 범주로 구분하였다.  1단계는 인간 운용자가 전투 행위의 전 과정에 걸쳐 무기체계를 직접 개입하여 통제하는 것으로 원격으로 조종하는 무인 무기나 무인항공기 등이 여기에 해당한다. 2단계는 무기체계의 전투 행위 과정을 모니터링하면서 무기체계가 인간의 의도와 다른 방향으로 행동하거나 사격 여부를 결정해야 하는 중요한 순간에만 인간이 개입하는 것으로, 신속한 대응이 필요한 방공무기와 같이 상당한 수준의 자율성을 보유하는 무기가 여기에 속한다. 3단계는 완전한 자율성을 가진 무기체계로서 인간의 개입이 필요없이 스스로 표적을 찾아 교전 여부를 결정하고 타격하는 무기체계이다. 통상 자율 살상무기 또는 킬러 로봇으로 불린다. 이 수준의 자율무기가 윤리적으로나 국제법적으로 가장 논란의 대상이 되고 있다. 현재까지는 개발되지 않았으나 인공지능의 발전추세로 보아 머지않아 등장할 것으로 보인다. 앞에서 제시된 자율성의 범주는 자율 무기체계에 내장된 인공지능 기술에 의한 사고와 판단 능력을 기준으로 분류한 것으로, 공학적 요소인 로봇 기술에 해당하는 관측과 행동 능력은 고려되지 않아 자율 무기체계의 포괄적 특징을 설명하기에는 완전하지 않다. 왜냐하면 자율 무기체계 또는 지능형 전투로봇은 인공지능 두뇌와 로봇 몸체로 이루어져 있기 때문이다. 오늘날 인공지능의 중요성이 부각되면서 자율 무기체계에 대해서도 두뇌의 자율성이 강조되는 측면이 있다. 그렇지만 이에 못지않게 중요한 것이 자율적 사고와 판단 결과를 행동으로 옮기는 기능이다. 이 글에서 관심을 가지는 자율 무기체계는 이러한 공학적 능력을 지닌 지능형 무기체계를 말한다.  인공지능과 로봇의 기술이 발전할수록 자율 무기체계가 고도화되어 결국 인간의 통제를 벗어나 기계가 인간을 지배할 것이라고 우려하는 목소리가 커지고 있다. 특히 3단계 수준의 완전한 자율 무기체계는 핵무기에 버금갈 정도의 파괴력을 지니게 될 것으로 보인다. 영화에서와 같이 고도로 지능화된 기계가 인간을 공격하고 인류 문명을 파괴하며, 인류가 이들과 맞서 처절한 전쟁을 벌이는 상황이 반드시 오지는 않을지라도, 어느 시점에 자아를 가진 강인공지능이 개발되어 스스로 판단하고 통제 불가능한 수준에 이르게 된다면 인류 문명에 예측할 수 없는 부정적 영향을 주게 될 것이다. 특히 군사용 인공지능과 로봇, 이를 결합한 자율 무기체계는 본질적으로 전쟁의 수단으로서 살상과 파괴를 전제하고 있어 자칫 잘못하면 치명적인 흉기가 되어 아군이나 국민에게 막대한 피해를 줄 수 있다는 점에서 특별한 주의와 대책이 요구될 것이다. 여기서 군사용 인공지능과 로봇, 즉 자율 무기체계의 몇 가지 한계와 잠재적 문제점을 제시한다.  첫째, 인공지능은 입력된 데이터와 알고리즘에 따라 작동하기 때문에 데이터의 질에 큰 영향을 받는다. 빅데이터 전문가 캐시 오닐이 그의 책에서 지적하듯이 편향된 또는 부정확한 데이터가 입력되면 잘못된 판단과 결정으로 이어지며 잘못된 행동과 치명적 결과를 발생시킨다. 인간의 편견과 오류, 정보의 부정확성이 그대로 인공지능에 입력되어 결과로 산출된다. 만일 아군이 수집한 적에 대한 데이터가 부정확하거나 불충분할 경우 예상치 못한 결론으로 이어질 수 있다. 적에 대한 정보가 제한적일 수밖에 없으며 가변적이고 불확실한 작전 환경의 본질적 특성을 고려하면 이러한 문제는 동반될 수밖에 없을 것으로 보인다.  둘째, 인공지능에 투입된 데이터와 알고리즘의 신뢰성 문제로서, 블랙박스 속에서 처리되어 제시된 산물을 인간이 어느 수준까지 신뢰할 수 있는가? 앞에서 제시된 인공지능 데이터의 부정확성이나 부족, 또는 알고리즘의 편향은 인간이 가지는 본질적인 문제가 인공지능에 전이되는 결과이기도 하다. 다만 인공지능이 인간보다 뛰어나게 유추하고 신속하게 처리할 수 있다는 장점을 가지고 있다. 그러나 인간의 경우 정보처리 과정과 이유에 대한 설명이 가능하여 도출된 결과에 대한 재차 논리적 판단이 가능하지만, 인공지능은 과정에 대한 논리적 설명 없이 결과만 제시한다. 특히 여러 개의 인공지능 시스템이 통합하여 시스템간 상호작용이 일어날 경우 인공지능이 어느 수준에서 무슨 학습을 했으며, 어떤 이유로 특정의 결론을 도출했는지를 판단하기 더욱 어렵게 만들 것이다.  셋째, 만일 인공지능의 처리 결과를 그대로 인정한다면 이것은 인공지능에게 완전한 자율성을 부여하는 것을 의미하며, 이는 인공지능이나 자율 무기체계는 더 이상 인간의 보조 수단이 아닌 인간과 대등한 차원 또는 더 우월한 위치에서 전쟁 또는 전투 행위의 주체가 될 것이다. 이렇게 되면 인간이 자율 무기체계에 대한 통제권을 상실하여 자율 무기체계가 최초 인간의 의도와는 달리 행동하더라도 이를 효과적으로 저지하기 어렵게 된다. 자율살상무기의 경우 책임 문제에 있어서도 불법적으로 인명을 살상한 로봇이나 기계를 처벌할 수 없고 관련자들에 대한 형사처벌도 거의 할 수 없을 것이다. 인공지능의 기술이 발전할수록 시스템이 더 복잡해지고 인공지능의 역할과 행동 범위가 확장됨에 따라 개발자나 운용자의 의도와 다른 방향으로 행동하거나 그 결과도 예측하기 어려워질 가능성이 있다. 인공지능(자율 무기체계) 자체를 윤리적 행위자로 규정하면 개발자나 운용자의 윤리적, 법적 책임은 사라지게 된다. 그렇다고 운용자 또는 지휘관에게 형사적 책임을 묻기도 쉽지 않다. 왜냐하면, 개인이 실제적 또는 추정적으로 자동무기의 오작동을 알고도 시정조치를 제대로 하지 않았거나 고의 또는 과실로 발생한 것이 아니라면 처벌이 어렵기 때문이다.  넷째, 인공지능은 기본적으로 데이터와 디지털 네트워크 체계를 기반으로 하는데 이는 적의 사이버 공격이나 전자기적 공격에 치명적일 수 있다. 인공지능이 사이버 공격이나 방어에 매우 효과적인 기술이면서도 이와 동시에 사이버 공격에 취약한 모순을 가지고 있다. 적이 아군의 데이터 시스템이나 클라우드에 침투하여 데이터를 조작하거나 명령체계를 교란하여 아군을 적으로 오인하도록 하거나 인공지능 시스템을 전자기적으로 파괴하거나 전자 바이러스로 작동불능 상태로 만들어 자율 무기체계가 무용지물이 될 수도 있다. 네트워크로 연결된 자율 무기체계가 적의 수중에 들어가 알고리즘이나 네트워크의 취약점이 노출되면 치명적 결과가 발생할 것이다. 또한 적의 공격으로 한순간에 모든 인공지능과 자율 무기체계의 기능이 마비되는 상황도 배제할 수 없다.  다섯째, 기술적 비대칭성에 따른 전쟁의 유혹과 피해의 확산이 더 커질 수 있다는 점이다. 인공지능과 자율 무기체계로 무장한 국가는 그렇지 못한 국가의 취약점을 활용하여 신속하고 효과적으로 공격할 수 있어 전쟁의 유혹에 쉽게 노출될 가능성이 크다.16) 양측 모두 인공지능으로 무장된 자율 무기체계로 강화된 군사력을 가지고 있다면 군사적 균형이 이루어져 전쟁이 억제될 수 있겠지만, 그렇지 않으면 군사적 균형이 무너지게 된다. 자율 무기체계로 무장한 국가와 그렇지 못한 국가 간의 전쟁은 기계와 인간의 전쟁이 될 것이며, 자율 무기체계를 가진 국가는 자국의 인명 손실에 대한 부담이 없어 전쟁을 너무 쉬운 것으로 만들어 인류의 파괴가 확대될 것이다.  인공지능과 로봇 기술 기반의 무기체계가 가지는 여러 가지 부정적 효과가 제기되고 있음에도 불구하고 무인화, 자율화의 미래전 양상은 거스를 수 없는 시대적 대세일 것이다. 사실 자율 무기체계가 마냥 부정적인 면만 있는 것은 아니다. 자율 무기체계는 매우 정밀·정확하여 불필요한 살상을 방지하고 인간과 같은 실수를 하지 않아 오히려 인명 피해를 줄일 수 있다. 또한 감정이나 스트레스가 없어 전쟁에서 흔히 발생하는 인간의 비윤리적 행위로 인한 무고한 인명 살상과 파괴를 예방할 수 있을 것이다.  이에 대해 우리는 자율무기체계는 인정하되, 3단계 인공지능 자율살상무기 즉, 완전자율무기의 사용은 금지하고자 한다.     첫째, 완전자율무기의 판단력을 신뢰할 수 없다. 제네바 협약 제51조에 의하면 특정한 군사표적물을 표적으로 할 수 없는 전투의 방법 또는 수단을 사용하는 공격으로 그 결과 개개의 경우에 있어 군사목표물과 민간인 또는 민간물자를 무차별적으로 타결하는 성질을 갖는 것은 금지된다. 제 48조에 의하면, 민간 물자 역시 공격 또는 보복의 대상이 되어서는 안된다. 하지만, 무력 충돌 상황에서 군사시설과 민간시설의 외형상 구분이 모호한 경우 자율무기체계가 양자를 어떻게 구분할 것인지가 문제가 된다. 인공지능이 이를 확실하게 실수없이 구분할 수 있는지가 첫번째 문제이고, ‘적군이 병영시설로 사용하고 있고 적군이 무력을 행사함에 있어 방어거점으로 사용하고 있다면 공격이 될 수 있다.’는 원칙과 충돌하는 것이 두 번째 문제이다.  둘째, 생명의 중요성을 경시한다. 제 35조에 의하면 체약국이 고려해야 할 구체적인 원칙으로 과도한 상해 및 불필요한 고통을 초래할 성질의 무기, 투사물, 물자, 전투수단을 사용하는 것은 금지된다. 그리고 ‘시민적 및 정치적 권리에 관한 국제규약 제6조’에 따르면 모든 사람은 고유한 생명권을 가지며 이는 어느 누구도 자의적으로 자신의 생명을 박탈당하지 않는다는 것을 의미한다. 따라서 살인은 오로지 인명을 보호하기 위한 수단이고 위협에 대응하는 방식으로 사용될 때만 적법하다. 그러나, 자율살상무기가 스스로의 독자적 판단에 의해 공격을 실시할 경우, 급박한 상황에서 결정을 내리는데 필요한 공감과 판단력이 부족하고, 군사적 이익에 중점을 두기 때문에 과도한 피해를 입힐 가능성이 크다. 그리고, 국제인도법 조항인 마르텐스 조항에서 중시하는 공공양심의 명령을 위반한다. 인간은 다른 사람들의 경험에 대해 연민과 공감을 느낄 수 있기 때문에 서로를 인도적으로 대하려하지만, 완전자율무기는 이를 이해하는데 필요한 정서적 능력이 부족하다.  셋째, AI와 킬러로봇의 오류와 사고에 대해 관련자 모두가 책임을 회피할 수 있다. 인권 침해의 피해자는 구제받을 권리가 있지만 이 경우에는 누가 책임을 질 수 있는지 분명하지 않다. 범죄는 행동과 정신상태를 모두 고려하지만 완전자율무기는 정신 상태가 결핍되어 있어 법에 따라 책임 질 수 없다. 인간의 경우에도 마찬가지이다. 인간과 완전자율무기의 관계는 상관과 부하와 같다. 상관이 의도적으로 완전자율무기를 배치한 경우 유죄 판결을 받을지도 모르지만, 자율적인 기계의 예측할 수 없는 행동에 대해 책임을 묻는 것은 법적으로 어렵고 불공정할 것이다. 또한, 개발자와 제조사가 처벌받으려면 중대한 증거 입증을 필요로 하는데, 이는 이미 전쟁으로 피폐해진 피해자들에게 막대한 시간과 비용을 요구한다. 참고 문헌: 한국국방기술학회 논문지-인공지능과 로봇의 군사적 활용과 선행 과제  

총0명 참여
인공지능 자율무기체계의 자율살상무기 법률에 관한 제안

 4차 산업혁명 신기술의 급격한 발전으로 인해 미래의 전쟁에서는 지금의 수행방식과 완전히 다른 모습을 띨 것이다. 인공지능과 로봇은 다른 기술들과 융합하여 새로운 개념의 자율 무기체계로 발전할 것이다. 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯해 우리가 예상치 못한 여러가지 문제가 생길 수 있다.  최근 4차 산업혁명이라 불리는 신기술들의 급격한 발전은 인류 사회의 모든 분야에 큰 영향을 미치며 인간의 삶을 새로운 양상으로 이끌어가고 있다. 그리고 여기에는 군사 분야도 예외는 아니다. 미래전 수행방식은 지금과는 완전히 다른 모습을 띨 것이라고 대부분의 미래학자와 군사전문가들은 전망하고 있다. 전쟁의 역사는 전쟁과 과학 기술이 밀접한 관계를 가지고 있음을 말해준다. 1차산업혁명을 통해 기계가 출현하면서 인간의 완력에 의존하던 전쟁이 기계에 의존하는 전쟁으로 변환하였으며, 이어서 1950년대 이후 컴퓨터와 통신 기술이 발전하면서 네트워크 중심의 전쟁으로 진화하였다. 앞으로의 미래전 수행방식에 가장 큰 영향을 미치게 될 기술은 인공지능과 로봇일 것이다. 인공지능은 연관 기술들과 결합하여 인간의 두뇌 활동을 대신할 것이며, 로봇은 인간의 육체 활동을 대신할 것이다. 아직은 초기 단계이기는 하지만 인공지능과 로봇이 군사 분야에 도입되어 그 활용범위가 확대되고 있다. 앞으로 인공지능과 로봇은 그 기술 수준이 높아지면서 다른 기술들과 융합하여 완전히 새로운 개념의 자율 무기체계로 발전할 것이다. 그 결과 미래전은 인간 전투원과 지능형 군사로봇과의 협업으로 진행될 것이 분명해 보인다. 이렇듯, 인간이 주체가 된 기존의 전쟁과 달리 자율무기 체계가 전쟁 행위의 주체로서 참여하게 된다면, 정치적, 법적, 윤리적 문제를 비롯한 문제가 발생할 수 있다. 이러한 점에서 이 글은 인공지능과 로봇 기술이 중심이 된 자율 무기체계의 군사적 활용에 대해 얘기해 보려고 한다.  인공지능과 로봇 기술의 군사적 결합은 자율 무기체계의 형태로 나타날 것이다. 인공지능은 자율 무기체계의 두뇌를 구성하며, 로봇은 곧 몸통이다. '자율'이라는 것은 자신의 행동을 스스로 통제하고 책임을 지는 것을 말하는 것으로, 이는 무기에 대한 인간의 통제가 사라지고 무기 자신이 스스로 통제함을 뜻한다. 지금까지 무기는 대부분 인간의 직접적인 작동 또는 통제로 운용되는 수동적인 전투 수단이었으나, 자율무기는 이러한 기존의 무기체계와는 완전히 다른 개념으로 무기체계가 인간 전투원과 같이 하나의 독립된 전투 주체가 된다. 자동화 시스템에 의해 무기체계가 스스로 표적을 탐지하면 인간의 결정에 따라 발사되어 목표를 자동으로 추적하여 타격하는 '반자율적' 수준에 이르고 있다. 만일 무기체계가 인간의 개입 없이 스스로 목표를 선정하고 공격 여부를 결정한다면 이는 완전한 형태의 자율무기라고 할 수 있다. 자율성의 개념을 더 명확히 이해하기 위해 '자동화'의 개념과 비교해보자. 자동화는 센서를 통한 외부의 데이터 입력에 반응하여 미리 정해진 절차에 따라 작동하는 것을 의미한다. 자율성 또한 정해진 절차에 따라 작동하는 것을 의미하지만 양자의 결정적인 차이는 알고리즘 작동이 폐쇄적인가 개방적인가이다. 즉, 자율성이 자동화와 다른 점은 기계학습을 통해 환경의 변이를 인식하고 스스로 이에 적응할 수 있다는 것이다. 자동화와 자율성의 이러한 구분은 현실적으로 두 가지가 겹쳐서 나타나는 중간 지대가 많아 명확히 구분하기 어려운 실정이다. 다만, 자율성의 정도를 기계에 대해 인간이 관여하는 정도에 따라 구분해 볼 수 있다. 자율성의 구분은 미국 국방부의 '무기체계의 자율성에 관한 지침'이 널리 준용되고 있다. 미 국방부는 전투 행동의 순환 과정에 인간이 어느 정도 개입과 통제를 하는가에 따라 자율성을 첨부 파일과 같이 세 가지 범주로 구분하였다.  1단계는 인간 운용자가 전투 행위의 전 과정에 걸쳐 무기체계를 직접 개입하여 통제하는 것으로 원격으로 조종하는 무인 무기나 무인항공기 등이 여기에 해당한다. 2단계는 무기체계의 전투 행위 과정을 모니터링하면서 무기체계가 인간의 의도와 다른 방향으로 행동하거나 사격 여부를 결정해야 하는 중요한 순간에만 인간이 개입하는 것으로, 신속한 대응이 필요한 방공무기와 같이 상당한 수준의 자율성을 보유하는 무기가 여기에 속한다. 3단계는 완전한 자율성을 가진 무기체계로서 인간의 개입이 필요없이 스스로 표적을 찾아 교전 여부를 결정하고 타격하는 무기체계이다. 통상 자율 살상무기 또는 킬러 로봇으로 불린다. 이 수준의 자율무기가 윤리적으로나 국제법적으로 가장 논란의 대상이 되고 있다. 현재까지는 개발되지 않았으나 인공지능의 발전추세로 보아 머지않아 등장할 것으로 보인다. 앞에서 제시된 자율성의 범주는 자율 무기체계에 내장된 인공지능 기술에 의한 사고와 판단 능력을 기준으로 분류한 것으로, 공학적 요소인 로봇 기술에 해당하는 관측과 행동 능력은 고려되지 않아 자율 무기체계의 포괄적 특징을 설명하기에는 완전하지 않다. 왜냐하면 자율 무기체계 또는 지능형 전투로봇은 인공지능 두뇌와 로봇 몸체로 이루어져 있기 때문이다. 오늘날 인공지능의 중요성이 부각되면서 자율 무기체계에 대해서도 두뇌의 자율성이 강조되는 측면이 있다. 그렇지만 이에 못지않게 중요한 것이 자율적 사고와 판단 결과를 행동으로 옮기는 기능이다. 이 글에서 관심을 가지는 자율 무기체계는 이러한 공학적 능력을 지닌 지능형 무기체계를 말한다.  인공지능과 로봇의 기술이 발전할수록 자율 무기체계가 고도화되어 결국 인간의 통제를 벗어나 기계가 인간을 지배할 것이라고 우려하는 목소리가 커지고 있다. 특히 3단계 수준의 완전한 자율 무기체계는 핵무기에 버금갈 정도의 파괴력을 지니게 될 것으로 보인다. 영화에서와 같이 고도로 지능화된 기계가 인간을 공격하고 인류 문명을 파괴하며, 인류가 이들과 맞서 처절한 전쟁을 벌이는 상황이 반드시 오지는 않을지라도, 어느 시점에 자아를 가진 강인공지능이 개발되어 스스로 판단하고 통제 불가능한 수준에 이르게 된다면 인류 문명에 예측할 수 없는 부정적 영향을 주게 될 것이다. 특히 군사용 인공지능과 로봇, 이를 결합한 자율 무기체계는 본질적으로 전쟁의 수단으로서 살상과 파괴를 전제하고 있어 자칫 잘못하면 치명적인 흉기가 되어 아군이나 국민에게 막대한 피해를 줄 수 있다는 점에서 특별한 주의와 대책이 요구될 것이다. 여기서 군사용 인공지능과 로봇, 즉 자율 무기체계의 몇 가지 한계와 잠재적 문제점을 제시한다.  첫째, 인공지능은 입력된 데이터와 알고리즘에 따라 작동하기 때문에 데이터의 질에 큰 영향을 받는다. 빅데이터 전문가 캐시 오닐이 그의 책에서 지적하듯이 편향된 또는 부정확한 데이터가 입력되면 잘못된 판단과 결정으로 이어지며 잘못된 행동과 치명적 결과를 발생시킨다. 인간의 편견과 오류, 정보의 부정확성이 그대로 인공지능에 입력되어 결과로 산출된다. 만일 아군이 수집한 적에 대한 데이터가 부정확하거나 불충분할 경우 예상치 못한 결론으로 이어질 수 있다. 적에 대한 정보가 제한적일 수밖에 없으며 가변적이고 불확실한 작전 환경의 본질적 특성을 고려하면 이러한 문제는 동반될 수밖에 없을 것으로 보인다.  둘째, 인공지능에 투입된 데이터와 알고리즘의 신뢰성 문제로서, 블랙박스 속에서 처리되어 제시된 산물을 인간이 어느 수준까지 신뢰할 수 있는가? 앞에서 제시된 인공지능 데이터의 부정확성이나 부족, 또는 알고리즘의 편향은 인간이 가지는 본질적인 문제가 인공지능에 전이되는 결과이기도 하다. 다만 인공지능이 인간보다 뛰어나게 유추하고 신속하게 처리할 수 있다는 장점을 가지고 있다. 그러나 인간의 경우 정보처리 과정과 이유에 대한 설명이 가능하여 도출된 결과에 대한 재차 논리적 판단이 가능하지만, 인공지능은 과정에 대한 논리적 설명 없이 결과만 제시한다. 특히 여러 개의 인공지능 시스템이 통합하여 시스템간 상호작용이 일어날 경우 인공지능이 어느 수준에서 무슨 학습을 했으며, 어떤 이유로 특정의 결론을 도출했는지를 판단하기 더욱 어렵게 만들 것이다.  셋째, 만일 인공지능의 처리 결과를 그대로 인정한다면 이것은 인공지능에게 완전한 자율성을 부여하는 것을 의미하며, 이는 인공지능이나 자율 무기체계는 더 이상 인간의 보조 수단이 아닌 인간과 대등한 차원 또는 더 우월한 위치에서 전쟁 또는 전투 행위의 주체가 될 것이다. 이렇게 되면 인간이 자율 무기체계에 대한 통제권을 상실하여 자율 무기체계가 최초 인간의 의도와는 달리 행동하더라도 이를 효과적으로 저지하기 어렵게 된다. 자율살상무기의 경우 책임 문제에 있어서도 불법적으로 인명을 살상한 로봇이나 기계를 처벌할 수 없고 관련자들에 대한 형사처벌도 거의 할 수 없을 것이다. 인공지능의 기술이 발전할수록 시스템이 더 복잡해지고 인공지능의 역할과 행동 범위가 확장됨에 따라 개발자나 운용자의 의도와 다른 방향으로 행동하거나 그 결과도 예측하기 어려워질 가능성이 있다. 인공지능(자율 무기체계) 자체를 윤리적 행위자로 규정하면 개발자나 운용자의 윤리적, 법적 책임은 사라지게 된다. 그렇다고 운용자 또는 지휘관에게 형사적 책임을 묻기도 쉽지 않다. 왜냐하면, 개인이 실제적 또는 추정적으로 자동무기의 오작동을 알고도 시정조치를 제대로 하지 않았거나 고의 또는 과실로 발생한 것이 아니라면 처벌이 어렵기 때문이다.  넷째, 인공지능은 기본적으로 데이터와 디지털 네트워크 체계를 기반으로 하는데 이는 적의 사이버 공격이나 전자기적 공격에 치명적일 수 있다. 인공지능이 사이버 공격이나 방어에 매우 효과적인 기술이면서도 이와 동시에 사이버 공격에 취약한 모순을 가지고 있다. 적이 아군의 데이터 시스템이나 클라우드에 침투하여 데이터를 조작하거나 명령체계를 교란하여 아군을 적으로 오인하도록 하거나 인공지능 시스템을 전자기적으로 파괴하거나 전자 바이러스로 작동불능 상태로 만들어 자율 무기체계가 무용지물이 될 수도 있다. 네트워크로 연결된 자율 무기체계가 적의 수중에 들어가 알고리즘이나 네트워크의 취약점이 노출되면 치명적 결과가 발생할 것이다. 또한 적의 공격으로 한순간에 모든 인공지능과 자율 무기체계의 기능이 마비되는 상황도 배제할 수 없다.  다섯째, 기술적 비대칭성에 따른 전쟁의 유혹과 피해의 확산이 더 커질 수 있다는 점이다. 인공지능과 자율 무기체계로 무장한 국가는 그렇지 못한 국가의 취약점을 활용하여 신속하고 효과적으로 공격할 수 있어 전쟁의 유혹에 쉽게 노출될 가능성이 크다.16) 양측 모두 인공지능으로 무장된 자율 무기체계로 강화된 군사력을 가지고 있다면 군사적 균형이 이루어져 전쟁이 억제될 수 있겠지만, 그렇지 않으면 군사적 균형이 무너지게 된다. 자율 무기체계로 무장한 국가와 그렇지 못한 국가 간의 전쟁은 기계와 인간의 전쟁이 될 것이며, 자율 무기체계를 가진 국가는 자국의 인명 손실에 대한 부담이 없어 전쟁을 너무 쉬운 것으로 만들어 인류의 파괴가 확대될 것이다.  인공지능과 로봇 기술 기반의 무기체계가 가지는 여러 가지 부정적 효과가 제기되고 있음에도 불구하고 무인화, 자율화의 미래전 양상은 거스를 수 없는 시대적 대세일 것이다. 사실 자율 무기체계가 마냥 부정적인 면만 있는 것은 아니다. 자율 무기체계는 매우 정밀·정확하여 불필요한 살상을 방지하고 인간과 같은 실수를 하지 않아 오히려 인명 피해를 줄일 수 있다. 또한 감정이나 스트레스가 없어 전쟁에서 흔히 발생하는 인간의 비윤리적 행위로 인한 무고한 인명 살상과 파괴를 예방할 수 있을 것이다.  이에 대해 우리는 자율무기체계는 인정하되, 3단계 인공지능 자율살상무기 즉, 완전자율무기의 사용은 금지하고자 한다.     첫째, 완전자율무기의 판단력을 신뢰할 수 없다. 제네바 협약 제51조에 의하면 특정한 군사표적물을 표적으로 할 수 없는 전투의 방법 또는 수단을 사용하는 공격으로 그 결과 개개의 경우에 있어 군사목표물과 민간인 또는 민간물자를 무차별적으로 타결하는 성질을 갖는 것은 금지된다. 제 48조에 의하면, 민간 물자 역시 공격 또는 보복의 대상이 되어서는 안된다. 하지만, 무력 충돌 상황에서 군사시설과 민간시설의 외형상 구분이 모호한 경우 자율무기체계가 양자를 어떻게 구분할 것인지가 문제가 된다. 인공지능이 이를 확실하게 실수없이 구분할 수 있는지가 첫번째 문제이고, ‘적군이 병영시설로 사용하고 있고 적군이 무력을 행사함에 있어 방어거점으로 사용하고 있다면 공격이 될 수 있다.’는 원칙과 충돌하는 것이 두 번째 문제이다.  둘째, 생명의 중요성을 경시한다. 제 35조에 의하면 체약국이 고려해야 할 구체적인 원칙으로 과도한 상해 및 불필요한 고통을 초래할 성질의 무기, 투사물, 물자, 전투수단을 사용하는 것은 금지된다. 그리고 ‘시민적 및 정치적 권리에 관한 국제규약 제6조’에 따르면 모든 사람은 고유한 생명권을 가지며 이는 어느 누구도 자의적으로 자신의 생명을 박탈당하지 않는다는 것을 의미한다. 따라서 살인은 오로지 인명을 보호하기 위한 수단이고 위협에 대응하는 방식으로 사용될 때만 적법하다. 그러나, 자율살상무기가 스스로의 독자적 판단에 의해 공격을 실시할 경우, 급박한 상황에서 결정을 내리는데 필요한 공감과 판단력이 부족하고, 군사적 이익에 중점을 두기 때문에 과도한 피해를 입힐 가능성이 크다. 그리고, 국제인도법 조항인 마르텐스 조항에서 중시하는 공공양심의 명령을 위반한다. 인간은 다른 사람들의 경험에 대해 연민과 공감을 느낄 수 있기 때문에 서로를 인도적으로 대하려하지만, 완전자율무기는 이를 이해하는데 필요한 정서적 능력이 부족하다.  셋째, AI와 킬러로봇의 오류와 사고에 대해 관련자 모두가 책임을 회피할 수 있다. 인권 침해의 피해자는 구제받을 권리가 있지만 이 경우에는 누가 책임을 질 수 있는지 분명하지 않다. 범죄는 행동과 정신상태를 모두 고려하지만 완전자율무기는 정신 상태가 결핍되어 있어 법에 따라 책임 질 수 없다. 인간의 경우에도 마찬가지이다. 인간과 완전자율무기의 관계는 상관과 부하와 같다. 상관이 의도적으로 완전자율무기를 배치한 경우 유죄 판결을 받을지도 모르지만, 자율적인 기계의 예측할 수 없는 행동에 대해 책임을 묻는 것은 법적으로 어렵고 불공정할 것이다. 또한, 개발자와 제조사가 처벌받으려면 중대한 증거 입증을 필요로 하는데, 이는 이미 전쟁으로 피폐해진 피해자들에게 막대한 시간과 비용을 요구한다. 참고 문헌: 한국국방기술학회 논문지-인공지능과 로봇의 군사적 활용과 선행 과제  

총0명 참여
국민생각을 모으고 다듬어야 국가발전에 도움이 됩니다.

초등학생 논술도 아닌데  국가 중요정책의 제안 국민 생각과 신문고 제안이  소수의 행정 담당자의 소견에 따라 취사 선택되고 버려지는게 안타깝읍니다.  생각은 모으고 지혜는 키워야합니다.  국가 정책 전략은 대개 몇개의 행정 부서의 정책 목표와 같아지죠.  국토부는 주택과 토지 관리인데  투기꾼들의 가격조정과 개발 인허가 독점으로 서민들을 집없는 설움에 분노하게하고  가혹한 이자의 대출과 할수금 이자 부담으로 집가진 거리를 만들죠.  원인은 인허가 특혜와 작아도 싸고 편리한 주거 공간 기본주택의 적정가격 공급이죠.  문체부의 존재의미는 국가 문화 선진화와 교육 기술 등 산업 경쟁력의 기반이 되는  문화 역량을 강화하고 전문가 인재를 발굴 육성하여 풍요로운 삶의 기초 서비스가 푸부하게 만든 ㄴ것이죠.  교육부의 역할은 이런 문화정책을 체계적으로 추진하는 시설 시스탬 운영이죠.  문화란 무엇이고  대한민국의 문화 역량 핵심 가치는 무엇인가?  결과만 보면  1. 지혜롭고 전문성 높은 한국의 인적 자원  2. 세계의 선진 기술 설비가 총집결하여 원전과 조선 자동차 반도체 등 최고의 제품이 만들어지는 산업  입니다.  그 원인을 보면  1. 훈민정음 기반의 쉽고 편리한 언어과학 기술 2. 문자와 표준음의 괴리를 극복한 맞춤법 3. 전통적 한자문화의 축적된 지식과 철학 척도의 1자명사 2자이름 3자에 온세상의 형상과 상태를 표현하는 함축적 사전 구축  4. 첨단 정보과학 시대에 잘 맞는 정음 소리 표준과 다양한 문자 체계의 표현 호환성  등의 언어과학적 역량에 기반한 교육과 기술 연구 기반이 강력하고  20년 의무교육의 전문성 강화로 잘 훈련된 국민이며  가난과 전쟁, 남북 분단 등 위기극복을 위해 단결된 국민의식과 행정 효율성이  국가 발전의 원동력입니다.  여기에 덛붙이자면  행정의 국민 역량 선도 및 발굴 지원 체계를 더욱 정예화하고 선진화해야한다는 것입니다.  국민의 창의와 지혜 혁신의지를 잘 발굴하고 육성 역량 개선에 이어 만드는 것이 국가 행정의 최고의 목표가 되어야합니다.  시설관리와 사고 대응도 중요하지만  국가 발전을 위한 학문과 기술의 반전과 전략적 선도 육성이 가장 중요한 국민 삶릐보장이고 미래 전략입니다.  신문과와 국민 생각의 제안된 문제를 체계적으로 통계적으로 정리 관리하고 국민 모두가 볼수 있게  분류별 사건 산업별 현황을 공개하면 좋겠읍니다.  아니 공개되어야합니다.  국민은 무엇이 불만이고 바람인지?  알아야하고 대통령 장관 책임자들은  그 대답을 정확히하고 검증되어야합니다. 

총2명 참여
「지역·청년 동반성장일자리 지원사업」청년근로자 모집 재공고

지역 청년 동반성장일자리 지원사업 관련 청년 근로자를 모집합니다^^ 꼭 붙임파일을 참조하시어 많은 참여 부탁드립니다~  함께 일하는 담양! 1. 사업개요 가. 사 업 명 : 지역·청년 동반성장 일자리 지원사업 나. 사업기간 : 2022. 7. ~ 2023. 2.(8개월) 다. 모집대상 : 담양군에 거주(예정)하고 있는 만 39세 이하 미취업 청년 라. 모집인원 : 3명   연번 기업명 근무내용 자격요건 모집인원 1 담양공동체 활성화센터 사회적경제조직 발굴 및 육성을 위한 교육프로그램 운영 컴퓨터 활용능력 1명 2 용면먹시곶감 영농조합법인 홍보 및 체험진행 관련 업무 수행 포토샵, 일러스트 가능자 2명   2. 모집 요강 가. 공고기간 : 2022. 6. 23.(목) ~ 모집 완료 시 까지 나. 모집인원 : 총 3명 다. 모집대상 : 청년층(만18세 이상 ~ 39세 이하) 미취업 대상 라. 신청자격 1) 만 18세 이상 만 39세 이하 청년으로 담양에 거주(예정)하고 있는 미취업 청년(주소이전 가능자) 참여 제외 사유가 없는 자 ※ 사업 선정 후 담양군 주소이전 필수 2) 참여 제외 대상(접수 마감일 기준)   ☞ 대학교 재학생, 휴학생, 대학진학예정자 (단, 대학교(원) 수료생, 졸업예정자, 졸업유예자, 방송통신대학, 사이버대학, 야간대학(원) 재학생은 참여 가능) ☞ 사업자등록, 고용보험 가입자 ☞ 신청서, 정보제공동의서 등 신청 구비서류를 제출하지 않은 자 ☞ 직접일자리사업 중복참여 및 반복참여자 (최근 3년 중 2년이상 정부의 직접일자리사업에 참여한 이력이 있는 경우 1년간 사업참여제한) ☞ 기타 외 제외 대상 사유 청년 근로자 참여 제한기준 참조 ※ 추후 사업 참여 제외 대상으로 확인 될 경우 합격 취소    

총0명 참여
목록
제일 상단으로 이동