로딩중

생각모음

생각의 발자취
[ 이 생각은 2025년 11월 18일 시작되어 총 2명이 참여하였습니다. ]
정신장애·청각장애 당사자가 제안하는 ‘배제되지 않는 AI’
필자는 양극성정동장애(조울증)를 앓고 있는 중증정신장애 환자다. 오랫동안 사회적 편견이라는 거친 파도에 맞서 싸워왔고, 그 싸움은 지금도 매일같이 이어진다. 적절한 약물관리를 하면 일상생활을 무리 없이 영위하지만, 그렇지 못하면 장애로 드러나는 독특한 특성을 지니고 있다.

또한 필자의 배우자는 청각장애를 가진 장애인이다. 우리는 서로를 마주 보고 입모양과 표정을 읽거나, 문자와 메신저로 말을 대신하며 살아간다. 대화 한 번을 나누기 위해서도 주변 소음, 화면의 글자 크기, 자막 여부, 안내방식 하나하나가 모두 “장벽”이 될 수 있다는 사실을 매일 체감한다. 이러한 이중의 경험은 사람을 관찰하고 통찰하는 능력을 길러주었고, 기술과 제도가 실제 삶에 미치는 영향을 몸으로 확인하게 했다. 이 글은 바로 그런 개인적 경험을 바탕으로 AI의 사용법과 제도적 책임을 논하려는 시도다.

인간이 만든 도구인 AI는 감정은 없지만 사회에 미치는 영향력은 막대하다. 따라서 AI는 단순한 기술적 효율을 넘어 사회적 약자와 함께 작동하는 공공재로 설계되어야 한다. 특히 정신장애인, 청각장애인과 같이 서로 다른 방식으로 세상을 인식하는 이들이 AI의 혜택에서 배제되거나 오히려 불이익을 당하지 않도록 하는 것은 우리 모두의 책임이다. 음성 안내만 제공되는 키오스크, 자막 없이 재생되는 영상, 문자 기반 소통을 전제로 하지 않는 상담 시스템은 모두 누군가에게는 “사용 불가능한 서비스”가 된다.

첫째, AI의 기본 원칙은 투명성·책임성·공정성이다. 결과가 어떻게 도출되었는지 설명 가능해야 하고, 오류가 발생했을 때 누가 어떤 방식으로 책임질 것인지 분명해야 한다. 알고리즘의 결정 과정이 블랙박스로 남아 있을 때 피해는 언제나 가장 약한 사람에게 먼저 돌아간다. 따라서 설계 단계부터 설명가능성 요구사항을 포함시키고, 결과에 대한 이의제기 절차를 법적으로 보장해야 한다. 특히 장애인 관련 서비스에서 부적절한 분류·배제·차별이 발생했을 때, 그 판단의 근거와 책임소재를 당사자가 이해하고 따질 수 있어야 한다.

둘째, 제도적 장치를 마련해야 한다. 권고나 가이드라인만으로는 한계가 분명하다. 공공서비스에 적용되는 AI는 접근성 기준을 법적 요건으로 삼고, 도입 전에는 접근성 영향평가와 사회적 영향평가를 의무화해야 한다. 이때 접근성은 시각·청각·지체·정신·발달 등 장애유형별로 구체화되어야 한다. 예를 들어, 음성 안내만 제공하는 대신 자막·텍스트·수어 영상 등 다양한 통로가 마련되어야 한다. 평가 결과는 투명하게 공개되어야 하고, 장애 당사자가 직접 검증하거나 이의제기할 수 있는 채널이 존재해야 한다. 또한 감시와 집행을 담당할 독립적 기구를 설립하고 시민 참여 메커니즘을 활성화해 제도가 현장에서 제대로 작동하도록 만들어야 한다.

셋째, 교육과 역량 강화는 필수다. AI는 현장의 실무자들과 함께 작동할 때 비로소 제 역할을 한다. 사회복지·행정 현장에 있는 이들에게 AI의 한계와 오작동 가능성을 교육하고, 이용자들이 결과를 이해하고 문제를 제기할 수 있는 권리를 갖게 해야 한다. 청각장애인이 음성 기반 ARS를 이용하지 못할 때, 정신장애인이 시간제한이 있는 입력창에서 충분히 자신의 상황을 설명하지 못할 때, 이를 “개인의 문제”가 아니라 “시스템의 설계 문제”로 인식할 수 있어야 한다. 기술자들은 코드와 모델 성능만 보는 대신 당사자의 삶과 맥락을 설계 초기부터 반영해야 한다. 현장의 경험이 곧 좋은 설계의 입력값이기 때문이다.

넷째, 실천 가능한 규범을 만들어야 한다. 추상적인 윤리 원칙만으로는 현장을 바꿀 수 없다. 체크리스트·테스트·평가 프레임워크를 표준화해 현장에서 바로 적용할 수 있게 하고, 그 결과를 주기적으로 감사하는 시스템을 도입해야 한다. 예컨대 접근성 자동진단 도구와 현장 점검이 결합된 복합적 검증 절차를 도입하면 설계와 운영 사이의 갭을 줄일 수 있다. 청각장애인 이용자와의 실제 사용 테스트, 정신장애 당사자와의 공동 점검을 공식 프로세스에 포함시키는 것도 하나의 방법이다.

다섯째, 개인의 경험을 설계에 반영해야 한다. 나처럼 증상이 관리되면 ‘일상인’이 되지만 관리가 흐트러지면 장애로 드러나는 이들은 한둘이 아니다. 또한 내 배우자처럼 청각장애로 인해 항상 화면을 더 유심히 보고, 자막과 텍스트에 의존해야 하는 사람들도 많다. 이러한 삶의 이면을 이해하지 못한 채 만들어진 시스템은 오히려 배제와 낙인을 강화한다. 빠른 사고회로, 강한 몰입력 같은 특성은 적절히 배치하면 조직과 사회에 큰 자산이 된다. 자막·텍스트·시각적 정보에 대한 높은 민감도 역시 디지털 환경에서는 강점이 될 수 있다. AI는 그런 다양성을 판별하고 존중하도록 설계되어야 한다.

마지막으로, 책임의 주체를 명확히 해야 한다. 기술 개발자, 서비스 운영자, 공공기관, 그리고 제도를 만드는 입법자까지 각 주체가 어디까지 책임지는지 분명히 규정해야 한다. 책임이 흐릿하면 피해 구제도 흐릿해진다. 책임의 명확화는 곧 권리의 보장으로 이어진다. 특히 장애인·사회적 약자가 피해를 입었을 때, 복잡한 절차 속에서 다시 한 번 소외되지 않도록 단순하고 접근 가능한 구제 절차를 마련해야 한다.

AI는 그저 도구로 끝나지 않는다. 누군가의 삶을 바꾸기도 하고, 누군가를 배제하기도 한다. 정신장애를 가진 필자와 청각장애를 가진 배우자는 매일같이 기술의 작은 변화들이 삶을 어떻게 돕고, 또 어떻게 막는지 몸으로 느끼며 살아간다. 나는 AI가 사람들의 삶을 개선하는 도구로 남기를 바란다. 이를 위해서는 법과 제도, 교육과 현장의 목소리가 함께 움직여야 하며, 무엇보다 당사자들의 경험을 설계의 중심에 두어야 한다. 선의로 설계된 기술만이 진정한 공공재가 된다.

선택은 우리에게 있다. AI를 효율을 위한 도구로만 방치할 것인지, 아니면 포용과 책임을 담은 기술로 만들어 모두가 배제되지 않는 미래를 만들 것인지 결정해야 한다. 나는 후자를 택한다. 투명성과 책임, 그리고 현장의 목소리를 담는 제도적 장치가 실현될 때 AI는 누구에게나 공평한 도구가 되고, 사회적 약자가 배제되지 않는 미래를 만드는 데 기여할 것이다.
  • 찬성찬성 : 0
  • 반대반대 : 0
  • 기타기타 : 0

※ 건전한 토론을 위해서 비방·욕설·도배 등 토론을 방해하거나 토론과 무관한 게시물은 삭제될 수 있습니다.
0/1000
목록
제일 상단으로 이동
x

국민생각함
자동 로그아웃 안내

남은시간 60

로그인 후 약 120분 동안 서비스 이용이 없어 자동 로그아웃 됩니다.
로그인 시간 연장을 원하시면 연장하기 버튼을 눌러주세요.