시선 [2023.04] 인공지능이 인권친화적이려면?
인공지능(AI; Artificial Intelligence)이라는 단어가 낯설지 않은 환경이 되었다. 인공지능이 활용되는 영역이 점차 늘어가고, 이것을 통해 제공되는 서비스나 결정이 인간의 삶에 직접적인 영향을 미치고 있다. 또 시간이 갈수록 그 영역과 영향은 점점 커지고 있다.
한편에서는 인공지능의 발전과 확산은 생산성과 편의성을 높이고, 국가경쟁력과 삶의 질을 높일 것으로 기대하지만, 또 다른 한편에서는 개인정보 및 사생활 침해와 차별 등 인권 침해에 대한 우려도 제기되고 있다. 우리가 잘 알고 있는 미국법원의 양형 정보 판단 시스템인 콤파스(COMPASS)는 피의자가 흑인일 경우 범죄를 저지를 가능성을 다른 인종에 비해 높게 판단하여 인종 차별적 문제가 발생하였다. 마케팅 분야에서 활용되는 인공지능은 단순히 소비자의 소비 형태나 구매 물품 등을 파악하는 데서 그치지 않고, 개인의 생체정보를 수집하여 감정이나 성향을 파악하고 맞춤형 광고와 상품을 제공할 수 있다. 개인정보를 포함하지 않거나 가명화 한 경우에도 막대한 양의 데이터를 분석하고 이들 간의 연결을 통해 개인을 식별하고 추적할 수 있어서 사생활 문제가 발생할 가능성이 있다. 또한 고도화된 안면인식 지능형 CCTV 시스템이나 자발적으로 정보 제공이 이루어지는 스마트폰 앱 등을 통해 개인의 일상적인 삶의 패턴을 추적하고 분석할 수 있다.
상황이 이렇지만 개인은 자신이 사용하는 인공지능에 대하여 자신들의 의견을 제시하거나 참여할 기회가 없다. 인공지능 분야에 대한 법률적 제도적 규제 장치가 부족하여 인공지능으로 인한 인권침해가 발생한 때도 권리구제를 받을 수 있는 절차와 방법이 부족한 것이 현실이다.
인공지능만의 문제일까
인간이 어떤 의사결정을 내릴 때 논리적이고 합리적으로 추론하는 것이 아니라 여러 무의식적 요인에 따라 이미 결론을 내려놓고, 그 결론에 맞는 과정을거꾸로 만드는 것을 전문가들은 ‘인지 편향’(Cognitive Bias)이라 부르고 있다. 인지 편향 때문에 인간의 판단과 의사결정에 실제로 차별적 결과가 나타난다는 점에 관해 다양한 연구 결과와 사례가 있다. 한 대학 연구팀이 법원의 가석방 심사 결과를 분석하였더니 법관들이 간식이나 식사를 한 이후에 허가 비율이 높아지는 규칙적 패턴을 발견하였고, 난민인정 심사에서는 법관이 응원하는 풋볼팀의 게임 결과가 난민인정 비율에 영향을 미치는 것으로 나타났다. 우리나라에서도 재판 과정에서 인지 편향이 존재함을 입증한 사례도 있다.
이러한 인간의 인지 편향과 마찬가지로 인공지능도 인간과 유사한 편향이나 차별을 보이고 있고, 이를 ‘기계 편향’(Machine Bias)이라고 부른다. 인공지능에서 기계 편향이 나타나는 이유는 인공지능을 개발하는 과정에서 개발자의 가치관이나 사상 등이 무의식중에 반영되었거나, 인공지능이 학습하는 데이터에 이미 인간 사회의 편견이나 차별적 요인이 포함되어 있기 때문이라고 할 수 있다.
다양성과 대표성, 인권적 가치
국가인권위원회의 ‘인공지능 개발과 활용에 관한 인권 가이드라인’은 ‘인공지능을 개인의 삶과 사회적 공익에 이바지할 수 있도록 설계하며, 인간의 존엄성과 자기 결정권 및 차별받지 않을 권리의 보장 등 기본적 인권에 기반을 두도록 하는 것이 매우 중요하다’라고 하였다. 이 가이드라인을 만드는 과정을 지켜보았던 경험을 바탕으로 인권 친화적인 인공지능을 위해 개인적으로 꼭 필요하다고 생각하는 두 가지만 소개하고자 한다.
첫째, 인공지능 개발자와 사업자들은 반드시 모든 사람의 다양성과 대표성을 반영하고, 성별·장애·나이·인종·종교·성적 지향 등 개인 특성에 따라 편향적이고 차별적인 결과가 나오지 않도록 해야 한다. 이를 위해 초기부터 데이터를 잘 설계해야 한다. 데이터의 수집 및 선정, 시스템 설계와 활용 등 인공지능 개발과 운영 전반에 걸쳐 데이터 요소를 검사하고, 차별적인 데이터를 제거하여 편향이나 차별이 나오지 않도록 해야 한다.
둘째, 정부는 인공지능의 개발과 활용에 있어 인권적 가치가 우선시 되도록 인공지능으로 인한 인권침해와 차별에 대하여 사전적 또는 사후적으로 평가하고 감독해야 한다. 지금도 인공지능에 적용이 가능한 평가제도가 있는데, 인공지능이 인간에게 영향을 미치는 분야 전반에 걸쳐 명확한 인권적 기준을 가지고 개인의 입장에서 피해방지 및 구제를 보장할 수 있는 인권영향평가가 필요하다. 특히 기존 제도로 관리 감독할 수 없는 새로운 분야에서 인공지능이 사용될 경우에 더욱 영향평가가 필요하다.
마지막으로 인공지능은 이 주제에 대해 어떻게 생각하는지 요즘 뜨고 있는 CHAT GPT에게 물어보았다. “인공지능은 인간의 지식과 판단을 보완하고, 인간의 생산성과 효율성을 높여주는 도구로 사용되어야 합니다. 인공지능을 개발하고 활용할 때는 항상 인간 중심적인 접근이 필요하며, 인공지능과 인간의 협업이 이루어져야 합니다.” 모든 사람이 수단이나 대상이 아닌 주체로서 자기 자신을 실현할 수 있도록 우리 모두 지혜를 모아야 할 때라는 생각이 든다.
글. 문진경(국가인권위원회 지역인권증진팀)