깊이 보기 [2024.09~10] #2 인공지능 인권영향평가 제도 및 평가 도구
작년 이맘 때 한창 인공지능 인권영향평가 도구를 준비하고 있을 때, 관계 부처 담당 사무관으로부터 한 통의 전화가 왔다. OECD의 인공지능 권고(2019년)에 대한 이행 상황을 제출하면서 우리 정부의 정책사례 중 하나로 인권위의 인공지능 인권 가이드라인(2022년)을 포함하기 위해 의견을 물어보고자 연락한 것이었다. 여기에는 2가지 생각할 점이 있었다. 하나는 인권위의 권고 그 자체가 아니라 그 취지에 따라 구체적으로 정부가 입안한 정책이 있어야 비로소 인권 관련 정책이 마련되었다고 할 수 있는데 위 사무관은 인권위 권고를 정부 정책으로 오해하고 있었다는 점이고, 다른 하나는 OECD의 권고에 따르면 인공지능에 대한 인권영향평가 및 인권실사를 포함하고 있음에도 우리 정부는 인권영향평가가 무엇인지 개념조차 정립하지 못했다는 점이었다. 이 일을 겪으면서 인권적 관점에서 인공지능을 효과적으로 통제할 수 있는 준거 기준을 조속히 보여줄 필요성을 절감하게 되었다. 이하에서는 인공지능 인권영향평가가 무엇이고, 왜 필요한지, 평가 도구는 어떻게 구성되어 있는지 등에 대해 간단하게 소개한다.
인공지능 인권영향평가
인권영향평가(Human Rights Impact Assessment, HRIA)란 일반적으로 국가, 기업 등 공적·사적 주체가 시행·추진하는 정책이나 사업과정 등에서 인권에 미치는 부정적 영향을 식별, 방지, 완화하고, 긍정적인 영향을 장려하기 위해 정책 및 사업 등의 계획과 활동이 인권의 보호와 증진에 부합하는지를 사전에 평가하고 검토하는 것을 말한다. 인공지능 시스템은 특유의 불투명성과 파급효과 등으로 인하여 사후적인 피해구제나 제재가 어렵기 때문에 인공지능의 개발 및 활용에 있어 사전예방적 인권영향평가의 도입 및 실시가 필요하다. 특히 유엔과 세계 각국은 공공부문 인공지능과 민간부문 고위험 인공지능이 사람들에게 미치는 부정적 영향에 주목하고, 이를 사전에 예방하고 관리하기 위한 방안으로 단순한 윤리기준을 넘어서는 다양한 영향평가를 제안하고 도입하는 추세에 있다.
인권위도 ‘인공지능 인권 가이드라인 권고’(2022년), ‘인공지능 법률안에 대한 의견표명’(2023년) 등을 통해 정부와 국회에 「인공지능 인권영향평가」의 도입을 촉구한 바가 있으나 아직까지 법제화되지 못한 상황이다. 물론 우리나라의 경우 기존 개별법령에 따른 각종 영향평가 등이 있으나, 이들은 평가기준, 평가대상, 평가 시기 및 주기, 평가주체 등에서 인공지능으로 인한 인권침해 문제를 사전 예방하기에 부족한 측면이 있다. 또한 각 부처별로 윤리기준 자율점검표 등 인공지능에 특화된 점검기준을 제시하고 있으나, 이러한 기준 등은 점검항목을 단순하게 나열하는데 그치거나 이해관계인의 참여와 평가의 객관성을 담보할 수 있는 장치가 없는 등, 고위험 인공지능의 인권침해 위험성을 효과적으로 통제하기 위한 완성도 높은 인권영향평가 기준을 제공한다고 보기 어렵다.
이에 인권위는 2024년 인권적 관점에서 인공지능 시스템의 부정적 영향을 식별, 방지, 완화하고, 피해를 구제하기 위하여 개발 및 활용 주체가 적용할 수 있는 구체적인 기준으로서 「인공지능 인권영향평가 도구」를 마련하여 정부에 활용할 필요가 있다는 의견을 표명하였다. 인권위는 이를 통해 본 평가가 법제화되기 전까지 인공지능의 개발 및 활용 주체가 평가를 자율적으로 시행하는 것을 지원하는 한편, 정부와 국회에 인권영향평가가 제도적으로 정착될 수 있도록 법제화를 촉구하고자 한다.
인공지능 인권영향평가 도구
본 평가 도구는 평가제도를 설명하는 개요 부분과 총 4단계 72개의 평가 문항으로 구성되어 있으며, 주요 내용은 다음과 같다.
인권위는 「인공지능 인권영향평가 도구」의 홍보와 보급을 위해 평가 도구 영문본 번역을 상반기에 마무리하였고, 하반기에는 평가 문항을 쉽게 풀어쓴 해설서를 발간·배포할 예정에 있다. 「인공지능 인권영향평가 도구」의 보급을 통해 인공지능 기술이 인권친화적으로 개발·활용되는 한편, 인공지능 인권영향평가가 법제화되는 계기가 조속히 마련되기를 기대한다.
글 | 이진석(국가인권위원회 인권정책과)