2024.09~10 > 깊이 보기 > #2 인공지능 인권영향평가 제도 및 평가 도구

깊이 보기 [2024.09~10] #2 인공지능 인권영향평가 제도 및 평가 도구

 

인공지능 인권영향평가 제도 및 평가 도구

 

작년 이맘 때 한창 인공지능 인권영향평가 도구를 준비하고 있을 때, 관계 부처 담당 사무관으로부터 한 통의 전화가 왔다. OECD의 인공지능 권고(2019년)에 대한 이행 상황을 제출하면서 우리 정부의 정책사례 중 하나로 인권위의 인공지능 인권 가이드라인(2022년)을 포함하기 위해 의견을 물어보고자 연락한 것이었다. 여기에는 2가지 생각할 점이 있었다. 하나는 인권위의 권고 그 자체가 아니라 그 취지에 따라 구체적으로 정부가 입안한 정책이 있어야 비로소 인권 관련 정책이 마련되었다고 할 수 있는데 위 사무관은 인권위 권고를 정부 정책으로 오해하고 있었다는 점이고, 다른 하나는 OECD의 권고에 따르면 인공지능에 대한 인권영향평가 및 인권실사를 포함하고 있음에도 우리 정부는 인권영향평가가 무엇인지 개념조차 정립하지 못했다는 점이었다. 이 일을 겪으면서 인권적 관점에서 인공지능을 효과적으로 통제할 수 있는 준거 기준을 조속히 보여줄 필요성을 절감하게 되었다. 이하에서는 인공지능 인권영향평가가 무엇이고, 왜 필요한지, 평가 도구는 어떻게 구성되어 있는지 등에 대해 간단하게 소개한다.

 

 

인공지능 인권영향평가

 

인권영향평가(Human Rights Impact Assessment, HRIA)란 일반적으로 국가, 기업 등 공적·사적 주체가 시행·추진하는 정책이나 사업과정 등에서 인권에 미치는 부정적 영향을 식별, 방지, 완화하고, 긍정적인 영향을 장려하기 위해 정책 및 사업 등의 계획과 활동이 인권의 보호와 증진에 부합하는지를 사전에 평가하고 검토하는 것을 말한다. 인공지능 시스템은 특유의 불투명성과 파급효과 등으로 인하여 사후적인 피해구제나 제재가 어렵기 때문에 인공지능의 개발 및 활용에 있어 사전예방적 인권영향평가의 도입 및 실시가 필요하다. 특히 유엔과 세계 각국은 공공부문 인공지능과 민간부문 고위험 인공지능이 사람들에게 미치는 부정적 영향에 주목하고, 이를 사전에 예방하고 관리하기 위한 방안으로 단순한 윤리기준을 넘어서는 다양한 영향평가를 제안하고 도입하는 추세에 있다.

 

인권위도 ‘인공지능 인권 가이드라인 권고’(2022년), ‘인공지능 법률안에 대한 의견표명’(2023년) 등을 통해 정부와 국회에 「인공지능 인권영향평가」의 도입을 촉구한 바가 있으나 아직까지 법제화되지 못한 상황이다. 물론 우리나라의 경우 기존 개별법령에 따른 각종 영향평가 등이 있으나, 이들은 평가기준, 평가대상, 평가 시기 및 주기, 평가주체 등에서 인공지능으로 인한 인권침해 문제를 사전 예방하기에 부족한 측면이 있다. 또한 각 부처별로 윤리기준 자율점검표 등 인공지능에 특화된 점검기준을 제시하고 있으나, 이러한 기준 등은 점검항목을 단순하게 나열하는데 그치거나 이해관계인의 참여와 평가의 객관성을 담보할 수 있는 장치가 없는 등, 고위험 인공지능의 인권침해 위험성을 효과적으로 통제하기 위한 완성도 높은 인권영향평가 기준을 제공한다고 보기 어렵다.

 

이에 인권위는 2024년 인권적 관점에서 인공지능 시스템의 부정적 영향을 식별, 방지, 완화하고, 피해를 구제하기 위하여 개발 및 활용 주체가 적용할 수 있는 구체적인 기준으로서 「인공지능 인권영향평가 도구」를 마련하여 정부에 활용할 필요가 있다는 의견을 표명하였다. 인권위는 이를 통해 본 평가가 법제화되기 전까지 인공지능의 개발 및 활용 주체가 평가를 자율적으로 시행하는 것을 지원하는 한편, 정부와 국회에 인권영향평가가 제도적으로 정착될 수 있도록 법제화를 촉구하고자 한다.

 

 

인공지능 인권영향평가 제도 및 평가 도구

 

인공지능 인권영향평가 도구

 

본 평가 도구는 평가제도를 설명하는 개요 부분과 총 4단계 72개의 평가 문항으로 구성되어 있으며, 주요 내용은 다음과 같다.

 

가. 평가 대상 : 인권영향평가는 공공기관이 직접 개발하거나 조달하는 모든 인공지능 및 민간에서 활용하는 인권침해 위험성이 높은 이른바 ‘고위험 인공지능’을 대상으로 하며, 위험의 완화 내지 제거가 근본적으로 불가능한 ‘금지대상 인공지능’은 평가 대상에서 제외한다.

나. 평가 시기 : 인공지능 시스템의 개발 전 계획 단계 또는 시행 전 단계에서 평가하는 것을 원칙(사전영향평가)으로 하되, 평가 결과 일정 기준 이상의 구체적인 위험이 확인된 경우 정기적, 사후적 평가를 통해 지속적인 관리가 이루어질 수 있도록 하여야 한다.

다. 평가 수행주체 : 평가 실시결정 자체는 개발·활용 기관(또는 기업)에서 정할 사안이나, 결정 이후 평가 수행은 개발 주체 및 관련 사업부서와는 독립된 별도의 내부 조직 또는 인권 분야 및 인공지능 기술에 대한 전문성과 독립성을 갖춘 제3의 기관에서 수행하는 것이 바람직하다.

라. 평가 절차 : 평가 수행계획을 수립하고 준비하는 ‘계획 및 준비 단계’(1단계), 부정적 영향을 분석하고 평가하는 ‘분석 및 평가 단계’(2단계), 식별된 위험에 대해 방지·완화 및 구제조치를 확인하는 ‘개선 및 구제 단계’(3단계), 평가에 대해 점검하는 ‘공개 및 점검 단계’(4단계) 순으로 수행하며, 모든 단계에서 이해관계자의 참여가 권장된다.

인공지능 인권영향평가 제도 및 평가 도구

마. 평가 문항 구성 : 평가 문항은 평가 절차를 반영하여 4단계로 구성되어 있으며, 일부 주관식을 제외하고 대부분 객관식으로 답변하되 관련 내용에 대한 설명을 덧붙일 수 있도록 하였다. 또한 「인공지능 인권가이드라인 권고」에서 강조한 인권 및 인간 존엄성의 존중에 기반하여 개인정보보호 및 데이터 관리, 알고리즘의 신뢰성, 차별금지, 설명가능성과 투명성 등에 대한 영향 분석 및 식별, 위험에 대한 방지·완화 및 구제, 이해관계자의 참여, 평가 결과의 공개 및 평가에 대한 점검 등 주요 주제들로 문항을 구성하였다.

 

인권위는 「인공지능 인권영향평가 도구」의 홍보와 보급을 위해 평가 도구 영문본 번역을 상반기에 마무리하였고, 하반기에는 평가 문항을 쉽게 풀어쓴 해설서를 발간·배포할 예정에 있다. 「인공지능 인권영향평가 도구」의 보급을 통해 인공지능 기술이 인권친화적으로 개발·활용되는 한편, 인공지능 인권영향평가가 법제화되는 계기가 조속히 마련되기를 기대한다.

 

글 | 이진석(국가인권위원회 인권정책과)

이전 목록 다음 목록

다른호 보기