2024.09~10 > [특집] 톺아보기 > ‘다스릴 것인가, 다스림 당할 것인가’

[특집] 톺아보기 [2024.09~10] ‘다스릴 것인가, 다스림 당할 것인가’

 

인권과 인공지능

 

지난 2022년 5월, 인권위는 인공지능 개발 및 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위해 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 발표했다. 본 가이드라인은 인공지능 기술이 인간의 기본적인 삶과 인권에 영향을 미치고 있으나, 그 영향을 받는 당사자들은 인공지능의 도입·운영·결정 과정에서 의견제시나 참여의 기회를 보장받지 못하고 있다는 생각에서 출발했다. 2024년 현재, 더없이 빨라지고 있는 기술의 진화 앞에서 인공지능에 대한 인권적 기준을 다시 고민해봤다.

 

유승익(한동대학교 교수)
유승익(한동대학교 교수)

 

Q.  국가인권위원회에서 인공지능 가이드라인을 발표한지도 2년이 지났습니다. 인공지능 분야는 빠르게 변화하고 성장하니 그 당시와 지금은 상당히 많이 달라졌을 것 같은데요. 최근 인권과 관련된 인공지능 분야의 이슈나 논의되고 있는 사항은 무엇인지 궁금합니다.

 

유승익 교수  인공지능과 관련해서 이슈들이 굉장히 많습니다. 최근  LLM(대규모언어모델)과 챗GPT가 화제가 되었고, 기술 발전의 속도가 매우 빠르다 보니 어느 정도까지 발전할 것인지가 기술적으로 큰 관심사입니다. 인권과 관련해서는 그렇게 빠른 기술 발전 속에서 인권 규범을 어떻게 어디까지 적용할 수 있을 것이냐가 가장 큰 이슈입니다. 세부적으로는 저작권 문제와 딥페이크 문제 등이 많이 거론되고 있습니다. 인공지능 기술 자체가 인간의 지능을 모방하고 있기 때문에 인간과의 접촉면이 굉장히 넓을 수밖에 없습니다. 그러다 보니 우리 삶에 영향을 미치지 않을 수 없고, 그만큼 인공지능이 사회적 약자의 취약점을 보완해 줄 수도 있습니다. 예를 들면, 청각 장애를 가진 분들의 경우, 음성-문자 변환 서비스가 지금 나와 있는 걸로 알고 있고, 보행이 불편한 분들의 이동권을 보완해 주는 것도 있습니다. 인공지능에 특화된 서비스로는 나이 드신 분들의 소통을 돕는 돌봄 AI가 있습니다. 이런 것들이 사람들의 삶을 바꾸지 않을까 싶습니다.

 

Q.  인공지능 관련 자료들을 봤을 때, 제일 신선하게 다가왔던 부분이 설명 불가능한 인공지능의 결정이나 판단입니다. 인공지능의 설계자도 정확히 알 수 없는 인공지능의 로직을 우리가 신뢰할 수 있고, 그만큼 안정성이 보장되는지 문제가 될 것 같은데요.

 

유승익 교수  현재 인공지능 기술은 파라미터로 얘기를 많이 합니다. Chat GPT-4o 같은 경우, 파라미터 수가 적게는 2,000억 개부터 1조 개까지 얘기하고, 이것은 사람이 기술적으로 가늠할 수 있는 정도를 넘어선 것이고, 말 그대로 블랙박스가 된 상황입니다. 이것을 완벽하게 파악할 수 있다고 말하는 사람들이 지금은 없을 것 같은데 그래서 설명가능 인공지능이라고 하는 것 자체도 어떤 지점에서 인공지능이 이런 답변을 내놨을까 역으로 추적하는 것입니다. 기술이 더 발전한다면 설명가능성이 더 확보될 수 있을지 모르겠지만 현재는 한계가 있는 것 같습니다. 그래서 안정성에 대한 질문 자체는 많이 사라졌고, 위험을 어떻게 식별하고, 그것을 완화할 수 있느냐가 더 핵심적인 문제이지 않을까 싶습니다. 자동차 운전과 비슷하다고 보면 됩니다. 아무리 안전하게 설계를 하더라도 위험이 있는데요. 그래도 자동차는 직접 뜯어보면서 문제를 파악할 수 있는데, 인공지능은 현재 기술로는 내부 구조를 완전히 파악하기에는 한계가 있습니다.

 

 

유승익(한동대학교 교수)

 

Q.  인공지능하면 데이터 편향성에 대해서도 애기하지 않을 수 없습니다. 기존의 데이터를 학습해 또 다른 데이터를 만들어 내는 방식이다 보니 이미 편향성을 가진 데이터를 가지고 산출하게 되는데 이런 편향성이 완전히 해결될 수 있는 부분인가요?

 

유승익 교수  인공지능의 편향성은 아주 고전적으로 문제가 됐던 부분입니다. 말씀하신 것처럼 인공지능이 학습하는 데이터는 인간들이 만들어내고 있는 데이터입니다. 조금 더 시간이 지나면, 인공지능이 산출한 결과물을 가지고 다시 피드백하고 학습하는 시대가 올 것입니다. 어쨌든 그 시초는 인간이고, 인간이 잘 써야 합니다. 편향성에 관한 예를 들면 범죄예방을 위한 예측치안 시스템의 경우, 특정 지역에서 범죄 발생률이 높으면 경찰관들이 순찰을 자주 돕니다. 그럼 그 범죄 발생률이 높은 지역은 경찰관들이 기존에 파악을 했겠죠. 이런 데이터를 인공지능이 학습하는 거죠. 미국은 흑인이나 히스패닉이 많이 사는 동네에 대한 지역적 편견이 존재하기 때문에 경찰관들이 그곳에서 자주 순찰을 돕니다. 이러한 인간의 인종적 편견을 인공지능이 학습하면 예측치안 시스템에도 편견이 작용하는 거죠. 이러한 것은 편향성 필터링 시스템으로 교정하면 되지만, 완전히 제거하는 것은 아직까진 불가능하다고 봅니다. 위험도를 낮추는 것에 더 집중하는 것이 현실적입니다.

 

Q.  인공지능을 개발하고 활용하는 것은 결국 기업입니다. 이윤 추구가 목적인 기업 입장에서는 이러한 편향성이나 위험성이 규제를 벗어나지만 않는다면 크게 문제삼지 않을 것 같습니다. 기업들이 자발적으로 윤리 규제의 적정성을 준수할 것인지, 빅테크 기업의 사적 검열이나 기준이 우리를 규율하고 움직이게 하는 기준이 될 우려는 없을지 궁금합니다.

 

유승익 교수  말씀하신대로 기업들은 이윤 추구가 목적입니다. 빅테크 기업들도 마찬가지고요. 이것을 잘 보여주는 사례가 작년에 있었던 오픈AI의 샘 올트만 퇴출 소동입니다. 오픈AI의 이사진이 샘 올트만을 퇴출시키고자 했던 기본적인 이유가 상업적인 부분을 지나치게 추구한다는 것이었습니다.

 

그러나 샘 올트만은 5일 만에 다시 오픈AI의 CEO로 복귀했고요. 이런 것들을 보면, 신뢰가능한 인공지능을 만들어 내려고 하는 내부의 기조가 있다 하더라도 이윤 추구 앞에서는 어쩔 수 없는 속성들이 있다는 것입니다. 또 하나의 예를 든다면, 만약에 유튜브에서 선정적인 영상이 돌아다니면 어떻게 될까요? 난리가 나겠죠. 유튜브에 대한 신뢰 자체도 하락됩니다. 그래서 특히 빅테크 기업들은 자체 검열 작업을 합니다. 이런 일을 하는 사람들을 '콘텐츠 모더레이터'라고 부릅니다. 1차적으로는 기계로 거르고, 2차적으로 사람이 거릅니다.

 

지금은 국가가 표현의 자유를 보장해주는데 사적 권력은 헌법적인 부분에 적용을 받기가 어렵습니다. 그러니 이 권력을 이용해 이른바 사적 검열을 하는데, 그 기준이 국가보다 높은 거죠. 상업적인 이윤 때문에 그 기준을 자체적으로 더 높게 설정할 수 있습니다. 표현의 자유에 대한 보장을 국가가 아닌 기업이 하고 있다고 볼 수 있습니다. 빅테크 기업들이 세운 기준에 의해, 표현의 자유 보장 범위가 달라지는 상황이 펼쳐지고 있는 것 같습니다.

 

Q.  인공지능의 판단을 우리가 아직 다 이해하기는 어렵기 때문에 위험성의 정도에 따라 규제가 필요하다는 얘기를 하고 있습니다. 다만 이걸 맞추는 것이 쉽지는 않을 것 같습니다. 미국이나 유럽은 개발을 어느 정도 이뤘기 때문에 후발 주자들을 막기 위해 규제하는 거라고 말들을 합니다. 우리나라는 규제와 개발 사이에서 균형을 맞추기가 쉽지 않을 것 같아요. 어떻게 해법을 찾을 수 있을까요?

 

유승익 교수  모든 기술에서 육성이 중요하고 규제도 중요한데, 인공지능 기술은 특수성이 있는 것 같습니다. 스마트폰이 막 나온 시기의 ICT 혁명과 현재 인공지능 혁명을 비교해보면, 두 가지의 산업 정책도 서로 성격이 다르지 않을까 싶습니다. ICT의 경우, 수요가 중심이었습니다. 인공지능은 물론 수요가 있긴 하지만, 기업 연구실에서 고도의 기술을 가진 엘리트들이 혁신을 일으키는 것입니다. 그리고 고도의 장비와 대규모 데이터를 사용할 수 있는 기업들이 그 안에서 고도의 기술을 발전시켜서 시장에 내놓으면 수요가 창출되는 방식입니다. 그래서 모든 규제를 다 풀어주고 경쟁하라는 정책이 과연 인공지능에 적합한지 고민의 여지가 있습니다. 인공지능은 처음부터 잠재적 위험성에 대한 규제를 정책 안에 품고 있어야 발전할 수 있다고 생각하는 것 같습니다. 인공지능이 인간의 언어를 모방한다든지 결정한다든지 인간의 깊숙한 부분까지 침투하기 때문이라고 할 수 있습니다. 결정을 대신해 주면 편리하겠지만, 계속 익숙해지다보면 어떻게 그런 결정이 나왔는지도 모른 채 따라가게 될 것입니다. 현재 이스라엘에서 인공지능 시스템을 사용해서 살상 타켓팅 대상을 선별한다고 하는데, 이런 추천시스템이 잘못 작동되면 무고한 사람에게 치명적인 영향을 주게 됩니다.

 

Q.  EU 같은 경우는 이미 인공지능 관련 법안을 발의했고, 규제를 통한 접근을 하는 것 같은데 미국은 기업 중심으로 이뤄져가는 것 같습니다. 강제적 규제와 자율적 규제 중에서 어떤 방식이 인권친화적인 AI를 만들 수 있을까요?

 

유승익 교수  일단 하나 확인해야 할 부분은, EU는 강제 규제, 미국은 자율 규제라는 것은 약간의 오해가 있는 것 같습니다. 작년 10월 바이든 미 대통령이 이중용도 파운데이션 모델과 관련해서는 정부에 사전 통지해야 한다는 행정명령을 냈는데요. 행정명령이라는 한계가 있긴 하지만 미국도 상당히 강한 규제를 하고 있다고 볼 수 있습니다. 현재 우리나라의 논의 구도는 국내 토종 AI산업 육성을 위해 강한 규제는 안된다는 방향입니다. 22대 국회에도 인공지능 법안이 6개가 올라와 있습니다. 그리고 최근 발의된 법안에는 ‘금지 인공지능’이라는 카테고리를 만들어 놓았습니다. 우리나라는 기본적으로는 자율 규제이지만 규제를 위한 포인트들을 마련해 두고 있다고 볼 수 있습니다. 결론적으로 자율과 강제 규제는 혼합되어 있고 이것의 비중을 어떻게 둘 것인가는 앞으로 좀 더 지켜봐야 할 것 같습니다.

 

 

유승익(한동대학교 교수)

 

Q.  꼭 강제성이냐 자율성이냐의 구조로만 볼 필요는 없겠다는 말씀이시죠.

 

유승익 교수  그렇죠. 인공지능이 계속 발전하고 있기 때문인데, 인권위에서도 2021년 5월경 가이드라인을 발표했습니다. 그리고 나서 조금 있다가 챗GPT가 출시되었습니다. 그래서 인권위 가이드라인에는 챗GPT에 대한 내용은 없고, 그것은 유럽도 마찬가지입니다.

 

Q.  국가인권위는 가이드라인 발표 이후 인공지능 인권영향평가도 발표했습니다. 영향평가에 대한 설명과 더불어 앞으로 어떻게 활용되어야 하는지 말씀 부탁드립니다.

 

유승익 교수  인권영향평가는 한국사회에서도 익숙한 도구입니다. 공기업이나 공공기관에서 사내의 인권 이슈에 대해 이 목록을 가지고 평가를 하는데, 인공지능 인권영향평가의 경우에는 출시 예정인 인공지능 서비스를 사전에 인권 관련 항목의 위험도를 파악해서 완화하는 체계를 가지고 있습니다. 세계적으로 기업에서 ESG 평가를 많이들 하고 있는데, 인권 실사를 할 때 인권영향평가를 핵심도구로 사용하고 있습니다. 인공지능을 개발하거나 서비스하는 기업의 경우에도 ESG를 실현하려면 인공지능 인권영향평가를 해야 합니다. 출시 전 개발단계부터 이후에도 여러 차례 영향평가를 실시해서 해당 인공지능 서비스의 인권에 대한 위험도를 사전에 식별하려고 하는 도구이기 때문에 인권위의 인공지능 인권영향평가는 굉장히 선진적인 것입니다. 인공지능 인권영향평가가 강한 규제 아니냐는 오해도 있는데 사실 법률적 근거는 없습니다. 지금 상황에서 각 기업들이 이것을 자유롭게 커스터마이징해서 사용할 수 있다는 점이 앞으로 기대되는 부분입니다.

 

Q.  인공지능은 말씀하신대로 현재진행형이기 때문에 계속해서 수정과 보완이 이뤄져야 할 것 같습니다. 마지막으로 인공지능을 인권적 차원에서 바라볼 때 지향해야 할 점이 있는지 말씀해 주시면서 마무리하겠습니다.

 

유승익 교수  인공지능을 이야기할 때, ‘이중용도’라는 말을 합니다. 예를 들면, 단백질 구조를 사람이 연구할 때는 굉장히 오랜 시간이 걸리는데 인공지능 시스템을 사용할 경우 저녁에 입력해 두면, 아침에 분석 결과가 나옵니다. 생화학 연구자들에게는 굉장히 획기적인 것입니다. 하지만 양날의 검이 될 수 있는 것이, 네거티브하게 활용하려 하는 사람들에게는 하루 아침에 어마어마한 생화학 무기를 만들어낼 수도 있기 때문입니다. 모든 기술과 마찬가지로 인공지능도 그것이 가지고 있는 획기적인 성격 때문에 ‘이중용도’가 극단적으로 발현될 수 있습니다. 결국 인간이 어떻게 쓰느냐에 따라 달라지겠지만, 좋은 쪽으로만 사용하지 않을 수도 있다는 점이 우리가 우려하는 부분입니다.

 

진행 | 문진경(국가인권위원회 제주출장소)
사진 | 전재천(포토그래퍼)

이전 목록 다음 목록

다른호 보기