인권시민사회단체 공동논평 “국회는 인공지능 법률안에 대한 국가인권위원회 의견을 수용하라”

– 인공지능법은 위험한 인공지능을 국가적으로 금지 또는 규제하고 권리 침해를 예방하고 구제할 수 있어야

 

8월 24일 국가인권위원회는 국회의장에게 현재 논의 중인 「인공지능 산업 육성 및 신뢰 기반 조성 등에 관한 법률안(인공지능 법률안)」을 수정해야 한다는 의견을 표명하였다. 우리 인권시민사회단체들은 인공지능의 위험성을 방지하고 인공지능의 영향을 받게 될 시민들의 권리 침해를 예방 및 구제할 것을 요구한 국가인권위 의견 표명을 환영한다. 국회가 국가인권위 의견을 수용하여 인공지능 법률안을 재논의할 것을 촉구한다.

 

국가인권위는 인공지능 법률안이 이용자와 정보주체의 권리 및 권리침해 구제절차를 명확히 규정하지 않았고, 고위험 영역 인공지능에 대해서만 협소하게 규정하면서 실효적인 규제 수단을 두지 않았다고 지적하였다. 또한 인공지능을 감독·규제하는 독립적인 국가기관이 인공지능의 위험성을 사전에 점검하고 사용중지 명령 등 적정한 조치를 취할 수 있어야 하며, 인공지능의 개발과 출시 및 변경 전 인권영향평가를 실시하여야 한다고 요구하였다. 무엇보다 이 법률안이 관련 산업의 경제성·효율성만을 따져 우선허용·사후규제 원칙을 두고, 산업 진흥·육성 업무를 소관하는 과학기술정보통신부가 규제까지 일임하도록 한 것은 인공지능 감독·규제 측면에서 실효성이 없다고 지적했다.

 

국가인권위가 적절하게 지적했듯이, 인공지능은 인간의 삶을 더욱 윤택하게 할 것으로 기대를 모으고 있지만, 동시에 인공지능을 무분별하게 개발·활용할 경우 시민들의 안전과 인권을 위협하고 사회 곳곳에 부정적인 영향을 미칠 수 있다.

 

우리 사회에서도 인공지능과 알고리즘의 인권침해와 차별 문제가 이미 현실로 등장하였다. 일선 학교와 독거노인 가정에 보급되는 인공지능 스피커에도 내장될 수 있는 인공지능챗봇이, 상담을 빙자해 수집한 민감한 카카오톡 대화 문장 백억 건을 무단으로 학습하여 개인정보를 침해한 사실이 드러났다. 더구나 이 챗봇은 여성·장애인·성소수자·흑인 등 인권취약계층을 혐오하는 채팅 서비스로 많은 사회적 비판과 우려를 샀다. 인공지능 자동 채용도구는 아무런 검증 없이 공공기관과 민간기업에 우후죽순 퍼져가고 있으며, 예비 노동자를 차별하고 있지 않은지 알 수 없고 모든 것이 불투명하다. 법무부는 인공지능 식별추적시스템을 개발한다는 명목으로 2005년부터 출입국한 내국인과 외국인의 얼굴정보 수억 건을 민간기업에 넘겼으며, 네이버쇼핑과 카카오택시는 자기 회사 이익을 위해 알고리즘을 조작하면서도 그 사실을 숨겼다. 자율주행차, 배달 로봇, 금융서비스 등 일상생활 곳곳에 인공지능을 장착한 자동화된 제품과 서비스가 점점 더 많아지고 있으며, 2021년 제정되어 현재 시행 중인 행정기본법은 인공지능을 이용한 완전자동화 행정처분도 가능하게 하였다.

 

그러나 인공지능의 위험성으로부터 권리 침해를 실효적으로 예방하고 구제할 수 있는 제도적 대책은 어디에도 보이지 않는다. 오히려 최근 정부와 국회는 인공지능 산업을 위해 규제를 완화하는 인공지능법 제정을 추진하고 있다. 현재 국회가 추진하는 인공지능 법률안은 인권을 보장하고 안전을 보호하지 못한다는 점에서 시민들의 기대를 충족하지 못함은 물론 인공지능의 위험성 규제를 요구하는 국제 규범에도 역행한다. 우리 인권시민사회단체는 시민의 안전과 인권이 아니라 인공지능 산업을 우선 고려하는 인공지능 법률안에 대해 깊은 실망과 우려를 표한다.

 

우리 국회와 달리 세계 주요 국가 입법자들은 인공지능의 위험성 방지와 권리 구제를 위한 제도 마련에 나서고 있다. 인공지능법 추진에 가장 앞서고 있는 유럽연합은 지난 6월 의회가 초안을 수정하여 금지 인공지능을 확대하고 고위험 인공지능의 투명성 의무를 촘촘히 확대하였다. 챗GPT와 같은 범용 파운데이션 모델의 의무도 추가하였다. 가장 눈에 띄는 부분은 인공지능을 감독·규제하는 국가감독기구의 권한을 명확히 하고, 인공지능의 영향을 받는 사람들의 권리침해를 예방할 수 있는 기본권영향평가를 도입하였을 뿐 아니라 피해자 권리구제 조치를 규정하였다는 점이다. 유럽에 미치지 못하지만 미국도 최근 인공지능에 의한 피해를 구제하고 개발자 및 사용자의 책무성을 요구하는 제도적 방안을 모색하고 있다. 뉴욕시의 경우 올해 4월부터 고위험 인공지능에 속하는 채용 인공지능에 대하여 예비 노동자의 알 권리를 보장하고 편향 방지 감사를 의무화하였으며, 여러 주와 시에서 비슷한 입법을 추진하고 있다. 미 연방의회도 주요 인공지능에 대한 사전영향평가를 의무화한 알고리즘 책무성 법안을 논의 중이다.

 

국회는 국가인권위가 요구한 독립적인 인공지능 국가 감독 체계를 수립하고, 피해자 권리구제와 인권영향평가를 실현할 방안에 대하여 적극 검토하여야 한다. 또한 우리 사회에 금지되는 인공지능이 무엇인지, 위험하지만 관리되어야 하는 고위험 인공지능은 무엇이고 어떤 의무를 부과할 것인지 국회가 사회적 토론과 합의를 촉진하여야 한다. 인공지능을 개발하고 판매하는 인공지능 산업계의 이해관계가 중요하겠지만, 시민을 위한 규범을 수립하고 보장하는 것이야말로 지금 우리 사회가 필요로 하는 인공지능법이다. 국가의 역할에는 인공지능이 내리는 결정에 영향을 받게 되는 수많은 사람들을 제도적으로 보호할 책무가 포함된다는 사실을 국회는 잊지 말아야 할 것이다.

 

2023년 8월 30일

건강권 실현을 위한 보건의료단체연합(건강권실현을위한행동하는간호사회,건강사회를위한약사회, 건강사회를위한치과의사회, 노동건강연대, 인도주의실천의사협의회, 참의료실현청년한의사회), 경제정의실천시민연합, 광주인권지기활짝, 국제민주연대, 다산인권센터, 대한불교조계종 사회노동위원회, 민주사회를위한변호사모임 디지털정보위원회, 빈곤과 차별에 저항하는 인권운동연대, 사단법인 정보인권연구소, 생명안전 시민넷, 서울YMCA 시민중계실, 성공회대학교 인권위원회, 언론개혁시민연대, 연구공동체 건강과대안, 울산시민연대, 인권운동공간 활, 인권운동네트워크 바람, 인권운동사랑방, 전북평화와인권연대, 진보네트워크센터, 참여연대, 천주교인권위원회, 충남인권교육활동가모임 부뜰, 투명사회를위한정보공개센터, 한국여성단체연합, 홈리스행동