국제인권규범 및 해외입법례에 비춰 안전과 인권에 미치는 인공지능 위험 규제 전무, 입법 필요성도 의문
국민안전, 인권침해 여부불문 선사용, 후규제 독소조항 폐기해야
15개 시민사회단체는 오늘(3/2) 지난 2/14 과방위 정보통신방송법안심사소위를 통과한 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하, ‘인공지능법안’)」에 대해 국회 과방위에 반대 의견서를 제출하였다. 단체들은 의견서에서 이번 인공지능법안은 입법 취지와 목적인 “국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상”에 부합하지 않을 뿐만 아니라, 현행 지능화정보법과도 목적과 내용이 유사해 입법의 필요성도 의문이며, 국제인권규범 및 해외 입법정책의 예에 비추어 안전과 인권에 미치는 인공지능 위험 규제의 효과를 제대로 담보할 수 없고, 소관 부처도 적절하지 않아 전면 재검토할 것을 요구했다.
인공지능은 이미 기술,공학의 영역을 넘어 사회, 경제, 법률 등 전영역에 영향을 미치고 있다. 또한 인공지능의 편의성 이면에 데이터 결함과 오작동 가능성, 알고리즘의 불투명성과 공정성 문제 등 인공지능의 인권 침해와 차별적 효과에 대한 우려가 끊이지 않고 있다. 이미 2020년 유엔사무총장(A/HRC/43/29)은 인공지능 사용에 대한 책임성을 완전하게 보장하는 적절한 법률체계와 절차방법을 마련하고 감독 체제를 수립하며 인공지능의 피해에 대한 구제 수단을 구비할 것을 각국에 권고하였으며, 유엔인권최고대표(A/HRC/48/31)는 2021.9. <디지털시대 프라이버시권 보고서>에서 공공과 민간 인공지능 사용의 부정적인 인권 영향을 방지하고 완화하는 인권실사와 피해자를 구제하는 규제 체계의 도입을 요구하였다.
유럽연합 <인공지능법안(AI Act)>은 인공지능의 위험도를 금지/고위험/저위험/허용 등 4개로 구분하고 각각에 대한 규제 사항을 구체적으로 규정하고 있으며 특히 개인정보 보호, 소비자 보호, 차별 금지 및 성평등에 관한 기존 정책 및 법체계와의 일관성을 가지고 이를 보완하며 침범하지 않는다는 원칙을 명시하고 있다. 미국도 주요 의사결정에 사용되는 인공지능 시스템의 책무성을 강화하기 위한 <알고리즘 책무성법안>과 빅테크 알고리즘의 편향성 및 표적광고를 규제하는 <연방상하원 6개 빅테크 규제법안> 패키지 입법을 추진하고 있다. 영국과 캐나다도 국가의 인공지능 공공 조달에서 인공지능시스템에 대해 사전영향 평가, 투명성과 설명가능성 보장, 데이터 편향방지 및 품질 보장, 구제수단 마련 등을 요구하는 규제를 이미 시행 중이다. 우리나라 국가인권위원회는 2022년 5월 <인공지능 개발과 활용에 관한 인권 가이드라인>을 발표하고 △개인의 인권과 안전에 미치는 위험성별로 걸맞은 수준의 규제와 인적 개입, △인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립, △인공지능 때문에 피해를 입은 사람이 권리구제를 받을 수 있는 기회를 제공할 것 등의 내용으로 하는 입법을 정부에 권고하였다. 이처럼 국내외에서 이루어진 입법 추진 동향과 연구 및 논의 내용을 종합하면, 현 시점에서 제정되는 인공지능 관련 기본법은 적어도 인공지능의 위험을 효과적으로 규제하고, 이를 위한 감독 체계를 수립하며, 권리구제에 대한 내용이 구체화되어야 함은 자명하다.
그러나 이번 소위를 통과한 인공지능법안은 국내외기준이 요구하는 수준을 충족하지 못할 뿐만 아니라 광범위한 규제완화와 과기부를 소관부처로 하여 일임하는 규정들로 인하여 오히려 국민의 안전과 인권을 큰 위험에 처하게 한다고 단체들은 지적한다. 특히 소위안 제11조 “우선허용·사휴규제 원칙”은 인공지능의 위험성에 대한 효과적인 감독과 피해 구제를 규정하지 않고, 위해가 있을 수 있는 인공지능을 시장에 우선적으로 출시할 수 있도록 하고 있어 가장 문제가 되는 독소조항이라고 지적했다. 이런 방식은 국내외에서 권장하고 있는 인공지능 입법기준뿐 아니라 주요국가의 인공지능법안의 방식과도 상치된다고 주장했다. 이들 국가들은 국가가 인공지능 제품의 안전과 인권기준 준수여부를 감독하고 피해를 구제하도록 하고, 특히 유럽연합 인공지능법안의 경우 제품적합성 평가 기관, 또는 시장 감시와 관련된 기존의 규제기관들이 규제를 우선 집행하고 우리의 과기부같은 인증이나 기술부처는 그 기준을 반영하도록 규정하고 있다. 또한 소위안은 관련 법령 및 제도를 ‘선 허용 후 규제’라는 잘못된 원칙에 맞게 개악하도록 하고 있어 인공지능의 위험성으로부터 국민의 안전과 인권을 보호하지 못할 뿐 아니라, 이후 소위안에 규정된 고위험 규제조차 모두 형해화시켰다는 점에서 매우 심각한 독소조항이라 폐기하는 것이 타당하다고 설명했다.
결론적으로, 단체들은 의견서에서 이번 과방위 소위 통과 법안은, △인공지능 산업에 대한 안전과 인권 보장 규제를 모두 완화한 점, △ 「지능정보화 기본법」과 입법목적과 소관하는 내용 대부분이 유사 또는 중복되어 별도 입법의 필요성이 낮고, △ 인공지능윤리 및 신뢰성과 관련한 법령의 정비 등 제도 개선 업무 등 인공지능과 사회정책 일반을 과기부가 소관하는 것은 부적절하며, △우선허용, 사후규제 원칙은 안전과 인권을 보호하기 위한 다른 법률의 정당한 조치와 다른 규제기관의 업무를 침범하고, △ 현행 지능정보화기본법과달리 고위험 인공지능을 정의하고 있기는 하나 고위험 인공지능의 정의가 자의적이며 부분적이며, △고위험 인공지능 규제가 형식적이어서 실질적인 위험 방지 장치를 갖추지 못하는 등의 심각한 문제를 가지고 있어 전면 재검토가 필요하다고 지적했다.
인공지능이 기술, 공학의 영역을 넘어 사회, 경제, 법률 등 전사회적 영역을 아우르는 현실에서 현행 지능정보화기본법의 수준을 넘어서는 국가수준의 인공지능에 대한 기본법을 제정한다면, 인공지능 기술과 제품이 국민의 안전과 인권에 미치는 위험을 방지하고 조치하는 규제기관의 작용과 감독 정책을 효과적으로 집행하고, 피해자를 구제하며, 위반시 처벌하는 내용을 반드시 포함하여야 할 것이다. 챗GPT를 비롯한 인공지능 제품과 서비스, 공공 의사결정이 오류, 안전, 인권에 미치는 위험성이 그 어느 때보다 높아지는 현재 시점에 제정되는 인공지능 기본법이, 과기부가 소관하는 인공지능 산업 진흥을 위하여 다른 규제기관 업무를 방해하고 국민의 안전과 인권을 위험에 처하게 하는 내용이어서는 안될 것이다. 이에 15개 인권시민단체는 과방위 전체회의에서 법안을 전면 재검토할 것을 요구하며 의견서를 제출한다고 밝혔다.
붙임 –「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(소위안)」에 대한 인권시민단체 의견서
보도자료 원문보기/다운로드
The post [보도자료] 15개 인권시민단체, 국회 과방위 법안심사소위 통과한 인공지능육성법안 반대 의견서 제출 appeared first on 참여연대.