유승익 한동대 BK21 글로벌입법팀 연구교수
챗GPT가 출현하면서 국회도 인공지능(AI)에 관한 기본법 입법에 속도를 내고 있다.
다음은 ‘인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안’을 주도하고 있는 과학기술정보방송통신위 법안심사소위의 회의록에 나오는 발언의 일부이다. “설사 조금 미비한 점이 있더라도 일단 제정을 해서 시행을 해 보고 필요시에 보완 입법하는 것이 좋다.” “법안 자체의 제정이 지금 시급하다.” 법안에 문제가 있을 수 있지만 일단 시행하자는 취지다. 이 법안은 AI 기본계획을 관장하는 인공지능위원회 설치, 인공지능산업 기반 조성을 위한 원칙으로서 ‘우선 허용ㆍ사후 규제’ 명문화, 고위험 영역 인공지능을 개발ㆍ활용하는 자의 인공지능 신뢰성 확보 조치 의무 신설을 골자로 한다.
하지만 이 법안은 이대로 시행될 수 없는 치명적 문제점이 있다. 특히 ‘우선 허용ㆍ사후 규제’ 원칙은 당장 폐기해야 할 독소조항이다.
우선 세계적 입법의 흐름을 전혀 반영하지 않고 있다. 인공지능산업은 한번 신뢰성을 잃으면 회복하기 어려운 분야이다. 인간의 생명, 안전, 권리에 즉각적이고 직접적으로 영향을 미칠 수 있기 때문이다. 신뢰성을 잃은 인공지능 기술은 세계 시장에서 외면받고 도태될 것이다. 세계 각국은 신뢰할 수 있는 인공지능을 위한 법안 만들기에 분주하다. 유럽연합이 대표적이다.
유럽연합 인공지능법 초안에 따르면 인공지능에 의한 위험을 4단계로 구분하고 사전ㆍ사후에 엄격히 규제한다. 특히 용인할 수 없는 위험을 가진 인공지능 기술은 금지된다. 잠재의식을 활용해 인간 의식을 조작하는 기술은 금지되며, 아동의 위험한 행동을 유발하는 음성비서 AI 장난감 등도 위험이 확인되면 금지된다. 고위험으로 분류되는 교통, 승강기, 의료기기 등은 시장에 나오기 전 엄격한 의무를 따라야 한다. 데이터세트의 품질을 갖춰 위험과 차별적 효과도 최소화해야 한다.
반면 우리의 법안은 오히려 사전 규제를 무력화하고 있다. 고위험 인공지능의 위험관리 시스템 구축이나 설명 의무 등을 부여하는 것은 초기 단계 인공지능산업 발전을 저해할 우려가 있다는 게 논거이다.
일단 허용하고 보자는 산업편향적 정책기조는 인공지능 기술에 대한 몰이해를 그대로 노출하고 있다. 신뢰성은 인공지능 기술이 포함할 수 있는 선택적 요소가 아니라 반드시 갖추어야 하는 필수적 요소이다.
인공지능산업을 진흥하기 위해서라도 사전 규제를 포함한 거버넌스 구축은 필수적이다. 지난해 5월 국가인권위원회는 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 발표하며 “인공지능을 독립적이고 효과적으로 감독할 수 있는 체계 수립”을 권고했다.
문제는 국민의 생명과 안전에 직결된 인공지능 정책을 과방위 위원들과 과기정통부 관료들이 주도하고 있다는 점이다. 인공지능 기술이 갖추어야 할 공정성, 설명 가능성, 투명성, 안전성, 인간 존엄 등 수많은 가치들은 무시하고, 탈규제와 산업 진흥이라는 위험한 인공지능 정책이 ‘경로의존성’을 가지고 출항하기 직전이다. 과방위의 인공지능 법안은 지금이라도 재검토되어야 한다.
※ 이 글은 3/28(화) 경향신문에 실린 칼럼입니다.
The post [칼럼] 인공지능 정책, 왜 그들이 주도하는가 appeared first on 참여연대.