유럽연합(EU)의 집행위원회가 2020년 2월 19일 AI에 대한 White Paper를 발표한 후, 2021년 4월 21일 AI Regulation안(Proposal for a REGULATION, '규제안')을 발표하였다.
규제안은 금지되는 AI, 고위험 AI, 그외 AI 이렇게 3분류로 나뉘어, '위험-기반 접근방식(risk-based approach)'으로 AI 시스템이 기본권과 안전에 초래하는 위험에 따라 규제의 정도와 부담을 다르게 하는 틀을 갖고 있다. 우선 금지되는 AI는 ①사람의 의식을 뛰어넘는 잠재 의식 기술을 전개하여 어떤 방식으로든 사람의 행동을 왜곡시키는 것, ②연령이나 신체적 또는 정신적 장애 등에 기인한 특정 그룹의 취약성을 이용하는 것, ③자연인의 사회적 행동이나 알려지거나 예상되는 개인 또는 성격 특성에 기초하여 특정기간 자연인의 신뢰도를 평가 또는 분류하여 점수화함으로써 특정 사람이나 그룹을 데이터 수집의 맥락과 관계없이 해롭거나 불리하게 대우 또는 부당하거나 비례성을 잃는 방식으로 대우하는 것, ④공공 장소에서 법집행을 목적으로 하는 실시간 원격 생체 인식 시스템으로서 특정 목적 중 하나에 대한 엄격한 필요성이 인정되지 않는 경우, 이렇게 크게 4가지이다(Article 5). 고위험 AI는 Annex Ⅲ에 열거된 시스템으로서(Article 6, 생체 인식 및 유형화, 중요시설 운영, 교육 및 직업훈련, 고용 및 인사관리, 주요 사적 및 공적 서비스, 법집행 등), 위험관리시스템(RMS)을 구비, 데이터 거버넌스, 최신 기술자료, 기록, 투명성, 인간 감독, 정확성과 회복력 및 보안, 사후 모니터링(Article 8~15, 61) 등 다양한 규제를 받는다. 특히 해당 AI는 관계기관에 등록되어, 데이터 베이스화 되고, 감독에 사용된다(Article 51, 60). 그 외 AI는 별다른 규제가 없으나 상호작용하는 인터페이스나 감정 인식 시스템 또는 생체 분류 시스템, 딥 페이크 시스템과 같은 특정 AI 시스템은 AI라는 것을 알려야 한다(Article 52). 추가로 규제안은 단순 규제를 넘어 규제샌드박스를 도입하여 서비스 제공 전에 제한된 시간 동안 AI 시스템의 개발, 테스트 및 평가를 쉽게 하도록 한다(Article 53, 54).
우리나라도 지난해 12월 발표한 AI 로드맵을 통해 올해 자율적 알고리즘 관리·감독 환경 조성, 고위험 분야 AI 기술기준 작성 작업을 진행하는데, EU의 규제안의 내용이 그 작업에 상당한 도움이 될 것으로 보인다.
이근우 변호사 (법무법인 화우)