유럽연합(EU)의 집행위원회가 지난 19일 AI(Artificial Intelligence)에 대한 새로운 규제를 발표한다고 하여 세계적인 IT 기업 오너들이 브뤼셀로 날아갔다는 기사가 나오더니, EU가 마침내 <a Communication on 'A European Strategy for Data'>, <a Communication on 'Shaping Europe's digital future'>등 보고서 4개를 발표하였다. 보고서를 보니 AI에 대한 구체적인 규제를 담고 있는 것은 아니었고, AI 또는 데이터 활용에 대한 정책 또는 규제의 방향성을 정리하여 이러한 입법 또는 정책을 마련하겠다는 것이었다.
다만, 이 가운데 <a White Paper on 'Artificial Intelligence - A European approach to excellence and trust'>와 <a Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics'>의 내용을 보니, 개략적이라도 AI 또는 IoT(Internet of Things)와 로봇공학에 대한 EU 현행 규율의 정도와 보완해야 할 사항, 특히 AI의 사용을 어느 범위까지 규율할 것인지에 대한 기준과 원칙을 밝히고 있었다. EU 위원회는 ‘위험-기반 접근방식(risk-based approach)’으로 AI 사용의 위험성이 높을수록 비례적으로 규제적 간섭을 강하게 한다는 입장인데, 고위험성 여부는 AI의 적용 영역과 의도된 사용이 무엇인지 고려하면서 적용 영역이나 적용 방법상 위험 발생이 쉽게 예상되는지를 추가해서 판단한다고 하였다. 고위험성 AI에 대해서는 트레이닝 데이터 사용시 조건, 데이터 기록 및 보관, 정보제공, 시스템의 견고성과 정확성, 인간의 감독, 원격생체인식(remote biometric identification)과 같은 특정 응용에 대한 특별 요건 추가 등의 조건을 부과하는데, 그 구체적인 내용이나 하위 범주는 향후 입법으로 결정한다고 하였다.
미국과 중국이 AI 분야를 선도하고 있어, EU가 미국과 중국을 견제하면서 자신의 입지를 다지기 위해 이번 보고서를 발표했다는 것이 일반적인 평가이다. 우리나라도 2019년 12월 27일 ‘AI 국가전략’을 발표하면서 3대 분야에서 9개 전략과 100여개 실행과제를 제시하였고, 그에 따라 AI 법제를 정비하려고 준비 중이다. 개정된 데이터 3법도 이와 무관하지 않다. AI 기술 개발에 매진해야함은 물론이거니와 그에 맞는 새로운 입법이 필요한 시대이다.
이근우 변호사 (법무법인 화우)