[2023.03.24.]
최근 ChatGPT의 등장으로 인공지능(AI)이 사회·경제의 패러다임을 바꿀 것이라는 기대가 커지고 있습니다. 그러나 AI 기술이 내포하는 위험에 대해 투명성, 공정성의 차원에서 통제할 필요성도 함께 대두되고 있습니다. 각 국은 윤리규범 마련의 차원을 넘어서서 규율성이 높은 규제방식을 통해 AI를 통제해야한다는 점에서 공감하고 있으며, 일부 국가는 인공지능법안을 마련하고 있습니다.
1. AI의 등장과 AI 규제의 필요성 대두
최근 ChatGPT 의 등장으로 인공지능(AI)에 대한 대중들의 관심이 높아지고 있습니다. 2013년 알파고의 등장은 AI를 대중들에 각인시키는 계기가 되었으며, 자율주행자동차, 음성인식 비서 등 인공지능 기술을 활용한 제품이 등장하면서 AI는 대중들의 일상 전반에 자리잡게 되었습니다. AI 기술의 발전이 사회·경제의 패러다임을 바꿀 것이라는 기대와 함께, AI가 행한 행위에 대한 책임의 귀속, 학습된 데이터의 편향성 등의 문제도 함께 지적되고 있습니다. AI 기술의 발전과 함께 각국에서는 AI기술의 투명성, 공정성의 차원에서 AI의 구체화된 위험에 대한 통제가 필요하다는 논의가 시작되었습니다.
EU는 AI 규제에 가장 적극적인 행보를 보이고 있습니다. 유럽집행위원회는 2021. 4. 21. 유럽의회에 「인공지능에 관한 통일규범(인공지능법)의 제정 및 일부 연합제정법들의 개정을 위한 법안(Proposal for a Regulation laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts)」 (이하 ‘AI법안’)을 발의하였습니다. EU의 GDPR이 각국의 개인정보보호법에 영향을 미친 것과 같이 EU의 AI법률에 대한 제정도 각 국의 AI관련 규제에 영향을 줄 수 있다고 보고 있습니다. 이하에서는 AI 규제에 대한 주요국의 동향을 살펴보도록 하겠습니다.
2. EU의 AI 규제 법안
EU의 AI 법안은 EU 집행위원회에서 제안한 초안으로, 유럽 의회의 투표 및 회원국의 승인과정을 거쳐야 합니다. 티에리 브루통(Thierry Breton) EU 내부시장 담당 집행위원이 ChatGPT를 직접 거론하면서 인공지능 기술과 관련된 위험에 대처할 법률 제정이 시급함을 보여준다고 지적한 바 있으며, 드라고스 투도라케(Drago Tudorache) EU 평의회 의원이자 EU AI법 공동 보고관이 "3월 초 쯤이면 AI법 초안에 대한 공동지지 성명을 발표할 수 있을 것"이라고 밝혔습니다. EU 집행위원회는 세부 사항 조율 과정을 거쳐 올 연말까지는 AI법을 공표할 예정입니다.
2021년 EU 집행위원회가 발표한 AI 법안은 ‘리스크 기반 접근방식(Risk-Based Approach)’을 채택하여 AI시스템의 리스크를 (i) 허용할 수 없는 리스크(Unacceptable risk), (ii) 높은 리스크(High risk), (iii) 제한적 리스크(Limited risk), (iv) 최소 리스크(Minimal risk)로 분류하여 수범자 별로 금지 여부, 적합성평가 등 차등적인 의무를 부과하고 있습니다. 허용할 수 없는 리스크에는 신체적/심리적 위해를 초래하는 중대한 행동 왜곡을 야기하기 위해 잠재의식에 영향을 끼치는 기술을 이용하는 AI 시스템, 사회적 행동이나 성격 예측 등을 기반으로 사람들의 신뢰성을 평가하거나 분류할 목적으로 공공기관이 이용하는 AI 시스템, 법 집행 목적으로 공공장소에서 이용되는 실시간 원격 생체인식시스템 등이 포함되어 있습니다. 높은 리스크는 사람들의 건강, 안전, 기본권에 중대한 위험을 초래할 수 있는 위험으로, 제품 자체나 구성요소가 안전요소로 이용되거나, EU 법률에 의거하여 제3자의 적합성 평가를 수행해야하는 AI 시스템, 교육 및 고용, 필수 서비스, 법집행 등 관련 인간의 기본권과 관련된 업무를 수행하는 AI 시스템 등이 이에 해당합니다.
제5조 허용될 수 없는 리스크 내지 제10조 높은 리스크의 데이터와 데이터 거버넌스 등을 위반한 경우, 직전회계연도의 전세계 연간 총매출의 최대 6%에 해당하는 금액 중 높은 금액이 행정 벌금으로 부과될 수 있고, EU역외에 설립된 회사더라도 EU역내에 서비스를 제공하는 경우 법 적용대상이 될 수 있습니다.
3. 미국의 AI 규제
트럼프 행정부는 2020. 12. 연방정부의 신뢰할 수 있는 인공지능 사용을 도모하기 위한 행정명령(Executive Order on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government)을 발표하였습니다. 해당 행정명령은 미국 연방 정부의 인공지능 사용에 대한 통제를 가하는 것으로, 민간이 아닌 정부의 활용을 우선적으로 통제하여 인공지능에 대한 대중의 신뢰를 확보하고, 인공지능과 관련된 공공 입찰을 통해 참여할 민간 사업자들에게 이러한 윤리규범을 적용할 수 있도록 하는 우회적인 방식으로 인공지능에 대한 통제를 진행하는 방식입니다.
이후 미국 상·하의원은 2022. 2. 3. 각각 ‘알고리즘 책임법안(Algorithmic Accountability Act of 2022)’을 발의했습니다. Ron Wyden, Cory Booker(상원) 및 Yvette Clarke(하원) 의원은 2019년에 처음 발의되었던 알고리즘 책임법안을 보완하여 상(S.3572)·하원(H.R.6580)에 법안 발의한 것입니다. 해당 법안의 입법 목적은 자동화된 의사결정 시스템에 대한 투명성과 책임성 확보이며, 기업이 이용자와 규제기관에 ‘자동화된 의사결정 프로세스’가 어떻게 활용되는지를 인식할 수 있도록 관련 정보를 제공함으로써 투명성을 확보하고, 기업이 그 의사결정의 영향평가를 지속적으로 수행하도록 하여 책임소재를 명확히 하고자 합니다.
법안의 적용대상은 ‘자동화된 의사결정 시스템(Automated Decision System; ADS)’과 증강된 중요 의사결정 프로세스(Augmented Critical Decision Process ; ACDP)’입니다. ADS는 인간의 개입없이 자동화된 결정으로 결정이나 판단의 근거가 되는 모든 컴퓨팅 시스템, 소프트웨어 또는 프로세스로 기계학습, 통계 또는 기타 데이터 처리 또는 인공지능 기술에서 파생된 것을 포함하며, ACDP는 중요한 의사결정에 자동화된 의사결정 시스템을 활용하는 모든 과정, 절차, 기타 모든 활동 등을 포함하는 것으로, 사람이 최종적인 의사결정을 하는 경우에도 그 의사결정이 인공지능·알고리즘 활용 결과를 근거로 할 때 적용될 수 있도록 도입된 개념입니다. 여기서 중요한 의사결정이란 개인의 삶에 중대한 영향을 미치는 결정을 말하며, 아래는 그 구체적인 예입니다.
기업은 기록 보관, 검증 및 대응방안 수립, 소비자 보호 등 영향평가를 해야하고, 그 영향평가 결과를 5년 동안 보관해야 하며, 관련 직원 등을 대상으로 소비자에 대한 중대한 부정적 영향과 영향평가 방법에 교육을 실시하고, 보고서를 FTC에 제출해야 합니다.
4. 국내 규제 동향
국회 과학기술정보방송통신위원회(과방위)의 법안소위는 2023. 2. 14. '인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안'을 통과시켰습니다. 해당 법안은 국회 과방위에 발의된 7개의 인공지능 관련 법안을 통합한 법안이며, 인간의 생명과 안전 및 기본권의 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 부분을 ‘고위험 영역 인공지능’으로 설정했습니다. 고위험영역 인공지능을 이용한 제품 또는 서비스를 제공하려는 사업자는 이용자에 대한 고위험 인공지능사용고지 의무와 인공지능의 신뢰성과 안전성을 확보하기 위한 조치의무가 있습니다. 법안은 국회 법제사법위원회와 본회의 심사를 남겨두고 있습니다.
신승국 외국변호사 (synn@yoonyang.com)
이광욱 변호사 (kwlee@yoonyang.com)
이근우 변호사 (klee@yoonyang.com)
유현상 변호사 (hsryu@yoonyang.com)
양희 컨설턴트 (hyang@yoonyang.com)
김현지 컨설턴트 (khji@yoonyang.com)