• Legalinsight
  • Legaledu
  • 법률신문 뉴스

    뉴스레터

    과학기술정보통신부 국가 인공지능 윤리기준 발표

    입력 :
    글자크기 : 확대 최소
  • 인쇄
  • 메일보내기
  • 기사스크랩
  • 스크랩 보기
  • [2020.12.01.]



    과학기술정보통신부와 정보통신정책연구원은 인공지능(이하 ‘AI’) 시대의 바람직한 AI 개발 및 활용 방향을 제시하기 위해 「국가 인공지능 윤리기준(이하 ‘AI 윤리기준’)」을 발표하였습니다. 


    지난해 OECD의 AI 권고안, EU의 AI 윤리원칙 등 다양한 AI 윤리 원칙이 발표된 바 있으며, 이러한 글로벌 추세에 맞추어 우리 정부도 이번 기준을 마련하였는바, AI 윤리기준에는 윤리적인 AI 실현을 위해 사회구성원들이 함께 준수해야 할 주요 원칙들과 핵심 요건을 제시하고 있습니다.


    지난해 11월 방송통신위원회와 정보통신정책연구원이 발표한 ‘AI 윤리원칙' (2019.11.25 자 뉴스레터)에 이어 1년 만에 마련된 이번 AI 윤리기준은 사회 구성원들의 자율적 준수를 전제하고 있지만, 향후 국가 전반의 AI 개발에 있어 목표와 지향점을 설정하며 기본원칙을 제시하고 있다는 점에서 AI 개발 및 활용에 관계된 사업자들의 주의가 필요할 것으로 보입니다.



    1. AI 윤리기준의 3대 기본원칙: 인간의 존엄성, 사회의 공공선, 기술의 합목적성

    * AI 개발에서 활용에 이르는 전 과정에서 아래 3대 기본원칙이 고려되어야 함

    (인간의 존엄성) 인간은 생명체로서 AI 및 기계 제품과는 교환 불가능한 가치가 있으며, AI는 인간의 생명·정신적 건강·신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 하고, 인간에게 해가 되지 않도록 AI개발 및 활용은 안전성과 견고성을 갖추어야 함


    (사회의 공공선) 사회는 가능한 한 많은 사람의 안녕과 행복을 추구해야 하며, AI는 지능정보사회에서 사회적 약자와 취약계층의 접근성을 보장하도록 개발 및 활용되어야 하고, AI의 개발 및 활용을 통해 사회적·국가적·글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 함


    (기술의 합목적성) AI 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지니고, AI는 궁극적으로 인간에게 도움이 될 목적으로 개발 및 활용되어야 하고, 인류의 삶과 번영을 위한 AI 개발·활용은 장려·진흥되어야 함



    2. AI 기본원칙을 실현시키기 위한 10대 핵심요건

    * AI 윤리기준의 3대 기본원칙을 실천 및 이행할 수 있도록 AI 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건을 제시함

    (인권보장) AI 개발과 활용은 인권과 자유를 침해해서는 안되고, 모든 인간에게 부여된 권리 및 민주적 가치와 국제 인권법상 권리 등을 보장해야 함


    (프라이버시 보호) AI 개발과 활용하는 전 과정에서 개인의 프라이버시를 보호해야 하며, 개인 정보의 오용을 최소화하여야 함


    (다양성 존중) AI 개발과 활용 전 단계에서 이용자들의 다양성과 대표성을 반영해야 하며 편향과 차별을 최소화하고, 상용화된 AI는 모든 사람에게 공정하게 적용되어야 하며, 사회적 약자 및 취약계층의 AI에 대한 접근성이 보장되어야 함


    (침해금지) AI는 인간에게 해를 입힐 목적으로 활용해서는 안되고, AI로 인해 발생 가능한 위험 및 부정적 결과에 대응방안 마련이 필요함


    (공공성) AI는 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 하며, 긍정적 사회변화를 이끄는 방향으로 활용되어야 하고, 순기능의 극대화를 위해 다방면에서 교육 시행이 필요함


    (연대성) AI는 다양한 집단 사이의 연대성을 유지하고 미래세대를 고려하여 활용하여야 하며, 다양한 주체들의 공정한 참여 기회가 보장되어야 하고, AI 개발 및 활용에 국제사회가 협력하여야 함


    (데이터 관리) 개인정보 등의 데이터는 목적에 맞게 사용하여야 하고, 목적 외 용도로 활용하지 않아야 하며, 데이터 편향성이 최소화되도록 품질과 위험을 관리하여야 함


    (책임성) AI 개발 및 활용 과정에서 책임주체를 설정하여 피해 최소화를 위해 노력하여야 하며, AI 설계자, 개발자, 서비스 제공자, 이용자 사이의 책임소재를 명확히 하여야 함


    (안전성) AI 개발 및 활용 과정에서 위험을 방지하고 안전을 보장하여야 하며, 명백한 오류 또는 침해 발생 시 이용자가 그 작동을 제어할 수 있는 기능을 갖추도록 하여야 함


    (투명성) AI 활용 시 적합한 수준의 투명성과 설명 가능성을 높여야 하며, AI 기반 제품이나 서비스 제공 시 발생 가능한 위험 등의 유의사항을 사전에 고지하여야 함



    3. 관련 기업들에 대한 시사점

    * 이번 AI 윤리기준은 모든 사회구성원을 대상으로 적용되며, 여기에 정부, 공공기관, 기업, 이용자 등이 모두 포함되므로, AI 윤리기준을 통해 AI 관련 사업에서 반드시 준수되어야 하는 기본원칙과 핵심요건이 설정된 것으로 볼 수 있겠습니다.


    * 특히 AI를 활용한 사업자들은 이번 AI 윤리기준의 기본원칙과 핵심요건의 구체적 내용을 참고하시어 AI 개발 과정에서 체크리스트 개발 등 AI 윤리기준의 실현 방안을 적극적으로 마련하셔야 할 것으로 보입니다.



    About Shin & Kim’s TMT Team

    법무법인 세종은 IT 산업 전반 및 방송정보통신 분야의 독보적인 전문성과 인적 네트워크를 보유하고 있으며, 기업들을 위하여 국내외 AI를 포함한 신기술에 관한 전문적인 자문을 제공하고 있습니다. 그 외에도 IT 산업 전반에 대한 규제 동향 파악 및 대관, 입법컨설팅, 규제영향력 분석과 기업의 전략 수립 등에 대한 법률자문을 제공하고 있으므로, 보다 전문적인 내용이나 궁금하신 사항이 있으면 언제든지 연락 주시기 바랍니다.



    강신욱 파트너변호사 (sokang@shinkim.com)

    장준영 파트너변호사 (jyojang@shinkim.com)

    박규홍 파트너변호사 (khpark@shinkim.com)

    황정현 소속변호사 (jhhwang@shinkim.com)

    윤호상 소속변호사 (hsyoon@shinkim.com)

    김현이 소속변호사 (hiekim@shinkim.com)


    리걸북스

    더보기

    리걸에듀

    더보기

    리걸인사이트 TV

    더보기