인간과 AI 공존…대한민국 ‘10대 인공지능 윤리기준’ 발표
정부, ‘인간성 구현’ 위한 ‘인간 존엄성‧인권 보장’ 등 3대 원칙‧10대 기준
인공지능 시대의 규범으로서 국가 차원의 인공지능 윤리기준 10가지가 공표된다. 과학기술정보통신부(이하 ‘과기부’)와 정보통신정책연구원은 27일 ‘‘인간성(Humanity)’을 구현하기 위해 3대 기본원칙과 10가지 윤리기준(안)을 발표했다.
이는 인공지능의 개발 및 활용 과정에서 ‘사람 중심의 인공지능’을 위한 최고 가치인 ‘인간성(Humanity)’을 존중하기 위한 최소한의 원칙과 기준이라는 설명이다.
과기부 등에 따르면 앞으로 인공지능을 개발하거나 활용할 때는 먼저 △인간의 존엄성 △ 사회의 공공선 △기술의 합목적성 등 3대 원칙을 지켜야 한다. 또 3대 기본원칙을 실천하고 이행할 수 있도록 △인권 보장 △프라이버시 보호 △다양성 존중 △침해금지 △공공성 △연대성 △데이터 관리 △책임성 △안전성 △투명성 등 10가지 기준이 충족되어야 한다.
인간존엄성‧사회 공공성‧기술의 합목적성 등 3대 원칙
3대 원칙 가운데 △인간 존엄성 원칙은 ‘인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치’가 있음을 전제로 하고 있다.
그러므로 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다. 또한 안전하고 견고하게 개발, 활용됨으로써 인간에게 해가 되지 않도록 해야 한다.
사회의 공공선 원칙은 ‘공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다’는 내용이다. 이를 위해 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용돼야 한다.
공익 증진을 위한 개발이나 활용은 사회․국가적, 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.
기술의 합목적성 원칙은 ‘인류의 삶에 필요한 도구인 인공지능 기술은 사용자의 목적과 의도에 따른 고유한 목적과 수단적 가치를 지닌다’고 전제한다. 궁극적으론 인간에게 도움이 되어야 한다는 목적에 맞도록 개발, 활용되어야 한다. 그러므로 인류의 삶과 번영을 위한 개발과 활용을 장려하고 진흥해야 한다고 선언한다.
윤리기준…‘인권보장‧프라이버시 보호‧다양성 존중’ 등
3대원칙을 구현하는 방법인 10가지 ‘인공지능 윤리기준’은 이번에 발표된 내용의 핵심이다.
우선 ‘인권보장’은 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장해야 함을 강조한다. 개발과 활용이 인간의 권리와 자유를 침해해서는 안 된다는 것이다.
‘프라이버시 보호’는 ‘인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다’는 내용이다. 이를 위해 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력할 것을 주문했다.
‘다양성 존중’은 ‘인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다’는 내용이다.
이와 함께 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력할 것을 강조했다.
침해금지‧공공성‧연대성
‘침해금지’는 ‘인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다’고 경계한다. 이를 위해 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력할 것을 주문했다.
‘공공성’은 ‘인공지능을 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용할 것’을 주문하고 있다. 즉 인공지능은 긍정적 사회변화를 이끄는 방향으로 활용되어야 하고 그 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행할 것도 강조했다.
‘연대성’은 ‘다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해야 한다’는 내용이다. 이를 위해 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하고, 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력할 것도 주문했다.
데이터 관리‧책임성‧안전성
‘데이터 관리’는 ‘개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고 목적 외 용도로 활용하지 않아야 한다’는 내용이다. 이를 위해 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다는 것이다.
‘책임성’은 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다는 내용이다. 이를 위해 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다고 강조했다.
‘안전성’은 ‘인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다’는 내용이다. 이를 위해 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력할 것을 주문했다.
끝으로 ‘투명성’은 ‘사회적 신뢰 형성을 위해 다른 원칙과의 상충관계를 고려해 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울일 것’을 강조한 것이다. 이를 위해 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야 한다고 주문했다.
민․관 등 사회구성원 모두 지켜야 할 내용
이같은 인공지능 윤리기준은 정부·공공기관, 기업, 이용자 등 모든 사회 구성원이 함께 지켜야 할 주요 원칙과 핵심 요건을 망라한 것이다. 이를 위해 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했다.
기준안 제정 과정에서 정부는 이들 전문가들로 구성된 ‘인공지능 윤리연구반’을 통해 국내외 주요 인공지능 윤리원칙을 분석했다. 그 결과를 윤리철학의 이론적 논의와 연계하여 ‘인간성을 위한 인공지능’를 목표로 하는 윤리기준 초안을 마련하였으며, 3개월에 걸쳐 다시 학계·기업·시민단체 등 각계의 다양한 전문가로부터 의견을 수렴하였다.
공청회, 의견수렴 거쳐 연말에 최종 공표
이에 앞서 인공지능 기술의 발전·확산과 함께 인공지능 기술의 윤리적 개발·활용은 세계 각국과 주요 국제기구도 관심을 기울여왔다. 지난해 우리나라가 주도적으로 참여한 경제협력개발기구(OECD) 인공지능 권고안을 비롯하여 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등도 다양한 인공지능 윤리 원칙을 발표했다.
과기부는 이번에 마련된 ‘국가 인공지능 윤리기준(안)’을 12월 7일 공개 공청회를 통해 소개하고 12월15일까지 시민들의 자유로운 의견을 이메일로 접수(aiethics@kisdi.re.kr)할 계획이다. 공개 의견수렴을 거쳐 보완된 최종 안은 12월 중순경에 대통령 직속 ‘4차산업혁명위원회’ 심의를 거쳐 연말에 공표될 예정이다.