EU, 미국에 이어 교황청도 발표

 

인공지능(AI)은 이미 로봇청소기, 스피커, 포털 사이트의 뉴스 추천, 면접 등 우리 생활에 들어와 있다. AI는 사람과 유사한 지능으로 외부에서 입력된 정보 외에 스스로 학습하고 사물을 인식하고 그에 따라 자율적으로 행동하는 기기다. 인류의 생활에 가장 큰 영향을 미칠 기술이 될 수 있다. AI 기술, 알고리즘의 중요성과 위험성을 감안해 AI 윤리 규범 정립에 관한 논의가 한창이다. 교황청이 인공지능(AI) 시스템이 준수해야 할 규정과 원칙을 발표했다. 사악한 AI의 출현을 막기 위한 교황청의 AI 백서다. 신기술이 카톨릭과 인간 사회에 미칠 영향을 탐구해 온 교황청은 AI의 미래에 대해 그동안 큰 관심과 우려를 함께 표방해 왔다. 유럽연합과 미국 백악관도 이미 관련 지침을 만들어 발표한 상태다.

 

교황청의 AI 윤리규범 발표

교황청은 마이크로소프트, 페이스북 등 기업들의 도움을 받아 'AI 윤리를 위한 교황청 규범(Rome Call for AI Ethics)'을 발표했다. 규범은 서문 윤리(Ethics) 교육(Education) 권리(Rights) 4개 부문으로 이뤄졌으며, 서문에서 교황청은 "AI 발전은 기술이 아니라 사람에 초점을 두고 이뤄져야 한다"고 강조했다. 교황청은 “AI가 인간의 삶에 큰 변화를 가져오고 있으며, 앞으로도 그럴 것이라면서 "신기술은 모든 '인간 가족(human family)'에 봉사한다는 원칙 하에 연구되고 상용화돼야 한다"고 강조했다.

또 윤리 부분에서는 모든 인간은 존엄과 권리를 갖고 자유롭고 평등하게 태어났다면서 "AI 시스템을 만들고 사용할 때에는 이런 정신을 보호하고 보장해야 한다"면서 "AI 시스템은 인간과 인간이 살고 있는 환경에 봉사하고 보호하기 위해 고안되고 구현돼야 한다"고 규정했다. 권리 부분에서는 인류애적 관점에서 AI 발전이 약자와 소외된 자들을 보호해야 한다면서 "인류와 지구에 이익이 되는 AI 시스템을 개발하고 구현하려면 AI의 발전이 강력한 디지털 보안 대책과 병행돼야 한다"며 보안의 중요성도 강조했다. 또 안면 인식과 같이 인권에 영향을 미칠 가능성이 높은 위험한 첨단 기술의 경우, 윤리 원칙에 대한 투명성과 준수를 촉진하기 위해 새로운 형태의 규제가 권장돼야 한다고 지적했다. 교황청 규범은 또 AI가 윤리적으로 디자인돼야 한다는 'algor-ethical'이라는 새로운 개념도 제안했다. 특히 권리 부분에서 AI의 윤리적 이용을 위해 필요한 6가지 원칙으로 투명성, 포용, 책임성, 불평부당성, 신뢰성, 보안과 프라이버시를 제시했다.

투명성(Transparency)AI 시스템이 반드시 설명가능해야 한다는 것이다. AI 윤리 옹호자들은 '설명 가능성'이 인공지능 시스템에 책임을 물을 수 있는 중요한 방법중의 하나라고 지적한다. 포용성(Inclusion)AI로부터 이익을 얻는 것은 일부가 아닌 모든 사람이 돼야 하고, 책임성은 AI를 디자인하고 설치하는 사람들은 반드시 책임과 투명성의 원칙 아래 움직여야 한다는 것이다. 또 불편부당성(Impartiality)은 편견 없는 데이터 입력을, 안전과 프라이버시는 AI 시스템은 안전할 뿐 아니라 사용자 프라이버시를 존중해야 한다는 것이다.

준칙 마련에 앞서 프란치스코 교황은 페이스북 CEO 마크 저커버그와 MS 사장 브래드 스미스, 에릭 슈미트 전 구글 회장 등을 만나 의견을 교환한 것으로 알려졌다한편 교황은 27일 바티칸에서 열린 '디지털 시대의 공익 콘퍼런스'에서 "디지털 기술은 윤리적 의무를 수반해야 한다"고 밝히기도 했다.

 

유럽연합의 가이드라인

로마 교황청이 발표한 규범에도 일부 반영된 것으로 보이지만 유럽연합(EU)은 지난해 기업과 정부가 인공지능(AI)을 개발할 때 지켜야 하는 윤리적 지침을 발표했다. EU 집행위원회는 52명의 전문가 그룹을 소집해 AI가 충족해야 하는 7가지 요건을 제시했다.

해당 지침에는 인간의 통제 가능성 안정성 개인정보 보호 투명성 다양성, 비차별성과 공정성 지속가능성 책임성 등을 보장하는 내용이 담겼다. 지침에 따르면 AI는 인간의 자율성을 보장해야 한다. 사람들은 AI에 의해 조작되어서는 안 되며, 인간은 소프트웨어가 내리는 모든 결정에 개입할 수 있어야 한다.

또한 AI는 기술적으로 안전하고 정확해야 한다. 외부 공격과 타협해서는 안 되며, 신뢰가 가능해야 한다. AI가 수집한 개인정보는 안전하게 보장되어야 하며, AI 시스템을 만드는 데 사용된 알고리즘과 데이터는 사람이 이해하고 설명할 수 있어야 한다. 이외에도 AI는 연령, 성별, 인종 등을 차별하지 말아야 하며, 지속 가능해야 하고, 감사 가능해야 한다. EU 집행위의 가이드라인은 구속력을 갖고 있는 것은 아니다. 그러나 유럽연합이 추진하는 AI 윤리 가이드라인 작업에는 다양한 이해관계자가 참여하고 있다. EU는 일본, 캐나다, 싱가포르 등 다른 나라와의 협력을 강화하고, G7, G20 등에서도 지속적으로 적극적인 역할을 할 예정이라고 밝혔다.

 

미국의 AI 규제 원칙

미국 백악관은 올해 AI에 대한 규제 원칙을 제시했다. 신뢰할 수 있는(trustworthy) 방향으로 AI 기술을 발전시켜기 위해 필요한 일이라는 것이 미국 정부의 입장이다. 미국이 발표한 규제 원칙은 유럽보다 규제가 엄격하지 않다백악관은 공개한 규제 원칙에서 "당국은 규제를 결정할 때 공정함과 차별 금지, 개방성, 투명성, 안정성을 고려해야 한다"고 했다.백악관은 "AI에 대한 규제 조치에 앞서 위험 평가와 비용 편익 분석을 실시해야 한다""일률적인 규제보다는 유연한 틀을 구축하는데 주력해야 한다"고도 했다. 이어 "유럽과 우리의 동맹국들은 기술혁신을 죽이는 무거운 규제 모델을 피해야 한다""최선의 방법은 미국과 국제 파트너들이 글로벌 혁신 거점으로 남아있는 것"이라고 밝혔다. 백악관은 공개한 지침이 민간 분야에서 AI를 안전하고 공정하게 사용할 수 있도록 촉진하기 위한 것이라고 밝혔다.

백악관의 발표와는 별도로 미국 국방부는 군사 분야에서 인공지능(AI) 기술 사용 시 유의해야 할 사항을 정리한 윤리 규범을 채택했다.

에스퍼 국방장관이 승인한 국방혁신위원회가 권고한 윤리 규범은 국방요원이 AI 능력을 개발·배치·활용할 때 적절한 수준의 판단과 주의를 하도록 책임감을 가져야 한다는 내용이 포함됐다. 또 국방부가 AI 능력의 의도하지 않은 편견을 최소화하는 데 신중한 조처를 하도록 하는 공정함을 주문하고, 관련 요원이 기술과 개발 과정, 운영 방법을 적절히 이해할 수 있게 AI 능력을 개발·배치해 추적 가능성을 갖추도록 했다. 이 규범은 AI 능력의 용도를 명확히 한정하는 한편 안전, 보안, 효율성이 한정된 용도 내에서 시험되고 보장되도록 하는 신뢰성을 주문했다. 또 의도하지 않은 결과를 탐지하고 피할 수 있는 능력과 의도치 않은 행동을 하는 시스템을 정지하는 능력을 포함해 AI가 의도한 기능을 수행하도록 설계하는 통제력을 요구했다. 미국 국방부의 윤리 규범은 백악관의 규범과 마찬가지로 무기통제 옹호자들이 선호하는 더 강력한 제약에는 못 미친다는 지적도 받고 있다. 최근 몇 년간 AI 기술에 집중 투자한 미국 국방부는 2021 회계연도 예산에서도 전투 작전 시 AI 기술 활용에 비중을 두면서 AI 관련 자금 증액을 의회에 요청한 상태다.

 

투명성과 프라이버시의 충돌

미국 트럼프 대통령이 발표한 AI 이니셔티브에 관한 행정명령에는 기술 개발, 기술 표준 제정, 노동자의 AI 기술 적응 훈련 말고도 시민의 자유와 프라이버시 보호, 공공의 신뢰 확보와 관련된 규범이 포함돼 있다. 유럽연합(EU)도 지난해 시행된 일반 개인정보보호법에 AI에 의한 자동화 의사결정 거부권인 프로파일링 거부권을 두고 있다. 2017년 유럽의회는 AI와 로봇 제작자의 윤리 규범, 책임 등이 포함된 로보틱스에 관한 민법 결의안을 발표했다. 우리나라는 2007년부터 지능형 로봇 개발 및 보급 촉진법에 따라 산업자원부와 로봇산업진흥원 주관으로 로봇윤리헌장을 제정하고 있다. 2017년에는 과학기술정보통신부와 한국정보화진흥원 주관으로 지능정보사회 윤리 가이드라인 및 지능정보사회 윤리헌장을 제정한 바 있다. 전자는 인간 존엄성 보호, 공공선 추구, 인간의 행복 추구를 기본 가치로 삼고 실천 원칙으로 투명성, 제어 가능성, 책무성, 안전성, 정보 보호를 들고 있다. 후자는 공공성, 책무성, 통제성, 투명성의 원칙을 제시한다.

투명성은 정보의 신뢰도를 높이는 중요한 원칙이자 수단이다. 하지만 AI의 알고리즘은 기업의 영업 비밀이기에 공개 범위를 어떻게 정하고 어떤 방식으로 관리하는가가 문제다. 또한 책임성과 안전성의 원칙은 AI의 자율적 판단과 동작에서 발생할 수 있는 각종 사고에 대한 책임 문제를 명확히 한다는 점에서 중요하다. 투명성과 영업 비밀의 한계 설정, 책임성의 소재와 범위, 안전성 표준과 인증 체계의 정비, 프로파일링 거부권 등은 규범 차원이 아니라 법제화가 필요한 사항이다. 윤리 규범을 법제화한 '생명 윤리 및 안전에 관한 법률'과 마찬가지로 AI 윤리 규범의 법제화도 고민해야 할 필요가 있다.

 

 

 

 
저작권자 © 애플경제 무단전재 및 재배포 금지