과기정통부 주관 민․관 전문가들 참석, 현장간담회
[애플경제 이보영 기자]국내에서도 국회와 정부가 인공지능 윤리준칙과 관련 입법 움직임이 본격화되고 있다. 11일엔 이 분야 전문가들이 한 자리에 모여 윤리기준을 제시하는데 그치지 않고, 윤리규범 실천을 위한 구체적 방안을 논의하는 현장 간담회를 가졌다.
과학기술정보통신부가 마련 간담회에선 정부와 민간에서 윤리원칙을 적용한 사례와 인공지능 윤리·신뢰성 확산을 위한 향후 계획을 논의하기도 했다.
이 자리에서 정보통신정책연구원(KISDI) 문정욱 센터장은 과기정통부와 정보통신정책연구원(KISDI)이 개발한 ‘자율점검표’의 내용을 소개하고, 챗봇의 작문과 영상 분야별 기업 현장 적용 사례를 소개했다. 이는 “인공지능 윤리기준의 준수 여부를 기획자·운영자 스스로 점검할 수 있도록 한 것”이란 설명이다.
한국정보통신기술협회(TTA) 이강해 단장은 인공지능 윤리기준 중 기술적으로 구현 가능한 4가지의 핵심요건을 기반으로 개발자가 참고할 수 있는 기술적 요구사항을 담은 ‘개발안내서’를 소개했다. 이를 통해 공공사회·의료·자율주행 분야별 개발안내서가 어떻게 활용되었는지를 설명했다.
민간 업계에선 네이버 송대섭 이사가 ‘서울대 인공지능 정책 이니셔티브’(SAPI)와 함께 만든 ‘네이버 인공지능(AI) 윤리준칙’을 소개했다.
또 엘지(LG) 인공지능(AI)연구원의 김유철 부문장은 ‘엘지(LG) 인공지능(AI) 윤리원칙’을 중심으로 인공지능 윤리·신뢰성 강화를 위한 기업의 자율적 노력과 향후 계획을 설명했다.
‘제네시스랩’의 이영복 대표는 “공정성이 중요한 채용 분야의 신뢰성을 확보하기 위한 것”이란 취지와 함께 이를 위한 개발안내서를 적용한 실태를 소개하기도 했다.
과기정통부에 따르면 이 밖에도 참석자들은 인공지능 윤리·신뢰성 확립 방안에 대한 집중 논의를 이어갔다. 특히 간담회 참석 기업들의 인공지능 윤리·신뢰성 실천을 위한 자율적 노력 사례를 공유하고, 윤리의 사회적 확산을 위한 과제에 대해 논의했다.
또한 현재 인공지능의 위험성 정도를 평가하고, 현재의 위험이 어디까지 통제 가능한 범위인지에 대해서도 심도있는 논의를 이어갔다.
이번 간담회는 국무회의 안건이었던 ‘새로운 디지털 질서 정립 방안(5.2일)’ 후속조치의 일환으로 알려졌다.
앞서 지난 2020년도에 과기정통부는 ‘사람’ 중심의 인공지능 구현을 위해 경제협력개발기구(OECD), 유럽연합(EU) 등의 인공지능 권고안을 반영한 ‘3대 원칙·10대 요건’의 인공지능 윤리기준을 제시한 바 있다. 이는 “모든 사회 구성원이 인공지능 개발에서 활용까지 전 단계에서 함께 지켜야 할 내용”이란 설명이다.
이에 따르면 ‘3대 원칙’은 ▲인간 존엄성 원칙, ▲사회의 공공선 원칙, ▲기술의 합목적성 원칙 등이다. ‘10대 요건’은 ▲인권 보장, ▲프라이버시 보호, ▲다양성 존중, ▲침해금지, ▲공공성, ▲연대성, ▲데이터 관리, ▲책임성, ▲안전성, ▲투명성 등이다.
