다수 글로벌 AI기업들 임직원, 중지 모아 11가지 원칙 작성
“개인정보보호, 투명, 인간 중심, 개인권리와 사회적 이익, 개방형 혁신”
“견고함, 지속적인 혁신, 기업 구성원 참여, 책임과 공정성, 전문성” 등
[애플경제 김홍기 기자] AI 윤리에 대해 각국 정부와 사회 일반이 다양한 논의를 벌이고 있다. EU 등 일부 국가는 이미 나름대로 이에 대한 윤리 가이드라인을 설정하고 있다. 그런 가운데 평소 디지털시대의 평등과 윤리를 강조해온 국제 비영리 시민단체인 ‘이퀄AI’(Equal AI)가 최근 ‘책임지고 윤리적인 AI’(책임있는 AI)를 위한 11가지 원칙을 공개해 눈길을 끌고 있다.
‘이퀄AI’의 보고서에 따르면 ‘책임 있는 AI’는 “모든 최종 사용자에게 안전하고 포괄적이며 효과적인 AI”로 정의된다. 이를 위한 개인 정보 보호, 투명성, 견고성 등이 ‘원칙’의 골자를 이룬다. 그런 만큼 ‘이퀄AI’가 나름의 원칙을 담은 보고서는 각종 외신과 기술매체 등도 비중있게 다루고 있다.
비영리 시민단체 ‘이퀄AI’ 보고서로 공개
해당 11가지 원칙은 그야말로 지구촌의 AI기술을 대표하는 글로벌 기업들의 임직원들이 대거 동참해 도출해낸 것으로 알려졌다.
구글, 딥마인드, 마이크로소프트, 세일즈포스, AWS, 버라이즌, SAS 인스티튜트, 펩시코, 그리고 고객 참여 기업으로 유명한 라이브 퍼슨, 항공우주 및 방위 기업 노드롭 그럼맨 등이다.
이들에 의해 작성된 보고서는 굳이 생성 AI를 특정정하지는 않는다. 대신에 “현재 구축, 획득 및 통합되고 있는 복잡한 AI 시스템”으로 표현하며, 이를 사실상 포함시키고 있다.
‘이퀄AI’의 ‘책임 있는 AI’ 거버넌스 프레임워크에는 다음 11가지 원칙이 포함된다.
우선 ▲개인 정보 보호를 비롯, ▲투명도, ▲인간 중심의 초점, ▲개인의 권리와 사회적 이익에 대한 존중, ▲개방형 혁신, ▲견고함에 대한 보상 등이다.
또 ▲지속적인 혁신과 검토, ▲기업 구성원 내지 직원의 참여 유도, ▲책임을 통해 공정성을 우선시하는 풍토, ▲‘Human-in-the-loop’, 즉 AI 의사결정 과정에서 인간의 지속적인 감독, 그리고 ▲전문성 개발 등이다.
11개 원칙 아우른 6개 대원칙도 발표
그야말로 건강하고 유익한 AI기술의 사용을 위해 필요한 미덕이 모두 포함되어 있다.
‘이퀄AI’는 이같은 11가지 원칙을 아우르는 6개의 ‘대원칙’을 함께 공개했다.
즉, ▲책임 있는 AI 가치 및 원칙, ▲책임과 명확한 책임 노선, ▲선적 서류 비치, ▲정의된 프로세스, ▲다중 이해관계자, 특히 소수를 대표하고 소외된 커뮤니티를 포함하는 자세 등이다. 이와 함께 ▲측정항목, ▲모니터링 및 재평가 등도 천명했다.
“이같은 프레임워크는 기업 경영자들이나 리더들이 AI에 대한 편견을 줄이는 데 도움이 되는 ‘인증 트랙’인 EqualAI의 ‘Responsible AI Badge Program’을 기반으로 한 것”이라는 ‘이퀄AI’의 설명이다.
‘이퀄AI’의 CEO인 미리암 보겔은 언론에 배포한 보도 자료를 통해 “‘이퀄AI’는 AI 원칙에 따라 기업이나 조직이 AI를 개발하고, 사용과 관련된 의사 결정을 안내하는 규칙과 표준을 설정함으로써 조직의 가치를 높일 수 있음을 확신한다”고 밝혔다.
그러면 개별 기업이나 조직은 ‘책임 있는 AI’ 전략을 실천하기 위해 어떤 노력을 기울여야 할까.
보고서에 따르면 크게 세 가지다. 우선 ▲최고 경영진 또는 임원진의 지원이 중요하고, ▲다양하지만 제대로 대표되지 않는 그룹의 피드백을 고려해야 한다. ▲잠재적인 우려 사항이나 문제점을 직원들 모두가 제기할 수 있도록 권한을 부여할 것을 강조하고 있다.
‘AI원칙’, 기업 맞춤형도 가능, “비즈니스에도 도움”
이에 대해 ‘이퀄AI’는 “개별 기업으로서 나름의 ‘책임 있는 AI’ 프레임워크는 기존 회사 가치와, 이미 AI를 사용해온 방식을 고려, 맞춤형으로 설정될 수 있을 것”이라며 “그 목표는 ‘리스크 제로’에 도달하는 것이 아니며, 실제로도 이는 불가능하다”고 했다.
그 보단 ‘책임 있는 AI’ 거버넌스 풍토를 뿌리내리기 위해 성과 인정이나, 급여, 승진 인센티브 등을 AI 위험 완화 노력과 연결시킬 수 있다는 조언이다.
그렇다면 ‘책임 있는 AI’ 거버넌스가 왜 중요한가? 이에 대해 ‘이퀄AI’는 시스코가 최근 실시한 연구결과를 인용했다. 즉 “소비자의 60%가 기업이 AI를 적용하고 사용하는 방식에 대해 우려하고 있는 것으로 나타났다”면서 “연구 결과 시스코는 이러한 AI 관행으로 인해 소비자의 65%가 자사에 대한 신뢰를 상실했다는 사실을 발견했다”고 전했다.
그러면서 “‘책임 있는 AI’ 관행에 투자하는 것은 인간에게 유익할 뿐만 아니라 기업 비즈니스에도 도움이 된다”고 덧붙였다.
