서울교대 변순용 교수, ‘로봇 윤리’ 3가지 요소 등 체계화

 

인공지능 자율주행차나 로봇 등이 인간 대신 노동을 하고 행위를 할 때 그 책임은 누가 질 것인가? 과연 인간을 대체한 기계에 대해서도 도덕이나 윤리를 적용할 수 있는가. 이에 관해 서울교육대학교 변순용 교수는 이른바 ‘로봇 윤리’ 개념을 처음으로 체계화하고 있어 관심을 모은다.

변 교수는 경실련의 ‘4차산업혁명 아카데미’ 등을 통해 이런 내용을 핵심으로 한 ‘인공지능 로봇의 윤리와 윤리인증’이란 논문형 보고서를 공개한 바 있다. 이에 따르면 로봇 윤리의 평가(윤리인증) 요소, 즉 로봇의 행위 결과가 정당한지, 도덕적인지를 판별하는 세 가지 요소로서 ‘책임성’, ‘투명성’, ‘알고리즘 편향성의 최소화’ 등이다.

우선 로봇의 행위, 즉 변 교수의 표현에 의하면 ‘자율 지능 시스템의 제작과 사용’ 결과에 대해 책임의 주체와 범위를 정하고 발생 가능한 피해를 최소화할 필요가 있다. 특히 중요한 것은 로봇 개발 및 제작자다. 이들은 로봇 시스템 작동에 대해 책임을 질 수 있어야 하고, 설계 및 제작자, 소유자, 작동자 간의 책임 소재와 경계를 분명히 해야 한다. 예를 들어 프로그램 수준의 책임은 프로그래머에게 귀속되는 것과 같다.
 
다음으론 ‘투명성’이다. 즉, 로봇이나 인공지능 시스템이 수행하는 행위의 결정 과정과 이유를 알 수 있도록 해야 한다는 설명이다.
 
또 한 가지는 ‘알고리즘 편향성의 최소화’다. 이미 수학자 캐시 오닐 등이 우려하고 있듯이, 인공지능 시스템 혹은 빅데이터 구축 과정에서 개발자나 프로그래머의 편향된 알고리즘 구축이 왜곡된 결과를 낳을 우려가 크다. 이런 인공 지능 시스템의 알고리즘 편향성은 인지 범위나 정보처리 과정, 결정 등에서 드러날 수 있다.
 
이미 관련 전문가들이 숱하게 지적하고 있듯이 인공지능 시스템 학습에 사용하는 데이터에 사회의 편견과 차별이 담겨 있는 경우, 이는 그대로 로봇이 자율조정장치의 행위와 결과에 반영될 수 밖에 없다. 이런 문제를 해결하려면 알고리즘과 데이터에 대한 기술적 검증이 요구되고, 이를 확인할 수 있는 새로운 기술 체계의 개발이 필요하더는게 변 교수의 주장이다.
 
변 교수는 보고서에서 “편향 내지 ‘편견 제로’ 상태라는 것이 현실적으로 과연 있을 수 있는가라는 문제가 있다”면서 “따라서 윤리인증의 차원에서는 편향 혹은 편견에 따른 ‘차별’ 내지는 ‘최소 편향성’ 정도로 이해해야 한다.”고 선을 그었다.
 
그 때문에 알고리즘이 데이터를 처리하는 과정에서 편향성을 최소화하는 체크리스트가 제시되어야 한다.
이런 분석과 주장을 배경으로 변 교수는 이같은 ‘로봇 윤리인증의 3가지 기준’이 사회적으로 받아들여질 수 있는지 여부에 대해서는 다시금 사회적, 윤리적 논의가 필요하다고 덧붙였다. 변 교수는 그 과정에서 “제어가능성(controllability), 안전성(Safety), 보안성(Security), 프라이버시 보호 등이 중요한 고려 기준으로 제시되어야 할 것”이라고 했다.

 
이같은 ‘로봇 윤리’에 관한 논의는 향후 로봇과 인공지능에 의한 인간 노동의 대체가 심화될수록 더욱 활발해질 전망이다.
 
김예지 기자 
저작권자 © 애플경제 무단전재 및 재배포 금지