OECD 개정 ‘AI시스템’ 정의, EU ‘AI법’도 대폭 반영
‘명시적’, ‘묵시적’, ‘적응성’ 등 포괄적이고 넓은 의미 부여
‘인공지능’․‘인공지능기술’로 좁힌 국내 법안과 대조적
[애플경제 이윤순 기자] 임기가 끝난 21대 국회에서 발의된 ‘인공지능법’(약칭)은 자동 폐기되었다. 새로 개원한 22대 국회에서 다시 수정․보완한 법률이 발의될 예정이지만, 폐기된 법안은 ‘인공지능’ 내지 ‘인공지능기술’이란 좁은 개념에 머무르고 있다. 이에 EU ‘AI법’의 모태가 되기도 한 OECD의 ‘AI시스템’ 정의를 참고해야 한다는 주장이 나오고 있다.
특히 OECD가 다시 개정한 최신 버전의 ‘AI시스템’ 정의 부분이 눈길을 끈다. 개정 권고안에서 OECD는 “디지털경제정책위원회(CDEP)에 부여한 임무의 이행”이라고 밝혔다. 최근 그 내용을 구체적으로 소개한 지능정보사회진흥원에 따르면 OECD가 개정한 내용은 당시 집행위원회, 이사회, 의회 등 3자협상이 진행 중이던 EU가 이를 반영, 자신들의 인공지능법안에 십분 반영되기도 했다. 그처럼 우리 국회도 향후 ‘인공지능법안’에 이를 적극 반영할 필요가 있다는 주문이다.
기술․서비스 환경따라 AI 개념․범위 변화
EU는 최근 발효된 ‘인공지능법’에서 AI시스템 개념 정의에 ‘명시적’, ‘묵시적’, ‘적응성’ 등 포괄적이고 넓은 의미의 표현을 추가하는 등 OEDC 정의를 수용했다. 이는 기술이나 서비스를 제공하거나 이용하는 환경의 변화에 따라 AI의 개념과 범위가 변화할 필요가 있다는 점을 명확히 한 것이다. 즉, 기술 자체뿐 아니라, 그것으로 인해 유발되는 사회․문화적 환경 요인까지 포괄한 것이다. “특히 ‘적응성’의 개념은 시스템의 ‘투명성’. ‘안전성’ 등이 개발 단계뿐만 아니라 배포 운용 등 시스템 생애주기 전 단계에서 보장되어야 한다는 것으로 볼 수 있다”는 해석이다.
이에 비해 그 동안 우리나라에서 발의된 ‘인공지능기본법안’은 이같은 OECD나 EU 사례와는 달리, ‘AI시스템’이라는 표현과 개념을 규정하지 않고 그저 ‘인공지능’, ‘인공지능기술’이라고만 규정하고 있다. 전문가들은 또 “대륙법계 법률의 경직성이나 명확성 등을 고려할 때 법률에서는 포괄적으로 정의하고, 세부사항은 기술 영역에 따라 ‘기술서 표준화’ 단계에서 규정하는 것이 확장성이나 유연성을 확보하는 방안”이라고 권하고 있다.
이는 특정 맥락과 상황에 따라 AI 정의의 범위를 조정하기 위해, 추가로 AI시스템 정의를 적용할 때 기준으로 활용할 것을 권고하는 OECD의 의도와도 부합한다는 조언이다. 즉 “ 법률이 적용되는 사회 공동체의 역사적 사회적 경험과 법률 문화에 따라 입법 형식 등이 차이가 있다”는 주문이다.
AI시스템의 명시적․묵시적 목표 설계방식?
구체적으로 보면 OECD의 ‘AI시스템’은 우선 그 목표는 명시적 또는 암묵적일 수 있음을 규정하고 있다. 여기서 명시적 목표(explicit objective)의 설계방식은 개발자가 목표 함수 등을 통해 시스템에 직접 목표를 인코딩하는 것이다. 그 사례로는 분류기 강화 학습 시스템 문제(classifiers), 해결 시스템 계획 알고리즘 동적 프로그래밍, 알고리즘 등이 있다.
또 암묵적 목표(implicit objective)는 ‘AI 규칙에 따른 규칙은 시스템이 현재 상황에 따라 취해야 할 조치를 지시’하는 식으로 목표를 설계한다. 예를 들어 운전 시스템이 신호등이 빨간불이면 ‘정지’ 라는 규칙을 가진 경우다. 이때 규칙의 근본적인 목표가 법률 준수인지 혹은 사고 방지인지 명확하지는 않다.
또 다른 암묵적 목표를 설계하기 위해 학습데이터에 의한 최종 목표가 명시적으로 프로그래밍 되지 않고, 학습 데이터나 해당 데이터를 모방하도록 설계된 시스템 아키텍처를 통해 수립되는 방식도 있다. 예를 들어 거대 언어 모델(LLM)이 그럴듯한 응답을 생성하도록 설계하는 경우가 있다.
OECD ‘AI시스템’의 정의 가운데 우선 목표 설정(AI system’s objective setting)이 있다. 이때 시스템의 목표는 시스템 개발을 시작한 사람에 의해 확인할 수 있지만, 일부 AI시스템은 암묵적 하위 목표를 개발하거나 때때로 다른 시스템의 목표를 설정할 수도 있다.
OECD는 AI시스템의 의무 법적 책임은 궁극적으로는 사람에게 있으나, 의무와 책임의 귀속주체를 사전에 결정할 수 없으므로 책임 관련 사항은 개념 정의에서 제외했다.
OECD ‘AI시스템’ 정의에서 ‘입력(Input)’은 개발 단계뿐 아니라 배포 후에도 이루어지며 사람과 기계 모두 시스템에 입력을 할 수 있다. AI 개발 단계에서는 기계학습을 통한 모델 생성처럼 (‘입력’이) 시스템을 구축하는 것에 이용되고, 시스템 운용 등 배포 후에는 결과물 생성 방법 추론에 이용된다.
또 ‘AI시스템’에서의 ‘환경(Environment)’이란 데이터 및 센서 입력을 통해 인지되고, 액츄에이터 AI의 행동에 영향을 받는 관찰 가능한 영역(space)을 말한다. 이때 센서와 액츄에이터는 기계 기기의 구성요소뿐만 아니라 사람을 포함(actuator)한다. 시스템에 의해 영향을 받는 환경은 실제 AI(physical) 또는 가상(virtual)일 수 있으며, 행동 또는 생물학적 신호와 같은 사람의 활동과 관련된 부분을 포함한다.
자율성․결과물․추론, AI시스템과 모델 등 정의
‘자율성(autonomy)’도 중요하다. 사람이 시스템에 자율성을 부여하고, 프로세스를 자동화한 후 시스템이 사람의 개입없이 학습을 수행할 수 있다. 또 AI의 구체적 지시가 없거나 시스템의 목표에 명시적으로 기술되지 않은 일부 시스템은 사람의 AI 결과물을 생성할 수 있다.
‘적응성(adaptiveness)’은 AI 초기 개발 후 계속 발전할 수 있는 기계 학습 기반 시스템과 관련된 것이다. 시스템이 배포 전 후의 입력이나, 데이터와 직접 상호작용하며 스스로 행동 방식을 수정하는 것이다.
‘결과물(Outputs)’은 AI시스템이 수행하는 다양한 기능을 반영, 인간의 참여 수준에 따라 추천, 예측, 결정 등의 형태로 나타난다. 이때 인간의 참여 수준은 결정이 가장 자율성이 높고, ‘예측’이 가장 자율성이 낮은 결과물이다. 예를 들어 운전 보조 시스템은 카메라에 입력된 픽셀 영역이 보행자라고 예측 할 수 있으며 제동을 추천하거나 결정한다. 또 생성AI 시스템의 결과물인 텍스트, 이미지, 오디오, 비디오 등 콘텐츠를 결정하거나, 예측하는 것과는 별개의 개별 범주로 분류한다.
‘추론(Inference)’은 일반적으로 시스템 배포 후에 시스템이 입력으로부터 결과물을 생성하는 단계를 의미한다. 즉, 시스템 구축 단계나 배포 전에 수행되는 추론은 주로 모델 버전 평가에 사용된다.
또한 ‘AI시스템’과 모델의 상관관계도 분명히 정의되어 있다. 즉, AI시스템은 기계와 인간의 입력을 바탕으로 수동 또는 자동으로 개발된 모델 및 다수 모델의 결합으로 구축된다. 이 경우 모델은 다양한 개념이 존재하지만 시스템 개념에서의 모델은 입력으로부터 추론을 생성하는는 AI시스템의 핵심 구성요소다. 또 모델은 프로그래머에 의해 수동으로, 또는 지도 및 비지도강화 학습 기법을 통해 자동으로 구축될 수 있다. 기계 학습 방식으로 구축된 모델들을 결합한 AI시스템은 초기 구축 단계 이후 계속 새로운 입력과 직접 상호작용하며, 성능을 향상시킨다는 결론이다.
