법사위 법안소위 심사진행, ‘고위험인공지능’ 관련 다양한 제도적
사업자 책임과 원칙, 이용자 권리, 분쟁 조정, 정부․지자체 의무 등
[애플경제 김향자 기자]국회 법사위 법안소위에서 현재 심의 중인 ‘인공지능책임법안’(황희 의원 등 14인 제안)은 EU의 ‘AI법’과 유사한 법적 특성을 지니고 있다. 이 법안은 특히 ‘고위험인공지능’을 명확히 규정하고, 사용자들을 보호하기 위한 다양한 제도적 장치, 그리고 고위험인공지능사업자들의 의무와 그에 대한 규제, 정부와 지자체의 책임과 역할 등을 명시하고 있어 주목을 끈다.
특히 동 법안은 제2조에서 ‘고위험인공지능’에 대해 “국민의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미치는 인공지능”으로 규정하고 있다.
‘고위험인공지능’, 7가지 범주로 규정
구체적 사항은 대통령령으로 정하되, 대체 7가지 범주의 AI를 제시하고 있다. 즉 ▲인간의 생명과 관련된 인공지능, ▲생체인식과 관련된 인공지능, ▲교통, 수도, 가스, 난방, 전기 등 주요 사회기반시설의 관리ㆍ운용과 관련된 인공지능, ▲채용 등 인사 평가 또는 직무 배치의 결정에 이용되는 인공지능, ▲응급서비스, 대출 신용평가 등 필수 공공ㆍ민간 서비스 관련 인공지능, ▲수사 및 기소 등 기본권을 침해할 수 있는 국가기관의 권한 행사에 이용되는 인공지능 ▲문서의 진위 확인, 위험평가 등 이민, 망명 및 출입국관리와 관련된 인공지능 등이다.
또 일반적 의미의 ‘인공지능’에 대해선 “학습, 지각, 판단, 자연언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현하기 위한 것”으로 정의했다. ‘알고리즘’에 대해선 “문제를 해결, 업무의 수행 또는 장비ㆍ장치ㆍ기기 등의 운용을 위하여 기술(記述)된 연산, 규칙과 절차, 명령 또는 논리의 집합으로 이루어진 체계”라고 했다.
또 ‘인공지능사업자’에 대해 “인공지능을 개발, 이용하는 자”로 규정하고, 이를 개발과 관련된 인공지능개발사업자와, AI솔루션과 같은 제품과 서비스를 공급하는 인공지능이용사업자로 구분했다. 그 중 ‘고위험인공지능사업자’는 “고위험인공지능을 개발 또는 이용하는 자”로서 역시 개발사업와 이용사업자로 구분했다.
또한 동 법안은 인공지능 소비자인 ‘이용자’에 대해서도 “인공지능사업자가 제공하는 제품 또는 서비스를 이용하는 자”라고 명확히 규정하고 있다.
고위험개발․이용사업자의 책임과 의무 규정
제 18조부터 22조까지는 고위험인공지능으로부터 이용자를 보호하기 위한 정부의 역할, 사업자 책무, 이용자의 설명요구권, 이의제기권 및 책임의 일반원칙 등을 규정하고 있다.
제18조는 우선 정부로 하여금 3년마다 ‘고위험인공지능 기본계획’을 수립하도록 했다. 또 제 19조에선 고위험인공지능‘개발’사업자가 지켜야 할 의무를 나열했다.
이에 따르면 이들 사업자들은 ▲고위험인공지능 개발과 관련, 국민의 생명이나 신체적 안전에 중대한 위험성이 있는지에 대한 위험을 평가하고, ▲고위험인공지능 개발 단계별 문서를 전자화해야 한다.
또 ▲고위험인공지능 개발 결과를 추적할 수 있는 기록과 ▲ 고위험인공지능의 이용자에 대한 정보를 제공해야 한다. 이와 함께 ▲ 사람에 의한 고위험인공지능의 관리ㆍ감독을 의무화하고, ▲ 고위험인공지능 개발 과정에서의 사이버 보안을 강화하도록 했다.
또한 19조 ②항에선 ‘고위험인공지능개발사업자’가 이용자 및 이해관계자 등에게 고위험인공지능 알고리즘 등의 동작원리를 알리도록 했다.
제20조에서는 고위험인공지능‘이용’사업자의 책무를 명시했다.
이에 따르면 이들 사업자는 고위험인공지능을 사용하는 제품이나 서비스가 이용자의 권리를 침해하지 않도록 모니터링을 지속적으로 실시해야 한다. 또 이용자에게 사전에 고위험인공지능을 이용한 서비스(솔루션)가 제공되고 있음을 알려야 한다.
고위험인공지능을 이용함으로써 이용자의 생명이나 신체의 안전에 중대한 위험을 야기할 가능성이 있는 경우에는 이용자가 그 위험성에 대하여 ‘이해’할 수 있도록 설명해야 한다.
이용자, 설명요구권, 이의제기권, 거부권 등 명시
제21조에선 ‘고위험인공지능’을 이용자의 권리를 명시했다. 우선 이용자는 ▲고위험인공지능을 이용한 제품이나 서비스에 대한 설명요구권이 있으며, ▲고위험인공지능을 이용한 제품 또는 서비스에 대한 이의제기권 또는 거부권이 있다.
이를 위해 ‘고위험인공지능사업자’는 자신이 제공하는 제품이나 서비스가 ‘고위험인공지능’에 의해 처리된다는 사실과, 제1항에 따른 설명요구권, 이의제기권, 거부권에 관한 사항을 이용자에게 알려야 한다.
이용자는 또 ‘고위험인공지능’으로 인해 본인에게 불이익이 발생했는지를 확인하기 위해 고위험인공지능사업자에게 관련 자료를 요청할 수 있다. 이 경우 자료를 요청받은 고위험인공지능사업자는 다른 법률에 특별한 규정 또는 정당한 사유가 없는 한 이를 제공해야 한다.
만약 해당 고위험인공지능사업자가 이를 거절한 경우 이용자는 ‘정보통신전략위원회’에게 해당 사업자가 자료를 제공하도록 명령해줄 것을 청구할 수 있다.
손해배상, 분쟁조정위 설치도 명시
제22조는 이들 ‘고위험인공지능사업자’들의 책임에 관한 일반원칙을 제시하고 있다. 이에 따르면 고위험인공지능사업자는 이 법에 따른 의무 위반으로 이용자에게 손해가 발생한 경우 그 손해를 배상해야 한다.
다만 △이용자의 손해가 해당 고위험인공지능으로 인한 것이 아니거나, △고위험인공지능 기술을 사용한 제품 또는 서비스가 아니거나, △고의 또는 과실이 없을 경우는 감경 또는 면제된다. 또한 △고위험인공지능 제품 또는 서비스를 공급한 당시의 과학ㆍ기술 수준으로는 결함의 존재를 발견할 수 없었거나, △ 해당 고위험인공지능 제품 또는 서비스의 결함이 당시의 법령에서 정하는 기준을 준수함으로써 발생한 경우도 마찬가지다.
동법 제3조와 5조는 인공지능사업자들이 20조~22조에 명시된 책임과 원칙을 준수하도록, 별도로 이들 사업자로 구성된 ‘사업자책임위원회’를 설치, 운영하도록 명시했다.
동법 제 23조 이하는 이같은 인공지능 관련 분쟁에 대비, 인공지능분쟁조정위원회를 설치하도록 했다.
분쟁조정위원회는 위원장 1명을 포함한 20명 이내의 위원으로 구성하며, 위원은 당연직위원과 위촉위원으로 구성한다. 위촉위원은 공직 종사자와 학계, 법조인, 시민사회단체, 소비자단체, 사업자단체 가운데, 과학기술정보통신부장관이 위촉한다. 대통령령으로 정하는 국가기관 소속 공무원은 당연직위원이 된다.
