하반기, ‘규제’에 무게 둔 ‘인공지능법안’ 잇따라

국회, 6월 이전 업계•정부의 ‘진흥’ 주장 반영한 법안들과 대조 ‘위험 방지, 안전, 신뢰’ 등이 법안 핵심부분, ‘처벌규정’도 해외 AI규제 추세, 국내 AI딥페이크 성범죄 문제 등도 작용?

2024-09-22     김홍기 기자
사진은 'AI엑스포코리아 2024'로서 본문과는 직접 관련이 없음.

[애플경제 김홍기 기자] 인공지능기본법(약칭 ‘인공지능법’) 입법을 앞두고, 업계와 정부는 규제보다는 혁신(기술발달과 진흥)에 무게를 두는 입장이다. 특히 과기정통부 등 정부도 “혁신을 먼저, 규제는 나중”이라며 업계와 보조를 맞추고 있다. 그러나 하반기 들어 발의된 법안들은 기류가 다소 변하고 있어 주목된다. 양자의 균형을 맞추거나, 오히려 규제에 좀더 무게를 둔 법안들이 잇따라 발의되고 있다.

22대 국회 들어 발의된 ‘인공지능법’ 관련 법안은 모두 10개다. 지난 5월 안철수 의원이 처음 발의한 후 6월의 민형배 의원에 이르기까지 5개 법안은 모두 혁신에 방점을 두고 있다. 그러나 7월 이후 권칠승, 한민수, 황희, 배준영, 이훈기 의원 등이 잇따라 발의한 법안들은 규제와 혁신의 균형을 염두에 두고 있다.

이를 두고 한켠에선 최근 캘리포니아 ‘AI법’을 비롯한 미국 각주의 규제 움직임이나 EU의 ‘AI법’ 등의 추세도 다소 영향을 끼친 것이 아니냐는 해석도 나오고 있다. 더욱이 국내에서 사회적 문제가 되고 있는 AI딥페이크 성범죄도 분명 작용했을 것이란 추측이다.

황희 의원 등 ‘정부와 사업자 책임과 의무’ 강조

특히 과기정보방송통신위에 회부된 황희 의원의 법안이 대표적이다. 이 법안은 제안설명을 통해 “인공지능은 궁극적으로 인류를 위한 것이어야 한다는 점에서 그 양면성에 대해 충분한 사회적 논의가 필요한 시점이며 데이터의 사용과 알고리즘 설계에 있어 선제적 윤리 대응이 필수적인 상황”이라며 “이에 제정안은 인공지능 관련 법적ㆍ윤리적ㆍ제도적 관점에서의 사회적 논의를 포괄적으로 수렴하여 인공지능의 개발 및 이용에 관한 기본원칙을 정하고, 국가, 사업자의 책무와 이용자의 권리를 규정하며, 고위험인공지능으로부터 이용자를 보호하기 위한 시책과 분쟁 발생 시 조정절차 등을 규정하고 있다”고 밝혔다.

이를 위해 제3조, 제5조에서 인공지능의 개발 및 이용의 기본원칙은 인류의 발전과 편의 도모를 위함임을 명시했다. 또 인공지능사업자가 사업자책임위원회를 운영하도록 의무화했다. 제7조부터 제17조까지는 인공지능 산업 진흥을 위한 정부의 역할과 함께 인공지능에 대한 규제 원칙을 정함으로써 균형을 맞추고 있다.

제18조부터 제22조까지는 ‘고위험인공지능’으로부터 이용자 보호를 위한 정부의 역할이나, 사업자 책무, 이용자의 설명요구권, 이의제기권, 사업자 책임의 일반원칙 등을 포괄적으로 규정하고 있다. 이와 함께 인공지능에 관한 분쟁 조정을 위한 ‘인공지능분쟁조정위원회’를 설치하도록 했다.

이훈기 의원 등 ‘고위험영역 인공지능에 대한 확인제도’ 등

가장 최근인 지난 12일 이훈기 의원 등이 발의한 관련법 역시 규제에 더욱 무게를 싣고 있다. 동 법안은 제1조에서 우선 “건전한 발전을 지원하고 인공지능사회의 ‘신뢰 기반’ 조성에 관한 기본적인 사항을 규정하는 것을 목적”으로 한다며 규제와 발전의 균형을 강조했다. 그러나 실제 각 조항에선 규제를 좀더 염두에 두고 있다.

제2조에서 ‘인공지능’, ‘고위험영역 인공지능’, ‘인공지능윤리’ 등을 정의하면서, 제11조에선 “과학기술정보통신부장관은 인공지능기술 개발 및 ‘안전한 이용’을 지원하기 위하여 인공지능기술 및 알고리즘의 개발 및 연구ㆍ조사와 관련된 사업 등을 지원할 수 있도록 한다”고 규정했다.

동 법안은 이 외에도 제 21조에서 ‘인공지능윤리에 관한 원칙’ 제정을, 22조에선 ‘잠재적 위험을 최소화하고 안전한 인공지능의 이용’을 위한 과기정통부장관의 시책을 의무화했다. 또 제25조에서 ‘고위험영역 인공지능에 대한 확인제도’, 제26조에서 ‘인공지능의 신뢰성과 안전성을 확보하기 위한 조치’, 제29조에선 AI기술과 제품, 서비스에 대한 고위험영역 인공지능 관련 사업자의 영향평가와 안전을 위한 의무 등을 규정했다. 동 법안은 또 제6조에서 이를 위한 대통령 소속 ‘인공지능위원회’를 두도록 했다.

배준영 의원 등도 ‘사업자 책임, 위험 최소화’에 무게

배준영 의원의 법안 역시 앞선 두 의원의 법안과 대동소이하다. 역시 배 의원 등 발의자들이 법안 본문과는 별도로 제시한 제안이유와 ‘주요 내용’의 대부분이 인공지능의 ‘안전, 신뢰, 위험 방지’를 반복하고 있다.

‘제안 이유’에서 ‘인공지능에 의한 인권 침해 등에 대한 우려’를 강조하는 한편, ‘인공지능사업자의 사회적 책임’, ‘안전하고 신뢰할 수 있는 인공지능 기술ㆍ정책의 제도적 기반’을 입법 취지로 강조하고 있다.

배 의원 등이 요약한 ‘주요 내용’ 10가지 대부분도 인공지능사업자의 사회적 책임(제11조) 등 규제와 책임, 위험 최소화에 무게를 싣고 있다. 과학기정통부 장관의 ‘인공지능기술 개발 및 안전한 이용 지원’의무(제11조), 정부의 ‘인공지능윤리에 관한 원칙’ 제정 의무(제21조), ‘잠재적 위험을 최소화’와 ‘안전한 인공지능 이용’을 위한 과기정통부장관이 시책 의무화(제22조), ‘고위험영역 인공지능에 대한 확인제도’(제25조), ‘고위험영역 인공지능 사업자의 신뢰성과 안전성을 확보’ 의무(제26조) 등을 골자로 하고 있다.

(출처=국회 홈페이지 캡처)

한민수 의원 등 '해외AI사업자' 견제 장치도 

한민수 의원의 발의안 역시 본문을 요약한 ‘주요 내용’의 절반 이상을 ‘안전’과 ‘위험 방지’에 할애하고 있다.

정부의 ‘인공지능 윤리원칙 제정ㆍ공표’와 실천방안 수립 및 홍보 의무(제22조), ‘위험을 최소화하고 안전한 인공지능의 이용을 위한 신뢰 기반’을 위한 과기정통부장관의 시책 의무화(제23조) 등이 대표적이다. 제25~26조에선 ‘고위험영역 인공지능의 해당 여부에 관한 확인’과, 제품, 서비스 소비자에게 반드시 사업자가 사전에 고지하도록 할 것을 과기정통부 장관에게 의무화했다.(제25조 및 제26조)

제27조에서도 ‘고위험영역 인공지능 사업자’의 신뢰・안전성 확보 의무화, 이를 위한 사업자 감독 의무 등을 명시하고 있다. 28조는 “생성형 인공지능 사업자가 생성형 인공지능 운용 사실 고지 및 표시를 하도록” 의무화했다. 특히 제29조는 “해외사업자의 인공지능 기본법상 의무 이행을 확보하도록 하기 위해 국내대리인을 지정하도록” 했고, 이를 위해 “고위험영역 인공지능의 확인 신청, 안전성 및 신뢰성 확보 조치의 이행에 필요한 지원 등을 하도록”했다. 사실상 오픈AI나 구글, 메타, MS, 아마존 등 해외 빅테크의 AI기술을 염두에 둔 조항으로 해석된다.

이와 함께 제30조는 “인공지능 윤리원칙을 준수하기 위하여 교육ㆍ연구 기관 등은 ‘민간자율인공지능윤리위원회’를 둘 수 있다”고 명시 눈길을 끌었다. 위원회의 구성ㆍ운영 등에 관한 사항은 해당 기관 또는 단체에서 자율적으로 정하도록 했다.

권칠승 의원 등 ‘개발•규제’ 균형 속 ‘처벌 규정’ 명시

권칠승 의원 등 15인이 발의한 법안은 앞서 다른 법안들보다는 개발과 이용에도 좀더 무게를 두고 있다. 그럼에도 규제를 위한 ‘처벌’과 ‘금지된 인공지능’에 대한 원천적 차단을 명시하고 있어 규제 이행을 위한 매우 단호한 태도를 나타내기도 했다.

제18조에선 특히 정부는 물론, 지방자치단체에 대해서도 “인간 중심의 안전한 인공지능의 개발과 이용을 위하여 ‘인공지능 윤리원칙’을 확립하도록” 했다. 또 제21조에선 ‘금지된 인공지능’에 대해 “극히 예외적인 경우를 제외하고는 원칙적으로 개발과 이용을 금지하도록”했다. 특히 동 법안은 제 27조에서 다른 법안들과 달리, “이 법의 실효성을 확보하고 안전하고 신뢰할 수 있는 인공지능의 개발 및 이용을 보장하기 위하여 ‘법적인 의무를 위반한 자에 대한 처벌규정’을 마련”하도록 명시적으로 규정해 눈길을 끈다.

7월 이후 최근까지 발의된 법안들은 그간 6월 이전까지의 법안들과는 달리, 좀더 안전과 신뢰, 위험 최소화를 위한 좀더 적극적인 규제 방안을 제시하고 있다. 이에 그간 ‘규제보다는 진흥’을 외쳐온 업계와 정부, 그리고 학계 일각의 보수적인 목소리에 어떤 영향을 끼칠지가 앞으로의 관심사로 떠오르고 있다.