무분별한 안면인식기술, 사회적차별, 인지행동 조작 등 ‘금지’
고용, 제품 생산, 소셜미디어 남용, 정치적 편향 유도 등도 규제
전문가들 “세계 AI관련 규제법의 ‘모범’ 사례 될 것” 평가

(사진=어도비 스톡)
(사진=어도비 스톡)

[애플경제 전윤미 기자] 지난주 EU의회에서 통과된 세계 최초의 ‘AI(규제)법’ 초안이 과연 인공지능을 합리적이고 미래지향적으로 규제할 수 있는 제도의 모델이 될 것인가. 이에 대한 많은 전문가들과 외신들의 시각은 다양하지만, 대체로 “AI 규제에 대한 각국의 입법 과정에서 매우 유용한 모델이 될 것”이라는 의견이 지배적이다.

유력외신, 전문가들도 ‘호평’ 지배적

NYT, WP, 로이터통신, 월스트리트저널 등은 지난 주 이에 대해 “인공지능법이라고 불리는, 인공지능의 사용에 관한 유럽의 규제 초안은 포괄적이고 광범위하다”거나, “유럽 의원들은 지난 주 인공지능에 관한 선구적인 법을 통과시키는 데 더 가까워졌다”는 식의 호평을 내리고 있다.

IT업계에 정통한 일부 기술매체들도 공평한 법적용을 뜻하는 ‘저울’사진과 나란히 AI로봇 그래픽을 그려넣은 이미지와 함께 “빠르게 진화하고 있지만 최소한으로 규제되는 기술에 대한 벤치마크를 설정하는 것을 목표로 하는 법안”이라고 평가하기도 했다.

그럼에도 IT와 디지털산업계에선 이에 대해 긴장하면서도 한편으론 불만을 토로하기도 해, 최종 입법 과정에 이르기까진 다소의 우여곡절을 겪을 것이란 전망도 적지 않다.

EU, “세계 AI규제의 벤치마킹” 의도

지난 주 유럽 의회가 세계 최초로 승인한 ‘AI 법’은 세계 최초의 포괄적인 AI 법이라고 해도 무방하다. 해당 법안은 유럽 연합 27개 회원국에서 AI 기술을 채택하고 사용하는 과정에 적용되는 일종의 ‘준칙’이기도 하다.

‘AI법’은 일단 공공장소에서의 실시간 안면인식 기술 사용을 포함한 고위험 AI 관행을 적어도 유럽 권역에선 금지하고 있다. 중국처럼 범죄 예방이나 안전을 이유로 광범위하게 안면인식 기술을 대중에게 적용하지 못하도록 한 것이다.

또 소셜 스코어링 시스템과 모델 등 유럽 의회가 “침입적이고 차별적”이라고 간주하는 다른 AI 시스템도 역시 다수 금지 대상에 포함되었다.

법안 초안에는 또한 챗GPT와 같은 생성 AI 모델에 대한 한층 엄격한 요구 사항도 포함되어 있다. 즉 콘텐츠가 AI로 생성되었을 때 반드시 이를 공개하고 불법 콘텐츠 생성을 방지하기 위해 사전에 ‘내장된 조치’로 모델을 설계하도록 했다.

유럽의 선구적인 법안은 인공지능과 기계 학습 도구의 폭발적인 증가로 인해 각국의 정책 입안자들이 앞다퉈 관련 규제법을 준비하고 있는 가운데 나온 것이다. 그런 만큼 유럽의회 스스로도 “세계 인공지능 규제의 선례를 만들겠다”는 의도가 다분히 강하다.

데어드르 클룬 유럽 의회 의원도 언론 인터뷰에서 “AI법은 AI를 규제하는 사실상의 글로벌 접근법이 될 가능성이 있는 획기적인 법률”이라고 평가했다.

그는 “AI를 규제하기 위한 첫 번째 글로벌 시도 중 하나”라며 “AI는 기후 변화나 심각한 질병을 포함한 가장 시급한 문제를 해결할 수 있는 능력을 가지고 있으며, 이에 유럽 연합이 앞장 서서 이를 제어하고 수행할 수 있는 기반을 마련하고자 한다”고 의도를 분명히 해다.

다만 그는 “전적으로 우리 스스로 할 수는 없지만, 혁신과 경제 성장을 지원하면서 이 기술이 책임감 있는 윤리적 방식으로 개발되고 사용되도록 보장하는 리더 역할을 (유럽연합이) 할 것”이라고 덧붙였다.

'2023 AI엑스포코리아'에 출품한 업체의 부스로서 본문과 직접 관련은 없음
'2023 AI엑스포코리아'에 출품한 업체의 부스로서 본문과 직접 관련은 없음

AI의 위험 단계별로 치밀한 규제

EU의 법안 초안은 특히 인공지능 시스템을 사용자에 대한 잠재적 위협에 따라 분류하는 AI 규제에 대한 위험 기반 접근법을 설정한 점이 특징이다. 이는 오랫동안 치열한 논쟁꺼리가 되어온 것이기도 하다.

예컨대, “수용할 수 없는” 위험 수준을 수반하는 것으로 간주되는 AI 시스템은 제한된 예외를 제외하고 EU 법에 따라 엄격하게 금지된다. 이 밖에도 ‘허용되지 않는 것으로 간주’되어 금지된 AI 시스템 및 기능들도 많다.

대표적으로 AI를 사용해 사람이나 특정 취약 집단에 대한 인지 행동을 조작하는 것이 이에 해당된다. 예를 들어, 어린이의 위험한 행동을 장려하는 음성 작동 장난감 등이 그런 경우다.

AI에 의한 ‘사회적 점수’ 매기기도 금지된다. 즉, 행동, 사회 경제적 지위 또는 개인적 특성을 기준으로 사람들을 분류하는 행위가 그런 것들이다. 또 얼굴 인식 기법 등 실시간 및 원격 생체 인식 식별 AI시스템도 금지된다.

특히 ‘원격 생체 인식 식별 시스템’의 경우 예외적으로 “(범죄 발생 후) 심각한 지연”이 있은 후, 식별을 통해 심각한 범죄를 기소할 수 있지만, 이러한 경우에는 법원의 승인이 필요하다.

‘고위험 AI 시스템’에는 또 장난감 및 자동차와 같은 EU 규제 제품에 사용되는 시스템을 비롯해, 생체 인식 식별, 중요 인프라 관리, 고용 및 법 집행과 같은 특정 기술 영역들이 포함된다. 새로운 EU 규칙에 따라 이러한 시스템은 EU 데이터베이스에 등록되어야 한다.

소셜 미디어 플랫폼의 AI기술 적용에 대한 규제도 엄격하다. 즉 소셜 미디어에서 사용되는 추천 시스템에서 AI를 남용하는 것을 비롯, 정치적 캠페인에서 유권자에게 영향을 미칠 수 있는 잠재력을 가진 AI 시스템도 AI 법의 고위험 목록에 포함된다.

챗GPT, 구글 바드 등에 엄격한 규정

한편, 챗GPT와 구글 바드와 같은 생성적 AI 도구와, 제한된 위험으로 간주되는 다른 AI 시스템은 새로운 EU 규칙에 따라 더 강력한 안전 장치를 적용받는다.

“이러한 보호 조치에는 보다 엄격한 투명성이 요구되는 사항과, 사용자가 AI 모델과 상호 작용하는지 여부와 방법에 대한 정보에 입각한 결정을 내릴 수 있는 기능이 포함된다”는게 NYT는 전했다.

사용자는 또 AI와 상호 작용할 때 ‘알림’을 반드시 송수신해야 하며, 일단 AI 애플리케이션과 상호 작용한 후에도 사용을 중단하거나 계속할 수 있는 옵션을 제공받아야 한다.

앞서 쿨룬 의원은 “여기서 우리가 제공해야 할 절대적인 최소는 투명성”이라며 “이 내용이 인간에 의해 만들어진 것이 아니라는 것은 분명하다. 한 걸음 더 나아가 이러한 대규모 모델의 개발자들에게 투명성을 높이고 제공업체와 정보를 공유하고, 이러한 시스템이 어떻게 훈련되고 어떻게 개발되었는지를 알려주어야 한다”고 법 취지를 요약했다.

저작권자 © 애플경제 무단전재 및 재배포 금지