시민사회단체, "책임성, 피해구제 미흡 등 실질적 통제 장치 부재"
"국방·안보 목적 AI 규제 제외 논란", 독소조항 지적
[애플경제 정한빈 기자] ‘인공지능기본법’이 국회 본회의를 통과한 가운데 해당 법안의 고위험 AI에 대한 규제가 매우 허술하다는 지적이 제기됐다.
지난해 12월 26일 국회 본회의에서 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)(위원장)」이 의결됐다. 2023년 3월 세계 최초로 유럽연합(EU)에서 ‘AI Act(인공지능법)’이 제정된 이후 세계에서 2번째로 통과된 사례다. 그러나 해당 법에 대해 고위험 AI의 가이드라인 제시가 미흡하다는 의견이 나오고 있다. 특히 고위험 AI로 인해 발생할 수 있는 인권 침해, 안전사고, 기술 오남용 등에 대한 실질적 제어 장치가 부족하다는 비판이 잇따르고 있다.
소비자연맹은 지난 2일 “국회는 시민사회의 수정보완 요구에도 불구하고 끝내 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(대안)(위원장)」을 통과시켰다”며 “고위험 AI로 인해 발생할 수 있는 위험으로부터 시민의 안전과 인권을 보호해야 한다는 시민사회의 요구를 외면한 정부와 국회를 규탄한다”고 밝혔다.
이 단체에 따르면 해당 기본법은 시민사회가 21대 국회에서부터 요구해왔던 핵심적인 내용을 누락하고 있어 기존에 논의됐던 법안과 크게 다르지 않다는 주장이다.
특히 금지해야 할 AI에 대한 명확한 규정, AI에 영향을 받는 사람들의 권리 및 구제에 대한 명시적 조항 등이 부재하며 고영향 AI 사업자의 책무 위반에 대한 실질적 처벌, 범용 AI 사업자의 의무 조항이 미흡하다는 점, 국방 및 국가안보 목적의 AI에 대한 적용 제외 등이 시민사회의 주된 비판이다.
해당 기본법은 사람의 생명과 신체의 안전·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI를 ‘고영향 AI’로 규정하며 10여 가지를 구분했다. 여기에는 의료, 범죄 수사, 채용 및 대출 심사, 교육 공공서비스 등 우리 사회의 핵심 영역이 포함돼 있다. 그러나 시민사회는 이러한 고영향 AI의 명확한 규정이 부재해 실제 AI로 인해 발생할 수 있는 위험 요소를 통제하기에는 부족하다고 평가하고 있다.
AI 기술로 인해 피해를 본 시민들이 보호받을 수 있는 권리 및 구제 방안이 명시되지 않았다는 점도 큰 문제다. AI 기술의 오작동이나 편향으로 인해 차별적 결정이 내려지거나 무분별한 감시와 안전 위협이 발생할 경우 시민들의 권리가 침해될 가능성이 높다. 이때 이를 해결하기 위한 제도적 장치가 마련되지 않은 상황에서 피해는 고스란히 개인이 감당해야 할 가능성이 높다.
또한 고영향 AI 사업자의 책임성에 대한 규정도 허술하다는 비판이 많다. 법안은 사업자의 책임 위반 시 과학기술정보통신부의 시정명령을 따르지 않을 경우에만 과태료를 부과하도록 돼 있다. 이는 실질적으로 고영향 AI를 규제하기에는 그 위력이 미흡해 보인다.
특히 이번 법안에서 독소조항이라는 지적이 대두되는 국방·안보 목적 AI의 적용 대상 제외 사항은 큰 비판을 받고 있다. 군사적 AI 기술의 사용이 인권과 시민 안전에 미칠 영향이 결코 가볍지 않음에도 불구하고 이를 규제 대상에서 배제한 것은 본래 의도를 교묘하게 제한하는 조항이라고 지적된다.
AI 기술의 발전 속도는 매우 빠르다. 이에 따라 해당 기본법의 부족한 부분들을 보완하기 위해 정부와 국회의 적극적인 후속 조치가 필요하다. AI 기술 개발이 안전과 인권을 기반으로 이뤄질 수 있도록 관리하고 각 부처에서는 특별법 재정을 통해 분야별 규제를 통해 AI 위험성을 최소화해야한다. 또한 행정당국의 권한을 확인하는 것을 넘어 영향을 받는 자가 적극적으로 권리를 행사해 AI 시스템이 투명성과 책임성을 가지고 운영될 수 있도록 자발적 감시가 필요하다.
AI 기술은 우리 사회에 혁신을 가져올 수 있는 동시에 잘못된 사용으로 인권 침해와 안전 문제를 야기할 수도 있다. 따라서 정부와 국회는 시민사회의 목소리에 귀를 기울여 AI 기본법의 문제점을 보완하고 안전과 인권을 최우선으로 두는 AI 기술 정책을 마련해야 할 것이다.
