법적 책임 소재, 규율 공백 방지, 사회적․윤리적 문제 등

자료사진. 본 기사와 무관함

인공지능(AI)이 개인의 일상적 삶의 필수 불가결한 도구가 되면서, 새삼 이에 대한 적절한 규제와 윤리적 문제 등과 관련된 법적 장치의 필요성 등 다양한 법률적 문제가 제기되고 있다. 한번 데이터를 입력만 해도, 그 일정한 규칙을 바탕으로 스스로 학습한 후  다양하고 새로운 패턴의 행위과 의사결정이 가능한게 인공지능이다. 그 때문에 AI는 자율적인 사고·추론·판단을 통해 이용자가 의도하지 않거나 의도에 반하는 결과를 야기할 가능성이 존재한다. 이에 AI의 행위에 대한 법적 책임 소재, 규율 공백 현상으로 인한 산업적 활용의 제약, 사회적 수용에 따른 윤리적 문제 등 다양한 법적 문제가 제기되고 있다는 지적이다.
그 때문에 관련 연구기관이나 전문가들은 이에 맞는 법적 제도가 필요하다는 점에 의견을 같이하고 있다. 특히 정보통신정책연구원은 최근 AI 발전이 기존 법규범에 제기하는 쟁점 사항과 각 개별 영역에서 도출되는 신규 법적 이슈에 대하여 검토·분석, 관심을 모았다. 연구원은 별도 보고서를 통해 AI 활성화 차원의 법제 정비를 위하여 고려해야 할 개선과제도 나름대로 제시했다.

‘AI 기술개발 촉진 및 산업 진흥 특별법’ 필요
이에 따르면 우선 AI 기술개발 촉진 및 산업 진흥을 위한 특별법을 제정하고, 향후 AI로 인한 다양한 이슈 대응 차원에서 기본법제 정비가 필요할 것이라는 주장이다.
다음으론 분야별 신규 법적 이슈의 대응 위한 합리적 규율 방안 모색이 필요하다는 입장이다. 각 개별 분야에서 혁신적 창출에 대한 적절한 이익 및 책임 분배가 핵심 관건이 될 것이기 때문이다.
다만 법적 규율에 앞서 안전하고 신뢰 가능한 AI 윤리 정립이 전제되어야 한다는 주장이다. 이를 위해 AI 기술의 설계에서 실제 서비스 이용에 이르는 단계를 절차별로 도식화하는 등 각 절차별·행위자별 적용이 중요할 것이라는 설명이다.
이와 함께 AI의 예측불가능성에 따른 법적 불명확성 해소도 강조했다. 이를 위해 다학제적 연구를 추진하고, 표시·등록제도가 필요하다는 의견이다. “특히 AI의 자율성 수준에 따라 주체성, 책임 소재가 인간에서 시스템으로 이전될 것이므로, 세분화된 기술 분류에 따라 법적 효력의 차별화가 필요하다”는 것이다.
연구원은 다만 “AI 시대의 법제 정비 시 규제 완화로의 일의적 방향은 바람직하지 않으며, 기술·산업적 측면의 진흥과 합리적 규제가 균형을 이룰 수 있도록 규율 체계를 유연화하는 것이 중요할 것”이라며 “또한 AI를 둘러싼 법적 이슈는 기술·산업·사회 전반에 걸쳐 다양한 쟁점을 야기하므로 종합적·체계적 논의를 위하여 사전 규제 로드맵 구축이 필요하다”고 강조했다.

자율성, 합리성, 유사성, 연결성 고려한 법적 장치
AI의 법적 문제를 좀더 구체적으로 보면 우선 기술적 특징에 따른 문제가 있다. AI는 우선 자율성, 합리성, 유사성, 연결성이라는 기술적 특징이 있다.
그 중 자율성은 기존의 물건이 인간 지시에 의해서만 구동하는 반면, AI는 자율적 판단이 가능하여 이용자가 의도하지 않거나 의도에 반하는 결과를 야기할 것이라는 점이다. 이에 그 결과가 법적 효력이 있겠느냐 하는 문제가 대두된다. 예를 들어 이용자 의사에 반하는 거래에 대해 어떠한 법적 근거를 토대로 법률상 효력을 인정할 것인지가 불분명하다. 설사 책임 귀속이 이루어진다고 하여도 당해 당사자들 간의 이해 조정 문제가 여전히 잔존하게 된다.
합리성 측면에서 AI는 이미 특정 영역에서 인간을 뛰어 넘는 합리성을 보유하여 인간보다 가치 있는 결과물 생성이 가능한 현실이다. 그 때문에 의도치 않았던 성과물에 대한 권리를 인정할지, 거래강제(스마트계약)로 인한 자기결정권 침해가 아닌지가 논란이 될 수 있다.
‘유사성’은 AI는 외형상 인간과 유사하여 개별법상 법적 지위, 도덕적 행위자로서 윤리적 지위, 수범자로서 의무 이행 등에 혼란을 초래할 수 있다는 점이다.
‘연결성’은 AI도 ICT 기술의 하나로서 네트워크를 통해 구현되므로, 사이버 보안, 해킹, 프라이버시 침해 등 기존의 위험에 그대로 노출된다는 사실이다.

양극화, 편향성, 불안전, 사생활 침해 등 막아야
이에 따른 법제 정비의 필요성이 더욱 강조된다. 애초 AI는 범용기술로서 상당한 수준의 사고추론 능력 및 자율적 판단을 통해 엄청난 기술적 편익을 불러오나, 양극화, 편향성, 안전 불확실성, 사생활 침해 등 부정적 영향도 적지 않을 것으로 예상된다. 이에 따라 순기능을 극대화하기 위하여 진흥 측면에서 혁신지원에 적합한 법제도 구축뿐만 아니라, 역기능을 최소화하기 위한 규제가 필요하다는 입장이다. 또 이같은 법제 정비는 기술혁신을 촉진할 뿐만 아니라 안전성 및 역기능 문제, 제도 미비 등으로 인한 개발지연 현상을 미연에 방지하는 효과도 있다는 의견이다.
▲기술·산업적 관점=신기술 및 신시장 창출 통한 효과성 극대화를 위하여 AI 기술개발 촉진을 저해하는 장애요인을 제거하거나 산업적 이용 확산을 제약하는 진입규제 완화 등 법제 정비가 시급히 요구된다. 만약 AI의 발전 및 융복합 현상에 적절히 대응하지 못할 경우 ‘규제지체’ 및 ‘규제병목’으로 인해 시장의 확대가 어려워진다는 우려다. 특히 기술·산업간의 연결성이 낮은 전통 산업은 사전적 규제를 통해 예측가능성을 높일 수 있지만, AI 산업은 다양한 변수가 존재해 예측가능성이 현저히 떨어진다는 점도 고려해야 한다는 지적이다.
▲사회적 관점=불확실성 및 예측 불가능성으로 인한 사회적 부작용을 최소화하는 법제도·윤리 규범의 정립을 통해 개발자, 기업, 이용자 등 모든 참여 주체에게 이로운 방향으로의 AI를 활용하도록 해야 한다는 의견이다.
다만 자율주행자동차의 경우처럼 초기 시장 형성에 있어서 안전규제가 중요한 분야의 경우 선제적으로 법제화하는 것이 효과적이다. 결국, 규제입안자는 ʻ즉각적인 입법이 필요한 영역ʼ과 ʻ점진적인 규제 강화가 적합한 영역ʼ 사이에서 개별 영역별로 보다 적절한 방식을 채택할 필요가 있다는 주문이다.

 

저작권자 © 애플경제 무단전재 및 재배포 금지