“AI안전과 AI로부터의 안전, 알고리즘 조작 막는 법적 장치 시급”
AI사회 어떠해야 하나…‘안전한 AI사회를 위한 정책 방향과 과제’ 심포지엄
인공지능(AI)시대가 본격화되면서 AI의 윤리문제나 사이버 안전 등 다양한 문제가 돌출하고 있어 대책이 시급하다는 목소리가 날로 높다. 그런 가운데 국내에선 ‘AI안전’과 ‘AI로부터의 안전’을 지키고 AI 알고리즘을 위한 데이터 조작이나 왜곡 등을 방지하는 실효성 있는 법규범과 장치가 시급하다는 주장이 잇따라 나오고 있다.
이는 인공지능(AI)의 복잡성과 불확실성을 효과적으로 통제하기 위해서는 다각도의 통제 방안을 모색할 필요가 있다는 주장과 함께 설득력을 얻고 있다. 특히 지난주 과기부와 정보통신정책연구원이 개최한 ‘안전한 AI사회를 위한 정책 방향과 과제’ 심포지엄에선 이에 관한 다양한 방법론이 제기되어 관심을 끌었다.
AI사회에서의 통일적‧체계적 사이버 안전 대책 필요
온라인 생중계로 진행된 이날 심포지엄에선 특히 연구원의 권은정 부연구위원이 발제한 ‘AI사회 사이버 안전 보장을 위한 법제도 방안’이 눈길을 끌었다.
이에 따르면 현행 국내 분야별 법제도를 보면 네트워크, 시스템, 제품, 서비스, 데이터 등 보호 대상별로 법제가 산재해 있어 AI사회에서의 통일적이고 체계적인 사이버 안전 대책이 어렵다.
권 위원은 또 서비스와 제품의 분리면에서도 문제가 있다며 “AI기반 제품은 현행 ‘제품안전기본법’의 규율 범위에 포함될 수 있으나, ‘AI기반 서비스’는 ‘제품안전기본법’과 ‘제조물책임법’의 규율 범위에서 제외된다”고 문제점을 짚었다.
그는 “또한 ‘AI의 안전’과 ‘AI로부터의 안전’을 분리한 영향 평가 체계가 없다. AI안전성 확보 수단의 규범력도 미약하다”면서 실례를 들었다.
즉 ‘지능정보화 기본법’ 제60조는 안전성 보호 조치 고시의 근거를 마련하고 있으나 그 기준에 따라 안전성을 보호할 것을 권고하는 수준에 그치고 있다. 그에 따르면 AI의 투명성도 또한 문제다. 사이버 사고를 예방, 조치하기 위한 AI투명성 확보수단도 결여되어 있다.
‘AI의 안전’과 ‘AI로부터의 안전’으로 분리 대응
권 위원은 이에 “AI사회의 사이버 안전을 위해선 우선 두 가지 의미로 분류해 대응해야 한다”고 밝혔다. 즉 ‘AI의 안전(Security for AI)’의 측면이 첫 번째다. 이는 ‘AI로부터의 안전’(Security from AI)와 ‘AI의 안전(Security for AI)’를 모두 포괄하고 관련 보호 대상에 영향을 미치는 모든 변수를 통제할 수 있는 종합적인 제도 체계를 마련하는 것이다.
중요한 것은 영향평가 툴 개발을 통한 리스크 관리 등 양면을 고려한 리스크 식별, 분석, 평가, 조치, 관리 등이다. 이를 통한 상시적 영향평가를 도입해야 한다는 주장이다.
권 위원은 “특히 데이터 품질 보장, 조작․왜곡 방지 체계 수립도 필요하다”면서 “데이터 품질을 보장할 뿐 아니라 데이터 조작과 왜곡을 통해 AI기능을 손상하고 궁극적으로 사회적 해악을 야기하는 악의적 행위에 대한 법적 대응이 필요하다.”고 강조했다.
추적 가능한 AI가 되도록 하는 것도 중요하다. 즉 ‘AI안전’을 위해 AI의 운영 체계와 알고리즘의 작동 방식에 대한 이해가 가능해야 하며 AI시스템의 사이버 안전을 위한 추적 가능한 AI도입에 대한 제도화를 고려해야 한다. AI기술에 특화된 인증제도를 개발할 필요가 있다. 특히 제품이나 서비스에 대한 인증제도의 재정비가 요구된다.
곧 AI도 전기처럼 생활필수 도구될 것
이에 앞서 기조발제를 맡은 한양대 이상욱 교수는 AI사회에 대비한 다양한 대책의 필요성을 강조했다. 그는 “AI는 중장기적으로 전기시스템처럼 배경에서 작동하는 기반 기술이 될 가능성이 높다”면서 “미래사회에서 AI는 광범위하게 활용되고 스마트한 기술이면서도 눈에 잘 띄지 않도록 설계될 것이므로 다양한 윤리적 쟁점이 발생할 수 밖에 없어 이에 대한 대비가 필요하다”고 주문했다.
AI에 대한 사회적 신뢰위한 법체계 필요
그는 또 “AI의 성공적 개발을 위해선 AI에 대한 사회적 신뢰가 반드시 필요하지만 AI기술의 불투명성으로 인해 기존 규제방식을 적용하기 어렵다”고 지적했다.
이 교수는 또 “AI는 프라이버시나 개인정보, 소비자 등을 보호하고 차별금지 등과 관련된 기본권을 침해할 위험이 크다”면서 “새로운 안전 위협이나 법적 불확실성을 초래하고 기존 책임 제도가 효과적으로 작동하기 어려운 상황을 제시한다”고 밝혔다.
이런 위험 요인을 기존 EU법체계로 해결 가능한지 아니면 새로운 법률 혹은 규제 체계를 모색해야 하는지에 대한 연구가 필요하다는게 그의 주장이다.