18개국이 뭉쳤다…‘국제 AI 보안 지침’ 발표

미국 NSA,FBI, 캐나다, 프랑스, 영국, 독일, 싱가포르, 일본 등 AI 시스템의 설계, 개발, 배포, 운영, 사용자 위한 보안 원칙 천명 ‘고객 위한 보안 책임’, ‘급진적 투명성’, ‘설계 보안’ 등

2023-11-30     전윤미 기자
세계 18개국이 '국제 AI보안 지침'을 발표, 눈길을 끈다. 사진은 '2022 국제인공지능대전' 참가업체로서 본문 기사와 직접 관련은 없음.

[애플경제 전윤미 기자] 2024년도에는 또 어떤 사이버범죄가 기승을 떨까. 2023년을 한 달 앞둔 30일 영국 국립사이버보안센터, 미국 사이버보안 및 인프라 보안국, 미국 국립표준기술연구소를 포함한 세계 18개국의 보안 관련 기관이 인공지능 시스템 보안에 관한 새로운 지침을 발표, 관심을 끈다.

이는 안전한 AI 시스템을 개발하기 위한 AI 시스템의 설계, 개발, 배포, 운영상의 지침을 명시하고 있다. 그러나 AI 프로젝트에 접하는 모든 사용자들에게도 도움이 될 것으로 보인다.

안전한 AI 시스템 개발이 지상과제

이들 국가와 기관들은 우선 ‘안전한 AI 시스템 개발을 위한 지침’을 정의하고 있다. 이 지침은 AI 모델이 처음부터 구축되었거나, 다른 회사의 기존 모델이나 API를 기반으로 하거나 상관없이 적용된다 즉 “의도한 대로 작동하고, 필요할 때 사용할 수 있으며, 승인되지 않은 당사자에게 민감한 데이터를 공개하지 않고 작동하도록 보장하기 위한 권장 사항”을 담고 있다.

그 원칙은 크게 세 가지다. 즉 ▲고객을 위해 보안 결과에 대한 소유권을 갖고, ▲급진적인 투명성과 책임을 수용하며, ▲‘설계에 따른 보안’이 기업의 최우선 과제가 되도록 조직 구조와 리더십을 구축하는 것이다.

이들 18개국의 21개 기관과 부처가 이같은 새로운 지침을 지지하고 공동 승인할 것이라고 밝혔다. 미국 국가안보국(National Security Agency)과 연방수사국(FBI), 캐나다 사이버보안센터, 프랑스 사이버보안국, 독일 연방정보보안국, 싱가포르 사이버보안국, 일본 국립사고센터 등을 망라한다.

NCSC의 린디 카메론(Lindy Cameron) 최고경영자(CEO)는 보도자료를 통해 “우리는 AI가 경이로운 속도로 발전하고 있으며 이를 따라잡기 위해서는 정부와 업계 전반에 걸쳐 공동의 국제적 조치가 필요하다는 것을 알고 있다”고 취지를 설명했다.

AI 개발 라이프사이클 단계별 보안대책 절실

안전한 AI 시스템 개발을 위한 지침은 AI 시스템 개발 수명주기의 다양한 단계(보안 설계, 보안 개발, 보안 배포, 보안 운영 및 유지 관리)에 해당하는 4개 섹션으로 구성되어 있다.

그 중 보안 설계는 AI 시스템 개발 수명주기의 설계 단계에 특정한 지침을 제공한다. 시스템과 모델 설계의 다양한 주제와 장단점을 고려하되, 그 위험을 인식하고 위협 모델링을 수행하는 것이 중요하다.

보안 개발, 즉 AI 시스템 개발 단계의 안전이다. 이를 위해 공급망 보안 보장, 철저한 문서 유지, 기업 자산 및 기술 부채의 효과적인 관리가 포함된다.

AI 시스템의 배포 단계에서의 안전도 중요하다. 이는 손상, 위협 또는 손실로부터 인프라와 모델을 보호하고, 사고 관리를 위한 프로세스를 확립하고, 책임 있는 공개 원칙을 채택하는 것이 포함된다.

보안 운영 및 유지 관리상의 안전도 강조된다. 즉, AI 모델 배포 후 운영과 유지 관리 단계에 대한 보안 지침이다. 대표적으로 효과적인 로깅 및 모니터링, 업데이트 관리, 책임감 있는 정보 공유 등이다.

영국에서 개최된 ‘AI 안전 서밋’ 논의 내용 포함

지난 11월 1~2일 영국에서 개최된 ‘AI 안전 서밋’에서 집중적으로 논의된 '프론티어' 모델을 비롯, 모든 유형의 AI 시스템에 적용할 수 있는 내용을 담고 있다. 이 지침은 작업을 수행하는 모든 전문가, 즉 개발자, 데이터 과학자, 관리자, 의사 결정자, 기타 ‘AI 위험 유발자’ 등을 망라한다.

이에 대해 NCSC는 “주로 조직에서 호스팅하는 모델을 사용하는(또는 외부 API를 사용하는) AI 시스템 제공업체를 대상으로 지침을 작성했지만 모든 이해관계자가 설계, 개발 단계에서 정확한 정보에 입각한 결정을 내리는 데 도움이 되도록 한 지침”이라고 밝혔다.

안전한 AI 시스템 개발을 위한 지침은 이는 지난 10월 말 발표된 ‘G7 히로시마 AI 프로세스’와 미국의 자체적인 ‘AI 안전 약속 및 안전하고 신뢰할 수 있는 인공 지능에 대한 행정 명령’과도 부합하는 내용을 담고 있다.

이에 대해 사이버보안매체 ‘테크타깃은 “특히 생성 AI의 폭발적인 성장에 따라 인공 지능으로 인해 발생하는 위험을 식별하고 완화하는 것이 중요하다는 점을 세계 지도자들 사이에서 점점 더 인식하고 있음을 의미한다.”고 풀이했다.

앞서 영국 버킹엄셔의 블레츨리 파크(Bletchley Park) 유적지에서 열린 ‘AI 안전 서밋’(AI Safety Summit)에서 28개국 대표들은 ‘AI 안전에 관한 블레츨리 선언’(Bletchley Declaration)에 서명한 바 있다. 이 선언에서 참가자들은 협업을 강조하면서 AI 시스템을 안전하고 책임감 있게 설계하고 배포하는 것의 중요성을 강조했다.

이들은 특히 사이버 보안 및 생명공학과 같은 분야에서 최첨단 AI 모델과 관련된 위험을 해결해야 할 필요성을 인정하고 AI의 안전하고 윤리적이며 유익한 사용을 보장하기 위해 강화된 국제 협력을 강조하기도 했다.

영국 과학기술부 장관인 미셸 도넬런(Michelle Donelan)은 이번에 새로 발표된 지침이 처음부터 배포까지 “사이버 보안을 AI 개발의 핵심으로 삼을 것”이라고 했다.

그는 NCSC 보도 자료를 통해 “안전하고 책임 있는 AI에 대한 최초의 국제 협약에 도달하기 위해 블레츨리 파크에 세계 지도자들을 모은 지 불과 몇 주 만에 우리는 진정한 글로벌 노력에 다시 한 번 국가와 기업을 통합하게 되었다”고 의미를 부여했다.

세계 사이버 보안 업계 “대체로 바람직”

일단 이같은 18개국의 AI 지침은 사이버 보안 전문가와 분석가들의 호평을 받고 있다. 이들은 “안전하고 신뢰할 수 있는 인공 지능 시스템을 위한 반가운 청사진”이라는 평이 주를 이루고 있다.

기술매체 ‘인포메이션’은 “이런 국제적 약속은 AI 개발에 관한 각별한 보안 조치를 인식케 함으로써 기업과 개인 모두를 위한 보다 안전한 디지털 환경을 조성하는 것이 중요하다는 점을 전 세계적으로 인식시킨 것”이라고 평가했다.