샌프란시스코 회의 끝 ‘국제 AI안전연구소 네트워크’ 출범
공동연구, 기금조성, 정보공유와 국제협력, ‘5월 서울 서밋’ 후속 조치
‘연구, 테스트, 정보, 기술도구 공유’ 등 공동선언문 채택
[애플경제 전윤미 기자] 안전한 AI 기술을 위한 주요국들의 AI안전연구소들이 단일한 네트워크를 구축했다. 23일 한국을 포함한 주요 10개국이 설립한 ‘국제 AI안전연구소 네트워크’가 미국 샌프란시스코에서 공식 출범했다. 참가국은 한국을 비롯, 미국, 영국, EU, 호주, 캐나다, 프랑스, 일본, 케냐, 싱가포르 등이다.
이를 위해 샌프란시스코에서 열린 회의에선 AI에서 생성된 콘텐츠의 위험 관리, 기초 모델 테스트, 고급 AI 시스템에 대한 위험 평가 수행에 대한 심층적인 논의가 이어졌다. 이와 함께 각국의 AI 안전 연구소도 공식적으로 네트워크에 가입했다.
1100만달러 이상 연구기금 갹출도 합의
가입국들은 공동 선언문에 서명했으며 각각 1100만 달러 이상의 자금을 갹출, 공동으로 AI 생성 콘텐츠 연구를 하도록 합의했다. 이를 통해 네트워크의 첫 번째 합동 안전 테스트 훈련 결과가 공유되기도 했다. 이날 회의에는 이들 국가의 규제 담당자, AI 개발자, 학자, 시민 사회 지도자 등이 포함되어 새로운 AI 과제와 잠재적 보호 조치에 대한 논의를 이어갔다.
이 회의는 지난 5월 서울에서 열린 이전 ‘AI 안전 서밋’에서 이룬 진전을 바탕으로 진행되었다. 참가 10개국은 이날 “인공지능의 전례 없는 발전과 경제 및 사회에 미치는 영향에 직면하여 인공 지능에 대한 국제 협력과 대화를 촉진할 것”을 합의했다.
EU는 또 “‘국제 AI 안전 연구소 네트워크’는 협업을 위한 포럼 역할을 하며,AI 안전 위험과 모범 사례를 해결하기 위한 기술 전문 지식을 모을 것”이라면서 “문화적, 언어적 다양성의 중요성을 인식하고 AI 안전 위험과 완화 전략에 대한 통합된 이해를 위해 노력할 것”이라고 밝혔다. 이번에 참석한 회원국들은 2025년 2월 열릴 ‘파리 AI 임팩트 서밋’에서 AI 안전 테스트와 평가에서 향후 진행된 상황을 검증하고 규재애 대한 논의를 이어갈 계획이다.
이번 회의에서 합의된 공동선언문은 네트워크 회원국들이 4개 분야에서 협력하도록 약속했다. 우선 ▲연구 부문에서 AI 안전 연구 커뮤니티와 협력하고 결과를 공유하도록 한다. 또 ▲테스트 분야에서 고급 AI 시스템을 테스트하기 위한 모범 사례를 개발, 공유한다. 이를 위한 ▲지침을 통해 AI 안전 테스트 결과를 해석하기 위한 공유된 접근 방식을 촉진하고, AI 안전 과학에 대한 참여를 확대하기 위한 ▲정보 및 기술 도구를 공유한다.
회원국을 비롯한 여러 비영리 단체는 AI 생성 콘텐츠의 위험을 완화하기 위한 연구에 총 1,100만 달러 이상의 자금을 지원한다고 발표했다. 아동 성적 학대 자료, 합의되지 않은 성적 이미지, 사기 및 사칭을 위한 AI 사용이 주요 우려 사항으로 적시되었다. 이를 위해 우선 “디지털 콘텐츠 투명성 기술과, 유해 콘텐츠의 생성 및 배포를 방지하기 위한 모델 보호 장치를 조사하는 연구자에게 우선적으로 할당될 것”이라며 “기술적 완화책과 사회 과학 및 인본주의적 평가를 개발하는 과학자에 대한 보조금도 고려하고 있다”고 밝혔다.
고도의 AI 공동 테스트, 그 결과 등 공유
네트워크는 메타의 라마 3.1 405B에 대한 최초의 공동 테스트 연습을 완료함으로써 일반 지식, 다국어 기능 및 폐쇄 도메인 환각을 조사했다. 여기서 모델은 지시받은 범위 외부의 정보를 제공하고 있다. 해당 테스트를 통해 언어, 문화 및 맥락에서 AI 안전 테스트를 개선하는 방법에 대한 몇 가지 고려 사항을 제기했다. 예를 들어, 사소한 방법론적 차이와 모델 최적화 기술이 평가 결과에 미칠 수 있는 영향이다. 더 광범위한 공동 테스트 연습은 내년 ‘파리 AI 액션 서밋’ 이전에 다시 실시될 예정이다.
네트워크는 또 AI 위험 평가를 위한 과학적 지식을 공유하는데에 합의했다. 여기에는 실행 가능하고 투명하며 포괄적이고, 여러 이해 관계자가 참여하고 반복적이며 재현 가능해야 한다는 내용이 포함되었다. 또 이를 어떻게 운영화할 수 있는지도 논의했다.
또한 미국 ‘AI 안전 연구소’가 주도하고, 미국 상무부, 국방부, 에너지부, 국토안보부를 포함한 다른 미국 기관의 전문가가 포함된 새로운 ‘TRAINS 태스크포스’가 설립되었다. 모든 회원국들은 특히 방사선 및 핵 보안, 화학 및 생물학적 보안, 사이버 보안, 중요 인프라, 군사 역량과 같은 분야에서 국가 안보 위험을 관리하기 위해 AI 모델을 테스트하기로 합의했다.
이는 미국으로선 AI와 군사적 목적의 접목이 매우 중요하다는 점을 보여주는 대목이다. 지난달 백악관은 인공지능에 대한 최초의 국가 안보 각서를 발표, 국방부와 미국 정보 기관에 “국가 안보 임무에 AI 도입을 가속화하도록” 명령했다.
애초 이같은 글로벌 차원의 AI 안전 연구소 설립은 작년부터 지속되어왔다. 이에 관한 첫 회의는 약 1년 전 영국 버킹엄셔의 블레츨리 파크에서 열렸다. 이 회의에서 영국의 ‘AI 안전 연구소’가 처음 출범했다. 당시 해당 연구소는 세 가지 주요 목표를 내걸었다. 즉 ▲기존 AI 시스템 평가, ▲기초적인 AI 안전 연구 수행, ▲다른 국가 및 국제적 주체와 정보 공유 등이다.
미국은 또 NIST가 2024년 2월에 공식적으로 자체 AI 안전 연구소를 설립했다. 이번 회의에서 해당 연구소는 네트워크의 의장으로 지정되었다. 이는 지난 2023년 10월에 발행된 AI 행정 명령에 명시된 우선 순위의 조치를 수행하기 위해 만들어졌다. 그 속엔 AI 시스템의 안전 및 보안을 위한 표준 개발도 포함되었다.
지난 4월에 영국 정부는 미국과 협력, 고급 AI 모델에 대한 테스트를 개발하기로 공식적으로 합의했다. 이를 위해 우선 각자의 AI 안전 연구소에서 개발한 내용을 공유했다. 이어서 서울에서 체결된 협정에 따라 협업에 참여한 다른 국가들도 유사한 연구소를 설립했다.
AI안전에 모호한 태도 美, “이번엔 명확한 입장 정리”
이번 샌프란시스코 회의에선 특히 AI 안전에 대한 미국의 긍정적 입장을 명확히 한 점이 눈길을 끈다. AI 개발을 주도하고 있음에도 불구하고, 그 동안 미국은 다른 주요국들에 비해 AI안전에 대해 다소 소극적이거나, 양가적인 입장을 펴왔기 때문이다. 더욱이 곧 취임을 앞둔 트럼프 대통령 당선자는 “백악관으로 돌아가면 (AI규제에 대한) 행정 명령을 폐지하겠다”고까지 벼르고 있다. 이번 회의에 참석했던 캘리포니아 주지사 개빈 뉴섬 역시 지난 9월 말에 논란이 되었돈 AI 규제 법안 ‘SB 1047’에 거부권을 행사한 바 있다.
그런 점에서 바이든 행정부의 상무장관인 지나 라이몬드와 앤트로픽 CEO인 다리오 아모데의 기조연설은 시사하는 바가 크다. 이들은 공히 ‘AI 혁신과 안전의 균형’을 강조했다.
TIME에 따르면 미국 상무부 장관 지나 라이몬도는 “AI를 발전시키는 것은 옳은 일이지만, 결과를 생각하지 않고, 그저 할 수 있다는 이유만으로 가능한 한 빨리 발전시키는 것은 현명한 일이 아니다”라면서 “중요한 것은 안전이 혁신에 도움이 된다는 점이다. 안전은 신뢰를 낳고, 신뢰는 AI도입을 가속화하며, 그로 인해 더 많은 혁신으로 이어진다”고 역설했다.
앤트로픽의 CEO 다리오 아모데이도 안전 테스트의 필요성을 강조했다. 즉 “오늘날 많은 사람들은 챗봇이 약간 예측할 수 없는 말을 할 때 그저 웃어넘긴다”면서 “그러나 AI가 더 사악한 능력을 얻기 전에 AI를 제어하는 것이 얼마나 중요한지를 보여주는 풍경”이라고 적절한 제어와 안전의 중요성을 부각시켰다.
