이번엔 내부 직원들 고발 “‘AI안전성’ 은폐, 비밀 서약 강요”
미 의회에 비밀 서한, “규제기관 속히 오픈AI 브레이크 걸어야”
‘초지능AI’ 개발 노출 후 또 내부고발, 언론 “오픈AI의 길” 질문
[애플경제 김홍기 기자]사실상 비밀리에 ‘초지능AI’ 개발을 한창 하고 있다는 소식이 전해진 오픈AI가 이번엔 AI안전성에 관한 내용을 반드시 비밀로 할 것을 강요하며, 직원들로부터 강제 서약을 받고 있는 것으로 전해져 파장이 커지고 있다.
워싱턴포스터(WP), 로이터 등 외신에 따르면, 13일 일련의 오픈AI 직원들로 생각되는 내부 고발자들이 미국 증권거래위원회(SEC)에 “오픈AI가 인공지능의 위험성이나 안전성을 포함한 일체의 정보를 외부에 누설해선 안 된다”는 내용이 ‘비공개 서약’을 강요하고 있다고 제보했다. 이들은 제보와 함께 이런 행위에 대해 강력한 조사와 처벌이 따라야 할 것이라고 청원한 것으로 전해졌다.
고발 직원들 “강력한 조사와 처벌” 요구
오픈AI의 AI 개발 과정에 대해선 늘 의혹과 불신의 시선이 가해지고 있다. 최근에도 블룸버그는 “세계 최초로 사실상 초지능AI를 개발하는 ‘스트로베리’ 프로젝트를 비밀리에 진행해온지 오래”라고 폭로하기도 했다. 그러나 샘 앨트먼 등 경영진은 겉으론 ‘AI안전팀’을 꾸리는 등 조치를 취하고 있지만, 여전히 의심을 사고 있다.
지난해 11월 샘 앨트먼을 전격 해임하는 등 내홍이 일었던 것도 결국은 AI 안전성을 둘러싼 경영진과 사내의 불화와 이견때문이었다. 이번엔 내부에서 샘 앨트먼 등의 ‘빠른 고위험성 AI 개발’에 대해 쌓여온 불안과 불만이 외부에 노골적으로 표출된 셈이다. 신원이 밝혀지진 않았지만, 일군의 직원들이 들고 일어난 것이다.
더욱이 이번엔 언론사가 아닌 상원의원에게 서한을 먼저 보내는 식으로 제보한 것으로 알려졌다. 이를 정치적 이슈로 부각시키고자 한 의도가 엿보이는 모습이다. 처음 제보를 받은 척 그래슬리 미 상원의원은 이를 다시 WP에 전달함으로써 널리 공개가 되었다.
그래슬리 상원의원 사무실에서 로이터에 제공한 제보 서한에 따르면, “AI의 무책임한 배포로 인해 발생할 수 있는 잠재적 위험이 오픈AI 내부에 충분히 문서화되어 있으므로, SEC가 오픈AI의 ‘비밀 서약’에 대한 조사를 즉시 벌이도록 하고, SEC 규정을 완전히 준수하기 위해 오픈AI가 노력하도록 압박을 가할 것을 촉구한다”고 제언했다.
상원의원에게 먼저 편지, 다시 언론에 전달
해당 편지는 또 “오픈AI는 직원들에게 내부 고발자를 보호하고, 그 권리를 존중하라는 연방 정부 지침을 포기하도록 요구하는 계약에 서명하게 했다”고 지적했다. 이들 내부 고발자들은 또 “SEC가 오픈AI의 그런 행위를 조사하고, 그에 마땅하다고 생각하는 범위 내에서 합당한 벌금을 부과해 줄 것”을 요청하기도 했다. 이런 사실이 언론보도를 통해 알려진 후 SEC는 뒤늦게 보도자료를 통해 “오픈AI의 위반사항을 검토 중이지만, 내부 고발자가 제보한 내용인지는 확인해줄 수 없다”고 밝혔다.
그러나 그래슬리 상원의원은 “인공지능은 우리가 아는 기술의 풍경을 빠르고 극적으로 바꾸고 있다.”면서 “이 편지는 고발자들이 제공한 것”임을 분명히했다. 그는 또 “오픈AI의 (비밀 서약 의무화) 정책과 관행은 내부 고발자를 보호하고, 자유롭게 비리를 공개할 수 있도록 하는 권리를 심각하게 침해한 것”이라고 지적했다.
편지에는 또한 “오픈AI가 직원들이 연방 규제 기관에 정보를 공개하려면, 회사의 사전 동의를 받아야 하도록 의무화했다”면서 “또 SEC에 증권 위반 사항을 공개하지 못하도록 하는 ‘직원 비방 금지 조항’을 두고 있다”고 덧붙였다.
이에 SEC는 오픈AI에게 고용 계약, 해고 계약, 투자자 계약, 그리고 AI기술에 대한 비공개 의무 계약이 포함된 모든 계약문서를 제출하도록 요구했다.
논란 끊이지 않는 ‘오픈AI의 길’
오픈AI의 생성AI 기술은 끊임없이 논란을 불러 일으키고 있다. 최근엔 인간을 그대로 모방하고, 거의 인간 수준의 대화를 하며, 텍스트 프롬프트를 기반으로 이미지나 동영상을 생성하는 수준에 이르렀다. 더욱이 오픈AI는 이미 공식적으로 초지능AI를 한창 개발하며, 그 성과도 빠르게 진척되는 것으로 뒤늦게 알려져 더욱 안전에 대한 의구심과 우려를 불러일으켰다.
앞서 오픈AI는 이같은 비판 여론을 이식, 지난 5월에 샘 앨트먼을 비롯한 이사회 구성원들이 이끄는 ‘안전 및 보안 위원회’를 구성, 인공지능 모델 훈련에 적응하기 시작했다. 그럼에도 불구하고, 이번엔 내부 직원들이 직접 고발하고 나서는 등 더욱 불신을 살만한 상황에 처한 셈이다. 그래서 일부 언론은 “오픈AI는 대체 어디로 가려는가?”라는 질문을 던지기도 한다.
