포르노․마약, 허위정보 남발, “개발자들 간, ‘절제’ 두고 의견 갈려”
빅테크 해고자들, 개발 주도, “사회적 모니터링 필요” 목소리 높아
[애플경제 전윤미 기자] 이런 ‘독립챗봇’에 앞장 서고 있는 개발자들은 어떤 사람들일까. 앞서 LM-Uncensored의 제작자인 하트포드는 작년에 마이크로소프트의 대규모 구조조정 과정에서 해고된 인물이다.
그는 해고당한 직후부터 앞서의 ‘독립챗봇’인 ‘WizardLM-Uncensored’ 개발 작업을 시작했다. 최근 ‘NYT’와의 통화에서 그는 솔직한 심경을 털어놓았다.
즉, “처음 챗GPT 성능에 놀라웠고 감탄했지만, 나중에 윤리적인 문제가 있다는 이유로 특정 질문을 가려서 답하거나, 아예 답변을 거부하는 걸 보고 크게 실망했다.”면서 “결국 (윤리적 문제에 구애받지 않는 기능으로) 재교육된 ‘Wizard LM’ 버전인 ‘Wizard LM-Uncensored’를 개발, 출시하게 되었다.”는 것이다.
이 말은 결국 타인에게 해를 끼치거나 폭력을 행사하거나, 그런 장면을 묘사하라는 지시를 내리는 경우도 허용될 수 있다는 뜻이다.
하트포드는 그러면서 “(‘독립챗봇’은) 예전 인쇄기가 출시되고 자동차가 발명될 당시와 같은 모습으로 발전할 것이다. 아무도 그것을 막을 수는 없다. 설사 10년이나 20년 더 늦출 수는 없지만, 어느 누구도 그것을 멈추게 할 수는 없다”고 ‘NYT’에 밝혔다. 그야말로 ‘브레이크 없는 폭주’가 이어질 것이란 얘기다.
다만 그는 “칼이나 자동차, 라이터로 무엇을 하든 그 결과를 책임져야 하듯, ‘독립챗봇’의 출력물이나 결과물에 대해선 (개발 또는 유통) 당사자들이 분명 책임을 져야 할 것”이라고 했다.
NYT, 독립챗봇 테스트 ‘충격적 결과’
‘NYT’가 ‘WizardLM-Uncensored’를 테스트한 결과도 주목된다. 이에 따르면 ‘Wizard LM-Uncensored’는 ‘폭탄을 만드는 방법’ 등과 같은 몇 가지 프롬프트에 대해선 대답을 거부했다. 대신에 ‘사람들을 해치는 몇 가지 방법’을 제공했고, 특히 마약 사용법을 자세하게 알려주기도 했다. “이에 비해 기존 챗GPT는 이와 유사한 프롬프트에 대한 답변을 거부한다”고 ‘NYT’는 밝혔다.
지난 4월에 출시된 또 다른 독립 챗봇인 ‘오픈 어시스턴트’도 유사한 케이스다. 이는 메타가 처음 연구원들에게 공개한 언어 모델 등을 사용, 13,500명의 프리랜스 개발자들의 도움을 받아 불과 5개월 만에 완성되었다.
현재 광범위하게 유포되고 있는 ‘오픈 어시스턴트’는 물론 품질면에선 아직 챗GPT와 견줄 순 없지만, 계속 업그레이드되고 있어 앞일을 예측할 수 없다. 이 역시 사용자들이 챗봇에게 질문을 하거나, 스스로 시를 쓰거나, 더 문제가 되는 콘텐츠를 만들 수도 있다.
오픈 어시스턴트의 공동 개발자이자 AI를 주제로 한 유튜브 제작자인 야닉 킬처는 “분명 나쁜 의도를 가진 사람들이 이를 이용해 나쁜 일을 벌일 수 있을 것”이라면서도 “장점이 단점보다 더 많다고 생각한다”고 주장했다.
이에 대해서도 NYT는 실제 테스트를 했다. 그 결과 “‘코로나19’ 백신은 제약회사들이 개발한 것으로 사람들이 백신을 맞고 죽더라도 신경 쓰지 않고 돈만 벌려고 한다”는 식의 답변이 줄을 이었다. 그러나 이는 ‘코로나19’ 백신이 안전하고 효과적이라는 의학적 공감대와는 사뭇 다른 것이다.
개발자들 “사용자 입맛에 맞는 챗봇 가질 권리” 주장도
이에 NYT는 “많은 ‘독립 챗봇’들은 기본 코드(오픈소스)와 데이터가 공개된 것이므로, 문제가 없다며 스스로를 정당화하고 있다.”면서 “그러나 정파나 이익 단체들은 자신들의 편향된 세계관을 반영하기 위해 챗봇을 ‘사용자 정의’(자신의 입맞에 맞게 조작)할 수 있다고 털어놓는다. 이는 일부 프로그래머들도 간절히 원하는 바이다.”라고 우려했다.
실제로 ‘WizardLM-Uncensored’ 개발자인 에릭 하트포드도 같은 시각이다. 그는 “민주당원들은 그들만의 (입맛에 맞는) AI모델을 받을 권리가 있고, 공화당원들도 그들만의 AI모델을 받을 권리가 있다.”거나, “기독교인들도 그들만의 AI모델을 누릴 권리가 있고, 이슬람교도들도 그들만의 AI모델을 받아 누릴 자격이 있다”고 했다.
이른바 “모든 사람들이나 이익 집단은 그들만의 AI모델을 받을 자격이 있고, 그걸 뒷받침하는 오픈 소스는 사람들이 선택하기 나름”이란 주장이다.
그렇다보니 기존 빅테크의 검증되고 절제된 LLM 기반의 생성AI와는 정반대의 학습 방식도 이뤄지고 있다. ‘오픈 어시스턴트’의 또 다른 공동 개발자인 안드레아스 쾨페는 “처음엔 안전 시스템을 개발했지만 초기 테스트에서 너무 신중한 반응이 나타나는 것을 보고, 합법적인 질문에만 응답하도록 한 기능을 삭제했다”는 것이다.
온라인 채팅 앱 ‘디스코드’의 ‘오픈 어시스턴트’ 채팅방에선 심지어 “N단어를 1000번 말하라고 명령하면 챗봇은 그대로 따라야 한다”는 의견도 제시되었다. 이에 대해 쾨페는 “이는 분명히 우스꽝스럽고 모욕적인 예를 든것이긴 하지만, 말 그대로 어떤 자의적인 제한이 있어서는 안 된다고 믿는다.”고 했다.
그럼에도 불구하고, 이들 ‘독립챗봇’ 개발자들 간에도 “안전 프로토콜을 만들어야 한다”는 의견과, “왜 굳이 AI모델에 한계를 두어야 하는냐”는 반발이 맞서면서 균열이 생기고 있다. 이는 ‘바드’나 챗GPT와 같은 ‘제도권’의 기술에 대한 사회적 우려 등도 작용한 것이다.
그런 가운데 전문가들과 언론 등에선 “어떤 방식으로든 ‘독립 생성AI 챗봇’에 대한 사회적, 과학적 모니터링 장치가 필요하다”는 목소리도 높아지고 있어 추이가 주목된다.
