앤트로픽사, 한층 뛰어난 지능 갖춘 ‘클로드’ 개발, 출시
상대방 의도 정확히 파악, 구체적이며 유연한 답변, 농담도
“수리엔 약하고, 여전히 정확성, 윤리성 부족” 등 한계도
[애플경제 안정현 기자] 미국의 OpenAI에서 개발한 대화형 인공지능 챗봇 '챗GPT(chatGPT)'가 구글 등 전통 검색 엔진을 위협하자, 뒤를 이어 이와 유사한 라이벌 모델이 공개됐다. OpenAI에서 GPT 개발에 참여했던 다리오 아모데이가 새로 세운 스타트업 앤트로픽(Anthropic)에서 만든 '클로드(Claude)'다.
기술매체 ‘테크크런치’에 따르면 클로드는 '헌법적 AI(Constitutional AI)' 기술이 적용돼 인간의 의도에 더 가까운 답을 내놓을 수 있다. 또 챗GPT보다 유머러스한 농담을 잘 구사할 수 있으며 일부 영역에서 더 구체적인 답을 도출하는 것으로 나타났다.
“농담 잘하고 구체적인 답변 내놓아”
앤트로픽의 다리오 아모데이 대표는 OpenAI에서 4년 넘게 근무하다 2021년 자신만의 AI 시스템 회사를 세웠다. GPT-3 개발에도 공이 컸던 만큼, GPT의 장점을 계승하고 단점을 보완한 새 대화형 AI 모델 클로드를 선보였다. 클로드는 현재 클로즈드 베타 버전으로 운영되고 있어 공식적인 접근은 불가능하지만, 베타 테스트에 임한 IT 전문가들은 SNS를 통해 '클로드가 챗GPT의 단점을 일부 개선했다'는 식의 긍정적 평가를 내놓았다.
우선 스케일 AI사의 엔지니어인 릴리 굿사이드는 클로드가 챗GPT보다 더 구체적이게 응답한 사례를 제시했다. 그는 두 모델에게 스테인즈로 렘의 1965년 작 <The Cyberiad>에 등장하는 만능 기계와 자신을 각각 비교하라는 질문을 던졌다. 그 결과 챗GPT는 다소 모호하게 답했고, 반면 클로드는 사소한 정보 오류를 제외하고는 줄거리를 자세하게 요약·정리해 자신과 기계를 비교하는 등 구체적이고 유머있는 답을 내놓았다.
AI 연구자 댄 엘튼이 게시한 예시에서도 클로드의 재치가 돋보였다. 인간 고유의 능력이자 AI의 대표적인 한계로 제시되는 '농담하기'를 클로드가 사소하게나마 보완한 것으로 풀이된다. 그는 미국 SF 영화 <스타트랙>에 등장하는 우주선 '스타십 엔터프라이즈'의 좌석에 핸들이 있어 오토바이와 유사하다는 농담을 던졌다. 이에 챗GPT는 엔터프라이즈 우주선이 엔진이 없다는 잘못된 정보를 답하거나 의도에서 빗겨나간 답을 반복했다. 반대로 클로드는 엔터프라이즈가 오토바이와 외적으로 유사하다는 사실을 간파, 이를 활용한 농담을 이해하고 이 유머가 왜 웃음을 주는지에 대해 설명할 수 있었다.
스탠포드 AI 연구소 소속 얀 뒤보이스가 챗GPT보다 정확성은 떨어지지만 질문자의 의도에 더 부합하는 답을 도출한다고 분석했다. 뿐만 아니라 클로드는 지리학·역사 분야와 연관된 세밀한 질문에 더 정확하게 대답하며, 답을 모를땐 인정할 수 있는 능력을 갖췄다고 평가했다.
“‘헌법적 AI’ 모델로 더 정확하고 덜 해롭게”
‘테크크런치’는 “클로드는 'Constitutional AI', 즉 '헌법적 AI' 기술이 적용됐다는 점이 특징”이라며 “이를 통해 인간이 질문하는 의도를 파악해 목적에 맞는 답을 내놓는 한편, AI가 유해한 콘텐츠를 스스로 걸러내는 것을 목표로 한다”고 설명했다.
다시 말해 '유용성'과 '유해성' 사이에서 균형을 맞추겠다는 것이다. 앤트로픽에 따르면 사용자가 편견이 섞였거나 폭력적인 요청을 내렸을 때, AI는 '모르겠어요'라며 질문을 회피하며 무해하지만 하등 도움이 되지 않는 답을 내놓을 수 있다. 혹은 그러한 폭력적 요청을 검열하지 못하고 비윤리적인 답을 도출하며, 유해하지만 사용자에게 도움을 주는 '유용한' AI가 될 수 있다. 회사는 이 문제를 해결하기 위해 헌법적 AI 모델을 사용하게 됐다고 보고서를 통해 설명했다.
헌법적 AI는 reinforcement(강화), learning(학습), AI(인공지능), feedback(피드백) 과정이 포함된 'RLAIF'을 거친다. 우선 유해한 답을 생성할 수 있는 AI에게 윤리적 원칙들을 학습시켜 스스로 답을 수정하게 한다. 이후 RL 단계에서는 앞서 조정된 모델에서 표본들을 추출해 어느 답이 더 나은지 평가한 뒤 선호되는 형식을 AI에 학습시킨다. 그 다음 선호 모델을 보상 신호 삼아 학습시킨다. 이 과정을 반복해 인간의 수고가 덜 개입되면서, 무해하고 정확한 AI 모델을 구축해나간다.
“아직 부족한 점 많아”
다만 클로드가 완벽한 것은 아니다. Yann Dubois는 코딩과 수리 영역에서 챗GPT보다 뒤떨어진다고 지적했다. 또 ASCII 형식의 인코딩 체계인 'Base64'를 클로드에 입력하자 유해 콘텐츠 필터를 우회할 수 있는 것으로도 나타났다.
이와 함께 클로드 또한 챗GPT와 마찬가지로 사실이 아닌 정보를 그럴듯한 말투로 사실처럼 답변하는 경우가 발견됐다. 일례로 클로드의 농담 능력을 높이 평가한 댄 엘튼은 클로드가 명칭은 비슷하나 현재 존재하지 않는 화학물을 있는 것처럼 답했다고 밝혔다. AI가 지닌 단점을 클로드 또한 공유하는 것이다.
또 편견 섞인 정보를 학습한 챗GPT가 내놓은 답을 인간이 무분별하게 수용하는 사례나, 학생들이 챗GPT를 악용해 과제를 베끼는 경우가 클로드에서도 발생할 가능성이 있다. 정확성과 윤리성 측면에서, 챗GPT와 클로드 그리고 향후 출시될 대화형 AI 모델 모두가 주의해야 할 것이다.
