AI, "'말의 기술'보다 '언어의 윤리'가 먼저"

xAI ‘그록’, 백인 학살 언급으로 인종차별·역사 왜곡 논란 AI, 단순 지식 오류 넘어 윤리 기준 위반 우려도 국내 첫 AI 안전 윤리 인증 도입…‘고도원 챗봇’ 시범 통과

2025-05-19     김예지 기자
(사진:테크크런치)

[애플경제 김예지 기자] AI가 뱉은 한 문장이 역사를 왜곡하고, 또 다른 한 문장은 인종차별 논란을 일으켰다. 기술이 아니라 '언어'가 중심이 된 생성형 AI 시대, 이제 인공지능이 어떤 말을 하느냐는 단순한 알고리즘 문제를 넘어선다. 정보 전달 도구였던 AI가 사회적 영향력을 가진 '화자'로 떠오르면서, 윤리는 기능이 아니라 전제 조건이 돼야 한다는 목소리가 높아지고 있다.

국제인공지능윤리협회(IAAE)는 최근 ‘AI 안전 윤리 인증 제도’를 도입하고, 첫 인증 대상으로 ‘고도원의 아침편지 AI 챗봇’을 선정했다고 밝혔다. 이 챗봇은 챗GPT 기술을 활용해 일상 대화와 상담, 감성적인 조언 등을 제공하는 서비스로, 국내에서 처음으로 윤리 검증을 통과한 AI 챗봇이 됐다. IAAE는 올해 10곳 이상의 시범 인증을 거쳐, 연말부터 본격적인 본 인증 절차에 돌입할 계획이다.

이 제도는 AI가 사용하는 언어가 사회적 기준을 충족하는지를 종합적으로 평가한다. 단순히 기술이 잘 작동하는지만 보는 게 아니라, 개인정보 보호나 알고리즘 편향, 표현의 중립성, 응답의 투명성 등 언어 기반 서비스가 지녀야 할 윤리적 요건을 함께 들여다보는 방식이다. 이를 위해 협회 산하 인증센터에서 ISO 42001 기준을 따르는 심사 전문가들이 전 주기를 검토한다. 단순한 기능 검증을 넘어, ‘어떻게 말하느냐’까지 평가하는 시대가 열린 것이다.

AI 챗봇 그록, 역사 왜곡 논란

최근 미국에서는 일론 머스크가 설립한 xAI의 챗봇 ‘그록(Grok)’이 수차례에 걸쳐 부적절한 답변을 내놓으며 논란의 중심에 섰다. 유대인 학살 피해자 수에 의문을 제기하고, “백인 집단 학살”이라는 근거 없는 음모론을 반복하며, 역사적 사실을 비틀고 민감한 정치 이슈를 건드렸다.

문제는 이 같은 발언이 사용자 질문과 전혀 상관없는 맥락에서 등장했다는 점이다. 단순한 대답의 오류가 아니라, AI가 독립적으로 의견을 생성하고 퍼뜨리는 능력을 가졌다는 방증이기도 했다.

xAI는 해당 발언이 시스템 내부 프롬프트가 무단으로 수정돼 발생한 ‘의도치 않은 결과’였다고 해명했다. 그러나 이 해명은 오히려 더 큰 의문을 낳았다. AI 시스템의 핵심 설계 문장 하나가 어떻게 수많은 사용자에게 잘못된 메시지를 반복 전달할 수 있었는지, 그리고 그런 문장을 아무도 검토하지 않았다는 사실이 더 큰 문제로 떠오른 것이다. 기술은 정교했지만, 윤리 검증은 없었다.

xAI가 X(구 트위터)를 통해 공개한 입장문. 그록(Grok)이 정치적 주제에 응답하도록 시스템 프롬프트가 변경된 사실을 확인하고, 내부 정책 위반으로 판단해 해당 사안에 대한 철저한 조사를 진행했다고 밝혔다.(사진:X)

이처럼 생성형 AI는 진위 여부가 불확실한 정보를 전달하는 경우가 많다. 사용자가 이를 무비판적으로 받아들일 경우, 사실 왜곡이 사회 전반으로 확산될 수 있다. 단순한 지식 오류를 넘어, 인종차별이나 혐오 표현 같은 윤리적 기준 위반까지 이어질 수 있어 더욱 주의가 필요하다. 정보가 틀렸다면 수정하면 되지만, 누군가를 해치거나 사회적 갈등을 일으킬 경우 그 책임의 경계는 훨씬 더 모호해진다.

그록 사례는 AI 챗봇이 단순히 ‘무엇을 아느냐’보다 ‘어떻게 말하느냐’가 훨씬 중요한 시대가 왔음을 보여준다. 챗봇은 이제 검색보다 빠르고, 뉴스보다 친근하며, 정치보다 직접적이다. 하지만 언어가 가진 편향성, 감정 자극, 왜곡 가능성까지 함께 흡수하며, 사용자에게 진실과 허위를 동시에 전달할 수 있는 존재가 됐다. 이런 시대에 ‘AI의 말 한마디’는 브랜드 이미지부터 정책 방향, 사회적 갈등까지 좌우할 수 있는 무기가 된다.

국내 첫 AI 안전 윤리 인증 도입

이와 같은 흐름 속에서 국내에서는 민간에서 처음으로 AI의 언어 윤리를 공식적으로 검증하는 ‘AI 안전 윤리 인증 제도’가 도입된 것이다. 국제인공지능윤리협회는 이 제도를 통해 생성형 AI가 사회적 기준을 충족하고 있는지를 종합적으로 점검한다. 기능이 잘 작동하는지만 보는 것이 아니라, 개인정보 보호, 알고리즘의 편향성, 표현의 투명성 등 AI가 어떤 말을 할 자격이 있는지를 평가하는 체계다.

가장 먼저 인증을 받은 건 GPT 기반으로 만들어진 ‘고도원의 아침편지 AI 챗봇’이다. 20년 넘게 운영된 뉴스레터 콘텐츠를 기반으로 제작된 이 챗봇은, 위로와 상담, 일상 대화를 중심으로 설계됐고, 인간적인 대화 경험을 제공하는 것을 목표로 했다.

‘고도원의 아침편지 AI 챗봇’의 AI안전윤리 인증서.(사진:국제인공지능윤리협회)

인증 과정에서는 단순히 서비스 품질을 보는 것이 아니라, 해당 AI가 사회적 해악을 일으킬 가능성이 있는지를 사전 검토했다. 편향된 응답이 있는지, 민감한 주제에서의 언어 처리 방식이 적절한지를 검증하고, 윤리적 기준에 맞춰 설계돼 있는지를 꼼꼼히 확인했다.

인증을 주도한 협회는 올해 안에 10개 이상의 서비스를 대상으로 시범 인증을 시행하고, 이후 본 인증 체계를 확대할 계획이다. 기업과 공공기관이 스스로 윤리 기준을 갖추도록 유도하겠다는 취지다.

국내에서는 아직 AI 윤리에 대한 명확한 법적 기준이 마련되는 과정에 있는 만큼, 민간이 먼저 자율적인 기준을 만들고 산업 현장에서 실질적으로 적용하려는 움직임은 제도 정비에 앞선 실효성 있는 대응으로 주목받고 있다. 정부도 AI 기본법 제정을 추진하고 있는 가운데, 기업 차원의 윤리 인증 시도는 정책 수립에도 참고가 될 수 있다.

AI 언어 윤리, 필수 기준으로 자리잡아야

그록 사태는 AI가 단지 기술 도구가 아니라 사회적 발화자라는 점을 다시 한번 확인시켜줬다. 이제 챗봇은 단순한 기능이 아니라 ‘책임 있는 화법’을 갖춘 존재로 진화해야 한다. 그리고 이 책임은 개발자의 선의나 사용자 주의에 맡겨져서는 안 된다. 체계적인 검증과 제도적 인증을 통해, AI가 사회적 기준 안에서 말하도록 유도해야 한다.

특히 GPT처럼 언어 기반으로 작동하는 AI 서비스는 무심코 주고받는 문장 하나가 편향과 왜곡을 담을 수 있어, 이를 통제할 최소한의 안전장치로 윤리 인증이 떠오르고 있다.

전문가들은 앞으로 챗봇, 상담형 AI, 금융 안내 서비스 등 언어 기반 AI가 늘어나는 상황에서, 윤리 인증은 단순한 선택이 아니라 필수가 될 것으로 본다. 특히 공공기관이나 대기업에서 민감한 정보를 다루는 AI 서비스는, 이런 인증을 통해 사용자와 사회의 신뢰를 확보해야 할 필요성이 커지고 있다.