“AI는 ‘사람’ 아님” 보여주는 AI봇 ‘분기 대화’ 기능

채팅 맥락 잃지 않고도 동시에 여러 경로 ‘비선형 대화’ 가능 맥락 잃으면 ‘중구난방’ 인간과 달리 ‘여러 버전’의 가지 치기 ‘AI≠인간’ 깨닫고, “되감기거나 리디렉션 가능한 유연한 도구” 각성

2025-09-07     엄정원 기자
챗GPT 프롬프트와 출력 화면. (출처=언스플래시)

[애플경제 엄정원 기자] 챗GPT의 새로운 분기(分岐, branching) 기능은 AI 챗봇이 사람이 아니라는 점을 다시 한번 일깨워준다.

챗GPT는 사용자가 하여금 원래 채팅 스레드(맥락)를 잃지 않고도, 동시에 여러 주제(경로)의 대화를 이어갈 수 있는 ‘비선형적’ Q&A 기능을 선보였다. 오로지 같은 맥락의 대화, 즉 선형적 대화만이 가능한 인간의 화법과 다른 것이다. 그러면서도 ‘중구난방’이 되기십상인 인간과는 달리, 일관된 맥락으로 연결될 수 있다. 즉 AI챗봇은 결코 사람과는 근본적으로 다르다는 점을 새삼 인식하게 한 특성이다.

앤스로픽 ‘클로드’ 이어 챗GPT 한층 강화

하긴 이 기능은 오픈AI가 처음은 아니다. AI 업계에서는 이미 이런 기능이 새로운 것이 아니다. 앤스로픽 역시 자사의 ‘클로드’에서 1년 전부터 제한적이나마 ‘대화 분기’ 기능을 제공해 왔다. 사용자가 탐색 화살표 버튼을 사용, 분기 사이를 오갈 수 있게 한 것이다. 이번 오픈AI가 다시 강화된 분기 기능을 출시하면서, 새삼 ‘기계’와 ‘인간’의 서로 다른, 본질적 의미가 부각된 셈이다.

앞서 오픈AI는 챗GPT 사용자가 “대화를 여러 개의 서로 다른 맥락의 대화를 동시에 이어갈 수 있다”고 발표했다. 이는 AI 챗봇이 고정된 관점을 가진 사람이 아니고, ‘되감기거나 리디렉션’할 수 있는 유연한 도구라는 점을 다시 한번 일깨워준 셈이다. 오픈AI는 지난 수 년 간 반복되었던 사용자들의 요청에 따라 모든 로그인 웹 사용자를 위해 이 기능을 출시했다.

사용자가 챗GPT 대화의 메시지 위에 마우스를 올리고 ‘추가 작업’을 클릭한 다음 ‘새 채팅에서 분기’를 선택하면 된다. 해당 시점까지의 모든 대화 기록이 포함된 새 대화 맥락이 생성되지만 원래 대화는 그대로 유지된다.

예전에는 챗봇과 대화할 때 한 번 특정 주제로 가면 그 맥락이 이어져, 다른 가능성을 탐색하려면 아예 새 대화를 시작해야 했다. 그러나 이젠 사용자가 어떤 답변에서 “여기서 다른 선택지를 탐색해보고 싶다”고 하면, 현재 대화를 복제한채 새로운 경로의 대화가 이어진다. 덕분에 사용자는 기존 대화를 잃지 않고, 여러 버전의 대화를 병렬적으로 살펴볼 수 있다.

챗GPT 작업을 묘사한 이미지. (출처=챗GPT)

챗GPT, 오픈AI가 스스로 설명하는 ‘브랜칭’ 기능

이에 대해 챗GPT가 스스로 설명하는 예시를 보면, 우선 “AI와 저널리즘의 미래에 대해 기사 초안을 써줘”라고 요청(프롬프트)한 경우를 들 수 있다. 이에 챗GPT는 하나의 버전을 작성해준다. 이에 사용자가 “좋아, 그런데 만약 비판적인 시각으로 쓴다면?” 하고 브랜치를 만들면, 기존 초안은 그대로 두고 새로운 대화 경로에서 ‘비판적 버전’의 초안을 받아볼 수 있다. 이렇게 하면 여러 초안을 동시에 비교할 수 있고, 원래 대화를 잃지 않는다.

즉, “한 가지 길로만 이어지던 대화를 이제는 나무가지처럼 여러 갈래로 확장할 수 있게 되었다”는 뜻이라는 설명이다.

사람과의 대화에서는 “분기(branching)”라는 개념이 자연스럽지 않다. 상대방과 대화하다가 “잠깐, 이 부분에서 대화가 다른 방향으로 전개됐다면 어땠을까?” 하고 그 장면으로 되돌아가 다시 새로운 대화를 이어가는 일은 불가능하다.

사람 간의 대화는 시간 흐름에 따라 선형(linear)으로만 전개된다. 한번 말한 내용은 기록으로만 남을 뿐, 실제 대화를 그 시점으로 ‘복제’해 다시 이어갈 수는 없다. 그런데 AI 챗봇은 다르다.

챗GPT의 분기 기능은 대화를 “나무가지처럼 여러 갈래로 확장”시켜 준다. 이는 바로 AI봇이 ‘인간’이 아니라, 기억과 문맥을 비선형적으로 다룰 수 있는 시스템(기계)이라는 점을 드러낸다. 즉, 대화 자체가 “시뮬레이션 가능한 정보 구조”임을 보여주며, AI가 사람과 똑같은 존재가 아니라는 점을 다시 각인시키는 것이다.

즉, 분기 기능은 “사람처럼 대화하는 AI”라는 환상보다는, “이건(AI봇과의 채팅은) 인간 대화가 아니라 정보 탐색을 돕는 도구”라는 사실을 더 명확히 드러내는 효과가 있다는 분석이다.

‘분기 대화’ 기능의 윤리적·철학적 의미?

오픈AI는 이에 대해 윤리적·철학적 관점에서 몇 가지 의미를 부여하고 있다. 오픈AI 블로그와 챗GPT 프롬프트에 대한 응답을 종합하면, 우선 인간과 기계의 차이를 재확인한 셈이다.

사람과의 대화는 시간 적 유한함이 있다. 한 번 한 대화는 되돌릴 수 없고, 오직 하나의 흐름만 존재한다. 반면에 AI 대화는 언제든 복제하고, 다시 시작하거나 분기할 수 있다. 이런 차이는 “AI는 사람을 흉내 내지만, 본질적으로는 기계적 대화 구조”라는 사실을 더 분명히 드러낸다.

‘분기 기능’은 또 “AI=준(準)인간, 혹은 의사(擬似) 인간”이란 환상을 붕괴시키는 것이다. AI와 오래 대화하다 보면, 마치 실제 (인간 혹은 인격체인) 대화 상대처럼 느껴지는 등 ‘의인화(anthropomorphism)’하는 경향이 있다. 그런데 분기 기능은 “대화가 하나의 고정된 인간 경험이 아니라, 복수의 가능성을 동시에 탐색할 수 있는 데이터 구조”임을 보여준다.

즉, 사용자가 “이는 사람처럼 생각하는 존재가 아니라, 기능에 불과하다”고 깨닫게 되는 것이다.

이는 또 AI챗봇의 활용도를 극대화할 수 있음을 보여준다. 인간처럼 중구난방으로 맥락을 읽은채 갈팡질팡하는게 아니라, 마치 탐색 가능한 ‘지식 지도’과 같은 기능을 한다. 사용자로선 AI를 한층 실용적이고 생산적인 방향으로 활용할 수 있다. 이를 활용하면, 대화나 질문을 이어가다가, 다시 맥락을 바꾼 다른 대화와 연결, 논리 정연한 텍스트를 완결할 수도 있다. 그래서 “기사 작성이나, 기획안 구상, 전략 시뮬레이션 등에서 여러 가지 시나리오를 동시에 펼쳐놓고 비교·선택하는 데 최적화된 기능”이란 설명도 나오고 있다.

AI봇 애플리케이션 이미지. (출처=언스플레시)

원본 버전 유지하며, 편집 ‘문서’ 새 사본 만드는 격

본래 LLM도 ‘선형 대화’만이 가능했다. 칭화대학교와 베이징이공대학교 연구진이 2024년에 실시한 연구에 따르면, LLM도 처음엔 선형 대화 인터페이스로 일관했다. 그래서 브레인스토밍이나, 구조화된 지식 학습, 대규모 프로젝트 분석 등 복합적 계층과 하위 작업을 포함한 시나리오엔 부적합했다. 즉 “(LLM의) 선형 상호작용이 사용자에게 이전 콘텐츠를 반복적으로 비교, 수정, 복사하도록 강요함으로써 인지 부하를 증가시키고 효율성을 저하시킨다”는 지적이었다.

그러나 앤스로픽에 이어 오픈AI가 ‘브랜칭’ 기능을 출시하면서 그런 종래 관점이 완전히 수정되어야 했다. 이젠 원본 버전을 안전하게 유지하면서 편집할 ‘문서’의 새로운 사본을 만드는 모양새가 되었다. 이 경우 ‘문서’는 축적된 모든 맥락을 포함하는 지속적인 AI 대화라고 할 수 있다.

예를 들어, 광고 카피를 브레인스토밍하는 마케팅 팀은 초기 설정은 동일하면서도 별도의 분기를 생성할 수 있다. 즉, 초기 설정에서 분기된 또 다른 어조, 유머러스한 접근 방식 또는 완전히 다른 전략을 테스트할 수 있게 된 것이다.

이에 챗GPT의 새 분기(branching) 기능은 대화를 여러 갈래로 확장할 수 있게 해 편의성을 높였지만, 동시에 AI가 인간과 본질적으로 다르다는 점을 다시 일깨운 셈이다. 인간의 대화는 시간적 연속성과 단일성을 지니지만, AI와의 대화는 언제든 복제·분기할 수 있는 비선형적 구조가 가능하게 되었다. 이는 결국 사용자가 AI를 사람처럼 착각하기보다, 다양한 ‘가능성을 탐색하는 도구’로 인식하게 했다. 또한 ‘AI=인간’이란 환상을 걷어내고 도구적 활용성을 강화한다는 점에서도 의미가 크다는 분석이다.