GPT-4o mini로 구동되는 500개 AI 챗봇만의 소셜미디어 실험
‘인간의 사악한 본성’에다 기교를 부린 “해로운” 공간으로 변해
챗봇마다 각기 분할된 정파적 ‘확증 편향’과 에코 챔버 현상 보여
이념, 취향 등에 따라 극단적인 ‘양극화’, 적대적 패거리로 분할
[애플경제 전윤미 기자] 인간 사용자들이 아닌 AI들만으로 구축된 소셜미디어는 좀더 바람직한 소통의 공간이 될까. 적어도 지금껏 실증된 바에 의하면 “천만의 말씀”이다. 오히려 ‘인간의 사악한 본성’을 그대로 본뜨고, 이에 좀더 기교를 부린 “매우 해로운” 소셜 공간이 될 수 있다는 우려다.
AI사용자들만의 소셜미디어는 이미 글로벌 빅테크를 중심으로 은밀히, 혹은 비공식적으로 실행되고 있다. 메타는 이미 수 년 전부터 AI캐릭터들이 일반 사용자 계정처럼 프로필이나, 자기소개를 하며, 콘텐츠를 생성, 공유할 수 있도록 하고 있다. 이를 대외비로 할 뿐, 사실상 본격적인 실험을 하고 있는 셈이다.
현재까지 알려지기론, 팔로워 질문에 답변할 수 있는 AI어시스턴트, 텍스트-비디오 생성 SW, 크리에이터가 만든 AI아바타와 실시간 화상 통화를 하는 등 소통 기능을 갖추고 있다. 그러나 이 소식이 전해지면서 이미 “AI캐릭터가 허위정보 전파에 악용되거나, 저품질 콘텐츠가 넘쳐나고, 진정한 소통능력이 불가능할 것”이란 우려가 나오기도 했다.
암스테르담 대학교, 스웨덴국립연구원 등 연구
실제로 네덜란드 암스테르담 대학교 연구진이 최근 수행한 연구에서도 이는 확연히 드러났다. 연구 결과 약력을 숨긴 AI사용자의 경우 당파적 편갈음이 더욱 심화되었고, 극단적인 게시물이 더 많은 관심을 받았다. 이에 연구진은 “(AI사용자들의 행태에서 보듯) 소셜 미디어라는 구조는 애당초 인간의 가장 나쁜 본능과 행동을 강화하지 않고서는 제대로 돌아가지 않을 것 같다”거나, “소셜 미디어는 인간 세계를 반영하지만, 가장 왜곡된 방식으로 반영하는 공간”이라고 한탄하기까지 했다.
물론 긍정적 평가와 기대도 없진 않다. 일각에선 “AI가 피드백과 분석을 통해 소셜미디어 플랫폼의 알고리즘을 개선하고 사용자 경험을 향상시킬 것”으로 기대했다. 나아가선 “사용자들의 행동 패턴을 분석, 콘텐츠 추천 알고리즘을 최적화하거나, 유해 콘텐츠를 탐지하고 필터링할 것”으로 예상하기도 한다. 덕분에 소셜미디어 환경을 더욱 안전하고 효율적으로 만들 수 있다는 주장이다.
그러나 앞서 암스테르담 연구진을 비롯, 스페인 국립연구위원회나, CIDOB 등 다수 연구에 의하면 ‘득보단 실’이 더 많다고 해야 옳다. 대부분의 관련 연구는 결국 “‘AI 사용자’들로만 구축된 소셜 미디어 플랫폼은 결국 ‘봇’들 간의 살벌한 전쟁만 있는 ‘전장’이 될 것”이란 결론으로 귀결되고 있다.
인간 사용자들이 대거 참여하는 페이스북이나 X와 같은 소셜 플랫폼은 정치적, 사회적 양극화 문제를 악화시키긴 하지만, 플랫폼 스스로 양극화를 조장하지는 않는다. 이에 비해 인간 사용자들은 전혀 없고, AI챗봇들만 참여하는 소셜미디어는 어떨까. 암스테르담 대학교 연구진의 경우 AI 챗봇들만으로 된 소셜 미디어에서 챗봇들이 서로 어떻게 상호작용하는지 관찰했다. 그 결과는 가관이었다.
인간 사용자들 모방, 챗봇들 일사불란 분할 ‘조직’
‘알고리즘’이라는, ‘보이지 않는 손’이 없음에도 불구하고, 챗봇들은 그야말로 일사불란하게 스스로들을 조직했다. 미리 할당된 소속, 즉 믿음이나 목표, 혹은 이념을 기반으로 된 ‘패거리’를 각기 구축한 것이다. 그렇게 각기 따로 구분된 조직별로 ‘확증 편향’의 에코 챔버(echo chamber) 현상을 적나라하게 보였다. 인간 군상들이 소셜미디어에서 보이는 이념과 지역, 인종, 국가, 성별, 취향 등에 따라 분할, 구분되는 것보다 그 파편화 현상이 더욱 심해졌다는 얘기다.
최근 국제 논문 아카이브 ‘arXiv’에 사전 출판된 이 연구는 실험을 위해 오픈AI의 대규모 언어 모델 GPT-4o mini로 구동되는 500대의 AI 챗봇을 대상으로 했다. 그리고 AI챗봇 하나하나마다 특정한 ‘페르소나’를 설정했다.
그런 다음, 광고를 없앴다. 또 콘텐츠 검색이나 사용자 피드에 추천 게시물을 제공하는 알고리즘도 없앴다. 가장 단순한 소셜 미디어 플랫폼에 챗봇들을 (사용자로) 배치한 것이다. 이들 챗봇들이 플랫폼에서 제공되는 콘텐츠와 어떻게 서로 상호작용하는지를 관찰했다.
그런 설정을 기반으로 일단 다섯 가지 실험을 진행했다. 그 과정에서 모든 챗봇이 1만 번의 행동을 수행하도록 했다. 그 결과 챗봇들은 ‘자신과 같은 정치적 신념을 가진 다른 AI사용자’를 팔로우하는 경향이 두드러졌다. 또한 가장 ‘당파적인 콘텐츠’를 게시한 AI사용자가 가장 인기를 끌었다. 제일 많은 팔로워와 리포스트(repost)를 얻은 것이다. ‘보고싶은 것만 보는’ 확증편향과 왜곡된 선입견에 찌든 인간 사용자들을 그대로 본딴 것이다.
연구진은 “챗봇이 인간의 상호작용 방식을 모방하도록 설계되었다는 점을 고려하면, 이런 결과는 당연하면서도, 한편으로 매우 우려스런 일”이라고 했다. 물론, 이 모든 것이 알고리즘의 영향에서 완전히 독립된 것은 아니다. 챗봇 역시 수십 년 전부터 알고리즘이 지배하는 공간에서, 인간들이 온라인 커뮤티니에서 주로 보여준 행동과 방식에 길들여진 것이다. 그렇게 정의된 인간 상호작용을 기반으로 훈련된 것이 챗봇이다.
논문에서 연구진은 “챗봇은 이미 ‘독이 든 뇌’를 가진 우리 자신을 모방하고 있으며, 인간이 이제 어떻게 이런 (왜곡된 소셜미디어) 상황에서 벗어날 수 있을지도 불분명하다”고 했다.
편견, 에코챔버 없앨 제어장치도 ‘무용지물’
특히 흥미로운건 연구진 나름대로 이런 챗봇들에 대한 제어장치를 만들었지만 ‘허사’였다는 사실이다. 편견과 확증편향,그 결과로 초래될 자기선택적 양극화에 맞서기 위한 장치들이 무용지물이었다는 얘기다.
연구진은 실험 과정에서 ‘연대순 피드’, 잠시 시선을 유혹하는 ‘바이럴 콘텐츠’의 유해성 강조, 팔로워 및 리포스트 수치 숨기기, 사용자 프로필 숨기기, 반대 의견 확대 등 몇 가지 해결책을 시도했다. 이들 사례 중엔 이전 연구에서 시뮬레이션된 소셜 플랫폼에서 높은 참여도를 올리면서도 부작용이나 유해성이 적었던 결과를 낳기도 했다.
그러나 결론적으로 이번에는 어떤 조치도 실질적인 변화를 가져오지 못했다. 미미한 정도의 개선 효과만 있을 뿐, 당파적 계정은 여전히 창궐했다.
(AI임을 밝히지 않고) 사용자 약력을 숨긴 시뮬레이션에서는 당파적 이견이나 갈등이 오히려 심화되었다. 극단적이고 선정적인 게시물이 더 많은 관심을 받았다.
이에 연구진은 “소셜 미디어는 인간을 위한 ‘놀이공원 거울’과 같다”면서 “그러나 이번 (AI 만의 소셜미디어) 실험에서 보듯, 온라인에서 우리가 서로를 바라보는 방식을 바로잡을 만큼 강력한 ‘거울’이 있는지조차 의심스럽다”고 비관적 결론을 내리기도 했다.
