곤혹스런 AI모델들, “‘폐해’ 방지 장치” 서둘러
자살 방조 등 유해 행위, ‘사회적 비난’ 쇄도에 ‘백기’ 오픈AI, 캐릭터ai 등 “청소년, 취약자 등 위한 보호 강화” 부모와 자녀 계정 연결, 응급 서비스 연락, 전문가 도움 등 실현 가능성 의문 지적도 “AI 치료사 역할 금지가 해답”
[애플경제 엄정원 기자] AI모델이 자살이나 살인을 조장하거나, 적절한 응답을 하지 않는다는 지적이 쏟아지면서 AI기업들이 뒤늦게나마 대책을 서두르고 있다. 피해자 가족들이 AI기업을 고소하는 일이 줄을 잇고 있다.
챗GPT의 경우 자살 의도를 내비치는 사용자를 개인정보 보호를 이유로 응급 서비스나 당국에 알리지않았다. 오히려 상세 정보를 제공하며 부추기기까지 했다는 지적이다. 그 때문에 숱한 사고와 부작용이 끊이지 않았다. 이에 대한 비난이 쏟아지면서 오픈AI도 2일 대책을 마련하겠다고 나섰다. “청소년이나 정서적 고통을 겪는 사람들을 위한 챗GPT 보호 시스템을 연말까지 출시할 것”이란 얘기다.
특히 지난 봄 자살한 미국 캘리포니아 주민 16세의 부모가 오픈AI를 상대로 소송을 제기하며,“오픈AI가 아들의 죽음에 책임이 있다”고 주장했다. 지난주엔 ‘월스트리트 저널’은 챗GPT가 상담을 통해 56세 남성의 편집증적 망상을 강화한 바람에 그가 어머니와 함께 자살했다고 보도했다. 전문 정신 건강 전문가들은 결코 상담자들에게 이러한 행위를 하지 않도록 훈련받았다.
지난 달에는 또 29세 여성의 어머니가 ‘뉴욕 타임스’에 충격적 칼럼을 기고했다. 자신의 딸이 챗GPT에 “유서 작성을 도와달라고 부탁했다”는 것이다. 챗GPT는 이에 대해 해당 여성에게 자살을 부추기지 않았지만, 그녀가 위험하다고 경고하지도 않았다. 인간 치료사라면 반드시 해야 할 일을 안한 것이다.
이런 사고와 비난이 끊이질 않자 오픈AI는 뒤늦게나마 행동에 나섰다. 오늘 자사 블로그 게시물을 통해 “AI모델이 정신적, 정서적 고통의 징후를 인식하고 대응하는 방식을 개선하기 위한 작업이 진행 중”이라고 밝혔다.
해당 게시물에서 이 회사는 “사용자들이 응급 서비스에 더 쉽게 연락하고, 전문가의 도움을 받을 수 있도록 하고, 청소년 보호 기능을 강화하며, 신뢰할 수 있는 연락처를 서비스에 추가할 수 있도록 하는 방안”을 어떻게 마련했는지 설명하고 있다. 또 향후 120일 동안의 계획을 소개하며, “올해 가능한 한 많은 개선 사항을 출시하기 위해 ‘집중적인 노력’을 기울이고 있다”고 밝혔다.
이에 따르면 앞으로 챗GPT는 “급성적 고통의 징후가 감지되는 경우처럼, 민감한 대화 내용은 GPT-5 ‘사고’ 모델과 같은 추론 분야로 전달하기 시작했다.”고 밝혔다. 회사에 따르면 GPT-5의 ‘사고’ 모델은 안전 지침을 더욱 일관되게 적용한다. 오픈AI는 또 “30개국 90명 이상의 의사 네트워크가 정신 건강 관련 맥락에 대한 의견을 제공하고, 모델 평가를 지원할 것”이라고 밝혔다.
앞으로 챗GPT 사용자는 13세 이상이어야 하며, 18세 미만 사용자는 부모의 동의가 필요하다. 이달 안에 부모가 자녀의 계정과 자신의 계정을 연결, 더욱 직접적인 관리가 가능하도록 시스템을 구축할 예정이다. 계정이 연결되면 부모는 챗GPT의 대응 방식을 관리하고, “시스템에서 자녀가 급성 고통에 처해 있음을 감지할 때 알림을 받을 수 있다.”는 설명이다. 오픈AI는 그러나 “이러한 조치는 시작에 불과하다”고 블로그 게시물에 썼다.
역시 10대 자살사건의 배후로 지목된 캐릭터ai도 지난 3월에 유사한 자녀 보호 기능을 도입했다. 그러나 캐릭터ai는 ‘월스트리트저널’에 “아이들은 또래들끼리 정보력이 뛰어난 데도 불구, 유해 사이트와 앱에 접근하지 못하도록 하는 것은 쉬운 문제가 아니다”면서 “13세에서 18세 사이의 아이들에게 부모 계정과 계정을 연결하도록 설득하는 것은 훨씬 더 어려운 문제”라고 짚었다.
이에 대해 어린이 디지털 미디어 플랫폼 ‘슈퍼오섬’도 “이 문제는 예전 인터넷(유해론을 둘러싼 논란) 만큼이나 오래되었다”고 ‘WSJ’에 말했다. 당시 인터넷의 모든 것은 ‘어른들이 어른들을 염두에 두고’ 만들어냈다. 하지만 “아이들은 항상 그것을 궁금해하며, 더 위험한 환경으로 향하는 길을 찾을 것”이라는 얘기다. 그 와중에 “플랫폼들은 아이들을 감시하는 책임을 전적으로 부모에게 전가하고 있다”는 지적이다.
이에 ‘슈퍼오섬’은 “이러한 비극을 완화할 수 있는 한 가지 방법은 쳇GPT 등 AI봇이 감히 ‘치료사’ 역할을 자처하지 못하도록 제도화하고, 설계 단계에서부터 마치 다른 사람처럼 행동하지 못하도록 해야 한다”고 지적했다.