사람과 감정 교감 ‘감정 AI’? “원천적으로 불가능”

한때 새로운 트렌드, “그러나 기계에 사람의 ‘감정’ 이식 불가” 사람의 표정, 감정 기복 등 모방? “내면의 심리상태는 모방 못해” 법적으로도 용납 안돼…‘이모션 AI’는 업계 일각의 희망사항?

2024-09-02     이보영 기자
(사진=셔터스톡)

[애플경제 이보영 기자] 수 년 전부터 이른바 감정AI 또는 ‘이모션 AI’(Emotion AI)가 오르내리고 있다. 즉, 기업이 AI로 전환할 경우, 새롭게 적용한 AI봇이 고객들의 편의뿐 아니라, 감정을 더 잘 이해하도록 하는 기술이다. 한때 실리콘밸리 등 해외는 물론, 국내에서도 ‘감정AI’가 하나의 새로운 트랜드 중 하나로 주목받기도 했다. 그러나 정작 이는 기술적 문제는 물론, 법적, 제도적으로 본격적으로 현실화하긴 힘들 것이란 전망이 설득력을 얻고 있다.

특히 인간의 미묘한 감정변화를 AI챗봇이 모방하는 것은 원천적으로 불가능하다는 지적이다. 설사 애써 모방을 시도한다고 해도 인간의 표정 변화 등 안면인식을 불법으로 규정한 AI 규제법 등에 저촉될 우려가 크다. 그런 이유로 감정 AI 개발은 그야말로 희망사항에 그칠 공산이 클 것으로 보인다.

불법화된 ‘안면인식’ 기술 등 법적 규제도

더욱이 AI가 사람의 미묘한 감정변화를 읽어내는 것 자체가 가능하지 않을 것이란 지적이다. 만약 AI 챗봇을 인간 영업 사원이나 고객 서비스 담당자 대신에 배치할 경우에도 문제가 된다. 고객들이 같은 말이라도 화가 나서 “무슨 말이에요?”라고 묻는 경우와, 사안을 이해하지 못한채 혼란스러워서 “무슨 말이에요?”라고 되묻는 말에 실린 억양과 감정을 AI챗봇은 이해하기 어렵다는 얘기다. 음성만 듣고 그 사람의 감정 변화를 기계가 읽어내는 것은 불가능한 셈이다.

감정 AI는 텍스트 기반 상호작용, 특히 소셜 미디어들이 사용자의 감정을 추출하려는 AI 기술인 ‘감정 분석’기술을 더 정교하게 다음은 형태라는 주장도 있다. 그런 점에서 감정 AI 역시 ‘멀티모달’이라고 할 수 있다. 즉 시각, 청각 등 다양한 감각을 포착할 수 있는 센서가 기본이다. 이를 다시 기계 학습이나 심리학과 결합, 기계와 인간의 상호작용을 통해 인간의 감정을 감지하는 것이다.

이미 주요 AI 클라우드 공급업체들은 나름대로 ‘감정 AI’를 상용화하고 있다. 마이크로소프트 애저의 ‘인지 서비스’ 중 이모션 API이 이와 비슷하다. 또 AWS의 ‘인식(Rekognition) 서비스’ 역시 개발자가 감정 AI 기능에 액세스할 수 있도록 하고 있다. 그러나 이 경우는 수 년에 걸쳐 지금까지 그 성능을 두고 논란이 이어지고 있다.

사진은 본문과 직접 관련은 없음.

‘감정AI’ 표방한 제품들, “실제 완전한 솔루션 아냐”

이처럼 클라우드 서비스로 제공되는 감정 AI는 그렇다고 전혀 새로운 것은 아니다. 서투르나마 일부 감정이 실린 사람의 음성을 모방한 것에 불과하다. 그럼에도 “AI 보조원의 확산과, 완전 자동화된 인간-기계 상호작용으로 감정 AI는 더욱 인간과 유사한 해석과 응답을 가능하게 할 것”이라는 기대가 없진 않다.

이에 따르면 특히 카메라와 마이크는 감정 AI의 하드웨어 측면에서 필수적이다. 이는 노트북, 휴대전화 또는 물리적 공간에 개별적으로 장착될 수 있다. 또한 웨어러블 하드웨어 역시 감정 AI를 사용할 수 있는 또 다른 수단을 제공할 가능성이 높다.

이에 많은 신생 기업들이 이른바 ‘감정 AI’를 표방한 제품을 출시하고 있다. 예를 들어 유니포어, 모프캐스트(MorphCast), 보이센스(Voicesense), 슈퍼시드, 시에나 AI, ‘audEERING’, 옵시스 등이 그런 사례다. 이들 스타트업들은 다양한 VC로부터 필요한 자금을 조달, R&D에 열을 올리기도 한다.

피치북은 “물론 감정 AI는 실리콘 밸리에서 적극 개발되면서, 인간과 함께 기술을 사용함으로써 발생한 문제를 해결할 수 있을 것”이라며 “그러나 대부분의 AI 봇이 결국 어떤 형태의 자동화된 공감을 얻게 되더라도 이 솔루션이 실제로 작동한다는 것은 아니다.”고 전망했다.

사실, 지난 2019년경 실리콘 밸리에서 감정 AI가 뜨거운 관심을 받기 시작한 시기부터 연구자들은 ‘감정AI’라는 아이디어를 두고 혼선을 겪었다. 당시는 AI/ML 세계의 대부분이 생성 언어와 예술보다는 컴퓨터 비전에 여전히 집중하고 있던 때였다. 그해, 연구자들은 ‘감정AI 연구에 대한 메타 리뷰를 발표하고 “인간의 감정은 실제로 (AI에 의한) 얼굴 움직임으로 결정할 수 없다”는 결론을 내렸다. 다시 말해, 사람의 얼굴 표정, 바디 랭귀지, 음성 톤을 모방해 인간의 감정을 감지하도록 가르칠 수 있다는 아이디어는 그 가정부터가 잘못된 것이라는 결론이다.

EU ‘AI법’ 등 “인간의 감정실린 표정 모방은 불법”

또한 ‘감정AI’는 애초 현행 법규나 제도로 인해 상용화가 불가능한 실정이란 지적도 따른다. 교육 등 특정 분야에서 컴퓨터 비전의 ‘감정 감지’ 기술을 금지하는 유럽 연합의 AI법이 대표적이다. 이같은 AI 규제는 ‘감정 AI’ 라는 기술 아이디어를 싹에서부터 잘라낼 가능성도 크다는 전망이다. 실제로 미국 일리노이주의 BIPA와 같은 일부 주법도 허가 없이 생체 인식 판독값을 수집하는 것을 금지하고 있다.

다시 말해 AI 봇이 사람이 하더 고객 서비스나, 영업, HR 등의 ‘인간적’ 작업을 하기 위해 스스로 감정적 이해를 시도할 수 있길 기대해선 안 된다는 주문이다. 또 그런 감정적 감수성이 필요한 작업에는 결코 적합하지 않다는 뜻이다. 그래서 앞서 피치북은 “현재 일상적 사무공간에서 쓰이고 있는 시리(Siri) 수준의 AI 봇이 아마 더 적합할 수도 있다”며 “만약에 회의 중에 실시간으로 모든 참석자들의 감정을 읽어내고, 그 생각을 추측해내는 AI봇이 있다면 오히려 그야말로 ‘재수없고 끔찍한 일’이 아닐까”라고 반문하기도 했다.