영상 기반 감정변화, 시선, 제스처, 반복행동 등 AI로 탐지․분석
“자폐증세 조기진단, 대처…게임, 로봇, 노인 케어 SW개발에도 유용‘
[애플경제 이윤순 기자] AI기술을 이용해 조기에 정확하게 ‘자폐’(자폐스펙트럼장애, ASD) 여부를 알아낼 수 있게 되었다. 최근 국내에서 ASD 선별을 위해 영상을 기반으로 감정 기복과, 시선, 성별/나이, 제스처 등을 인식하고, 반복 행동 검출, 분류하는 ‘ASD 선별 AI 플랫폼 SW’ 기술이 개발되었다. 이를 통해 정확한 행동 인식을 통해 자폐 여부를 선별하는 것이다.
구체적으로 영상을 기반으로 감정상태를 예측하고, 감정변화를 추적한다. 또 성별과 나이를 예측하며, 헤드 포즈, 즉 머리를 흔들거나 고갯짓을 하는 등의 동작도 분석하고, 이름을 불렀을 때 어떻게 반응하는지도 탐지한다. 특히 시선과 눈맞춤을 통해 반응을 탐지하고, 반복적인 행동을 검출하거나, 제스처를 인식하는 등 비언어적 반응도 분석한다. 이를 개발한 한국전자통신연구원은 “이런 점을 모두 탐지, AI 요소기술을 통해 이를 분석하는 ‘ASD 선별 AI 통합 플랫폼 SW’ 기술”이라고 설명했다.
조기진단으로 사회적 비용 크게 절감
조기진단이 절실히 필요한 ASD 유병률은 국내의 경우 38명 중 1명(2.64%)으로 높은 수치아 함께 빠른 증가율을 보이고 있다. 미국의 경우도 2016년엔 54명 중 1명, 2018년 44명중 1명, 2020년 36명 중 1명으로 보고되고 있다.
ASD는 많은 어린이들이 12~24개월 사이, 심지어 12개월 이전에도 증상이 나타나는 것으로 보고되었다. 그러나 실제 진단되는 연령은 부모가 어린이의 발달에 대해 처음 인지하는 시점으로부터 3~9년이 소요되는 것으로 보고되고 있다.
그러나 기존 ASD 선별 도구들은 사용을 위한 훈련 과정이 오래 걸린다. 또한 전문가의 경험과 능력에 따라 진단의 일관성이 존재하지 않는다. 특히 “1명의 어린이를 진단하는 데 최소 6~7시간의 검사 시간이 걸리고, 투입되는 자원도 매우 방대하여 많은 어려움이 있다”는 지적이다.
이에 “ASD의 조기 발견과 조기 개입은 어린이의 발달 과정에서 소요되는 사회적 비용을 절감하고, 2차적인 사회적 상호작용의 문제, 독립적인 발달을 이루는 문제들을 해결하는 데 중요한 해결책으로 작용하고 있다”는 지적이다.
따라서 “다양한 사회적 상호작용을 인식할 수 있는 인공지능(AI)기술이 필요하다”는 얘기다. 이를 통해 ASD 선별 평가도구 기반의 영유아 상호작용을 유도, 개인 특성정보나, 감정변화, 시선/헤드포즈, 제스처, 반복 행동 등을 탐지, 분석하는 것이다.
연구원은 “ASD 선별을 위한 AI 요소기술을 필요로 하는 관련 산업체에 기술이전할 것”이라며 “이를 통해 관련 IT 제품과 로봇 등에 대한 경쟁력을 높일 뿐만 아니라, ASD 탐지 등 다양한 서비스 분야를 확보, 사회문제 해결에도 기여할 수 있을 것”이라고 전망했다.
기술의 특징과 효용성
특히 이 기술은 “세계 최초로 IT-의료-심리 분야의 융복합 연구를 통한 것”이라고 했다. 이를 통해, ASD 선별 평가도구를 적용한 상호작용을 유도, 인지능력이나 심리적 변화에 대한 객관적이고 정량적 평가를 효율적으로 할 수 있는 AI 기반의 해결 방안을 제시했다는 설명이다.
연구원은 “해당 연구를 통해 영유아의 비언어적 반응이나, 감정 예측, 상동행동 분석을 통한 사회적 상호 작용 인지 기반의 ‘ASD 선별 AI 플랫폼 SW’ 시작품을 개발할 수 있었다”면서 “세계적 수준의 다양한 비언어적 의사소통을 인식한 핵심 요소기술도 확보했다”고 밝혔다.
이는 자폐스펙트럼장애 선별과 평가, 진단 지원 분야에 널리 쓰일 전망이다. 즉, ASD 조기 선별검사 기술로 활용, “조기 진단과 조기 개입을 통한 보육과 교육에 대한 접근성을 높일 수 있는 기술로 활용할 수 있을 것”이라고 밝혔다. 이는 또 유아원이나 일반가정 등에서 자체 또는 원격 ASD 선별평가를 위해 쓰인다. 또 의료기관의 소아․청소년과 ASD 진단을 지원하고, 발달증진센터나 보육시설 등의 ASD 선별 공공 서비스에도 도움을 준다. “나아가선 ASD 중재와 훈련, 중재 등을 통한 상호작용 인지 기술 개발이 활성화될 것”으로 기대했다.
이 기술은 또 지능형 로봇, HRI/HCI, 환자 모니터링 및 행동 분석, 엔터테인먼트 분야에도 쓰일 정망이다. 즉, 감정의 상태나 변화를 예측, 추적함으로써 CRM 서비스, 소셜로봇, 게임기나 콘텐츠 SW 등을 개발할 수 있다. 헤드포즈나 시선, 눈맞춤을 검출, 추적함으로써 환자를 모니터링하고, 서비스 로봇이나, 어르신 케어를 위한 SW도 개발할 수 있다.
또한 반복적 행동을 인식함으로써 스포츠, 헬스 모니터링, 독거노인 행동분석을 위한 SW도 개발 가능하다.
연구원은 “감정 인식 기반의 HCI/HRI, 건강정보 모니터링, 심리인지, 안전운전 지원 등의 매우 다양한 분야에 응용할 수 있고, 연구 결과를 토대로 기존 기술의 한계를 극복할 수 있을 것”이라고 밝혔다.
또한 “현재 15.3%에 불과한 정신건강 서비스 이용률을 개선함으로써, 연간 8조 원이 넘게 발생하고 있는 사회적 비용을 대폭 줄일 수 있을 것”이라며 “만약 1%만 낮추어도 연간 800억 원의 사회비용을 절감하는 효과가 발생할 것으로 기대된다”고 했다.
