‘인간 닮은 AI’ 아닌 ‘인간화된 AI’가 바람직
전문가들, 생성AI, LLM 등의 위험 해소 위한 AI얼라인먼트 강조 “‘개성’․‘페르소나’는 금물, ‘인간을 이해, 공감하는’ 프로그래밍 필요” 데이터․학습․평가 얼라인먼트 제시…초점은 ‘의인화’ 아닌 ‘인간화된 AI’
[애플경제 김홍기 기자] AGI와 같은 위험한 AI로부터 인류를 보호하기 위한 AI얼라인먼트(AI Aignment) 기술과 필요성이 강조되고 있다. 즉 AGI가 인간 통제력을 벗어나거나, 인간이 의도한 것과는 다른 방향으로 구현하는 경우 등을 막기위한 것이다. 이같은 AI얼라인먼트를 통해 궁극적으로는 인간을 모방하거나 닮은 AI가 아니라, ‘인간화된 AI’, ‘인간과 공감하는 AI’를 개발해야 한다는 주장이다. AI가 인류에게 끼칠 해악을 막고, AI에 대한 두려움을 해소하기 위해 반드시 그런 노력이 필요하다는 목소리가 설득력을 얻고 있다.
이에 AI의 위험과 유해함을 예방하기 위한 기술과학적, 인문학적 대안이 속출하고 있다. 그런 가운데 최근 설득력있는 대안은 AI데이터와 학습, 그리고 AI평가 등을 아우르는 AI얼라인먼트 기술이다. 동시에 인간을 위해, ‘인간을 이해하고 공감하는 AI’의 개발이 강조되고 있다. AI얼라인먼트 기술을 바탕으로 ‘인간과 공감하는 AI’를 개발해야 한다는 것이다.
국내 전문가들 간에도 이런 주장을 펴는 목소리가 힘을 얻고 있다. 한상기 테크프런티어 대표는 최근 AI얼라인먼트에 대해 “인간이 원하는 일을 AI가 하고자 하게 만드는 것이며, 운영자의 의도에 맞게 작동하는 강력한 AI 시스템을 만드는 문제”라고 정의했다. 정보통신기획평가원을 통해 공개한 연구보고서를 통해 그는 특히 “LLM이 발전하면서 얼라인먼트의 문제는 더욱 어려워지고 있으며, 첨단 LLM의 규모가 거대하고 복잡하며, 그 능력도 점점 더 다양한 영역으로 증가하고 있다”고 AI얼라인먼트의 절실함을 강조했다.
데이터와, 학습, 평가 세 부문의 AI얼라인먼트 연구 진행
그러면서 그는 중국 화웨이의 ‘노아의 방주 랩’ 논문을 인용, 데이터와, 학습, 평가 세 부문에 걸친 AI얼라인먼트 연구에 주목했다.
이에 따르면 데이터 부문의 AI얼라인먼트는 우선 LLM 얼라인먼트를 위한 고품질의 지시(인스트럭션)를 먼저 효과적으로 수집하는 것이다. 이를 위해 NLP(자연어 처리) 벤치마크를 사용하거나, 사람을 통한 어노테이션(주석)이나, 더 강력한 LLM을 활용하는 방법이 있다. 특히 “인간의 기대에 맞춰 LLM을 조정하려면 인간의 요구와 기대를 진정으로 반영하는 고품질 학습 데이터 수집이 필요하다”는 것이다. 이를 위해 다시 연구자들은 ‘인간이 작성한 지시’, ‘강력한 LLM에서 구한 지시’, ‘지시 데이터 관리’ 세 분야에 걸쳐 연구를 진행하고 있다.
또 데이터에 이어 ‘학습’ 분야의 AI얼라인먼트 연구는 인간의 선호도를 더 효율적이고 안정적으로 반영하거나, LLM 얼라인먼트를 위한 계산 부담을 줄이고 효율성을 개선하기 위해 파라미터를 효율적으로 사용하는 방법 등이 있다. 또 인간 선호도를 랭킹 기반 학습 신호로 고려하거나, 언어 기반의 피드백을 통해 학습의 안정성과 성능 향상을 꾀한다.
이는 “기본적으로 수집한 지시 데이터를 사용해 기본 LLM을 미세 조정하는 것”으로 “가장 널리 알려진 솔루션은 SFT라고 말하는 감독 미세 조정”이란 설명이다. 이는 다시 ‘온라인 인간 선호도 학습’, ‘오프라인 인간 선호도 학습’, ‘파라미터를 효과적으로 미세 조정하는 솔루션’으로 구분하고 있다.
얼라인먼트 결과에 대한 ‘평가’도 중요하다. 이를 위해 다양한 평가 벤치마크를 만들거나, 사람이 평가할 것인가, 아니면 LLM을 이용한 평가를 할 것인가, 또는 공동 평가할 것인가 등의 평가 종류가 있다. 또한 다양한 인간 중심의 LLM 평가 벤치마크와, LLM을 평가용으로 사용하는 등의 ‘자동 평가 프로토콜’도 있다.
인간의 모방 아닌, ‘인간 중심’ 시각으로 개발 임해야
이같은 기술적 AI얼라인먼트를 통해 ‘인간을 이해하고 공감하는 AI’가 궁극적 목표다. WCC테크, 테크크런치 등이 인용한 해외 전문가들은 “인간의 자질을 인식하고 해석하는 능력을 갖춘 차세대 AI 봇에 투자, 개발하는게 중요하다.”고 못박는다. 즉, 인간 중심 접근 방식을 사용하면 모든 사용자가 AI를 경험을 향상시키는 유용한 도구로 볼 수 있다. 그러면 일상 작업과 일상 생활에 AI를 통합하는 것에 대한 두려움이 줄어든다는 견해다.
흔히 AI기술이 발달할수록 AI의 방대한 지식과 능력에 대한 불안도 커진다. 문제는 개발자들이나 기업이 ‘이름’과 ‘개성’을 지닌 AI 챗봇을 만드는 데 주력하고 있다는 사실이다. 즉, AI를 ‘의인화’하고 있다는 얘기다. 이는 AI가 독립적인 사고를 가진 주체가 되고 있다는 두려움을 증폭시키는 원인이라는 지적이다. 특히 “AI 봇 페르소나를 할당하는 것은 매우 구체적인 사용 사례를 제외하면, 두려움만 안겨줄 뿐 사용자 경험을 개선하는 데 거의 도움이 되지 않는다”는 얘기다.
즉, “AI가 인간이 되는 것은 불가능하다”(AI is an impossible person.)는 대원칙에 충실해야 한다는 것이다. 대신, AI 발전은 상황 인식, 공감, 맞춤화 개선과 같이 유용성을 강화하는 품질에 초점을 맞추되, “사용자가 AI와의 상호 작용에서 더욱 큰 필요성과 공감을 할 수 있도록 해야 한다”는 것이다.
“AI의 미래는 자동화가 아닌 ‘공감’”
예를 들어 ‘알렉사’나 ‘시드니’와 같은 챗봇의 의인화된 ‘개성’을 미세조정하느라 애쓰기보단, ‘인간과 닮은 AI’가 아닌 ‘인간화된 AI’ 개발에 집중해야 한다는 주문이다. ‘인간’이 되거나, 인간과 닮기를 애쓰는 AI는 금물이다. 대신에 ‘인간화된 AI’는 사용자의 감정과 정서를 해석하고, 사용자의 고유한 요구에 맞게 반응하는 것이다.
이를 ‘인간화된 AI’를 위한 프로그래밍을 통해 AI봇은 좀더 의미 있고 자연스러운 상호 작용을 촉진하는 방식으로 인간을 ‘진정으로’ 지원할 수 있다. 즉 “AI는 인간 사용자에 대한 공감을 시뮬레이션할 수 있다”는 것이다.
다만 WCC테크는 “보다 인간화된 AI를 채택한다고 해서 인간 근로자가 대체된다는 의미는 아니다”고 단언했다. 물론 일부 직업은 점차 없어지겠지만, 그 공백을 메우기 위해 새로운 직업이 등장한다는 얘기다. 대신에, AI가 기업과 노동자들의 장점을 강화하고, 약점을 보완할 수 있는 강력한 도구로 인식되도록 개발되어야 한다.
그래서 AI의 응용 프로그램은 의사 결정 프로세스를 간소화하고, 작업을 자동화함으로써 생산성을 높이는 것 ‘이상’이다. 그런 경지에 도달하려면 역시 “AI가 인간화되고 공감할 경우에만 가능하다”는 것이다.
즉, AI얼라인먼트는 ‘인간화된 AI’ 개발에 우선 순위를 두어야 한다. 이를 위해선 작업을 효율적으로 수행하는 것은 물론, 인간의 뉘앙스를 이해하고, 개인 선호도에 적응하며 일상 경험을 향상시키는 AI시스템을 설계해야 한다. 그래서 “인간과 AI 사이의 공생 관계를 조성함으로써 두려움 없이 상호 작용을 강화하는 것이 AI얼라인먼트의 목적이 되어야 한다”는 얘기다.