‘양자머신러닝’으로 기존 머신러닝 한계 극복
‘큐비트’ 특성 기반, 데이터 과부하 연산 속도 저하, 비용 증가 등 방지 ‘중첩’ 2ⁿ개→n개 큐비트 동시 표현, 기존 알고리즘보다 지수적 속도↑ 양자회로 기반 모델링 통해 양자 게이트와 매개변수를 조정, 학습 ‘간섭’으로 최적화, ‘양자데이터 재활용’ 양자신경망 표현력·학습 능력↑
[애플경제 전윤미 기자] 머신러닝은 흔히 대규모 데이터 세트에 필요한 연산 능력이 부족, 속도가 느려지는 경우가 많다. 또한 높은 연산 비용과 에너지를 소비한다는 점도 문제다. 그래서 날로 대규모 병렬 연산이 증가할수록, 기존의 알고리즘이나 하드웨어는 효율성을 충분히 발휘하지 못한다.
이에 양자컴퓨팅을 활용한 ‘양자 머신러닝’(QML)이 이를 보완하거나 대체할 방안으로 제시되고 있다. 나아가선 기존 머신러닝과 양자 머신러닝을 융합하는 ‘하이브리드’ 방식도 전문가들 사이에선 연구되고 있다.
양자의 중첩, 얽힘, 간섭 특성, 머신러닝에 접목
양자머신러닝은 양자의 중첩과 얽힘, 간섭 특성을 머신러닝에 접목한 것이다. 이런 특성에 의해 큐비트의 지수적 확장성에 의한 속도 향상을 기하고, 양자데이터 재활용으로 자원의 제약을 극복할 수 있다. 무엇보다 “양자컴퓨팅의 병렬 처리 능력을 활용함으로써 기존의 고전적 방법론으로는 불가능했던 대규모 데이터셋에 대한 실시간 분석과 학습이 가능해진다”는 전문가들의 설명이다.
성윤기 한국인터넷진흥원 사무국장은 최근 한 논문에서 “QML이란, 큐비트 형태의 양자데이터를 고전 머신러닝과 양자알고리즘으로 구현, 데이터를 분석하는 것”으로 설명하면서 양자데이터를 양자알고리즘으로 연산하거나, 고전적인 데이터를 양자알고리즘으로 연산하는 방식 등 6가지가 있다고 분석하기도 했다.
양자 머신러닝은 고전적인 머신러닝과 데이터 표현이나 처리 방식부터가 다르다. 기존 머신러닝은 이진(0, 1) 비트를 기반으로 한 선형 대수와 확률론적 방법론에 의존한다. 반면에 양자머신러닝은 큐비트의 ‘중첩’ 상태를 통해 차원이 다른 복합적인 정보를 동시에 처리할 수 있다.
예를 들어 입력 데이터가 ‘양자 상태 준비’ 과정을 거쳐 양자 시스템에 먼저 인코딩된다. 이는 학습할 수 있는 ‘양자 게이트’를 통해 처리된 후, 최종적으로 측정을 통해 결과값으로 변환되는 것이다.
머신러닝의 ‘차원의 저주’ 방지
정근홍 육군사관학교 교수는 최근 정보통신기획평가원을 통해 공개한 논문에서 ‘데이터 증가’에 따른 양자의 차이를 구체적으로 설명했다.
그에 따르면 우선 기존 머신러닝은 데이터 크기가 증가함에 따라 연산에 따른 비용이 선형 또는 다항적으로 증가한다. 또한 차원이 높아진 공간에선 이른바 ‘차원의 저주’(curse of dimensionality)로 인해 패턴을 인식하는데 문제가 생길 수도 있다.
‘차원의 저주’는 데이터의 차원이 높아질수록 알고리즘의 실행이 아주 까다로워지는 현상이다. 보통의 3차원 물리적 공간과 같은 저차원 환경에서는 이런 일이 드물다. 그러나 고차원 공간에서 데이터를 분석하고 정리할 때 발생하는 다양한 현상을 말한다. 즉 (데이터 등) 차원이 증가하면 공간의 부피가 너무 빨리 증가, 사용 가능한 데이터가 상대적으로 희소해진다는 것이다.
이에 반해 양자머신러닝은 중첩 원리를 활용, 2ⁿ개의 상태를 n개의 큐비트로 동시에 표현하는 ‘지수적 확장성’이 있다. 그렇다보니 특정 문제에서 기존의 알고리즘보다 지수적 속도가 향상되고, 모델 구조나 학습 방식에서도 근본적인 차이가 존재한다.
특히 양자머신러닝은 양자회로 기반의 모델링을 통해 양자 게이트와 매개변수를 조정하는 방식으로 학습한다. 즉, 양자역학적 ‘간섭’ 효과가 작용하면서, 매개변수로 전환된 양자회로를 통한 최적화가 이루어지는 것이다.
특히 주목되는 것은 ‘양자데이터 재활용’ 기법이다. 이는 제한된 양자 자원 환경에서도 양자신경망의 표현력과 학습 능력을 크게 향상시킬 수 있다. 특히 양자시대 역시 오류가 많을 것이란 뜻의 ‘니스크’(NISQ, Noisy Intermediate-Scale Quantum) 시대일수록 효율적인 양자머신러닝 구현을 위한 또 다른 대안으로 주목받기도 한다.
여기서 ‘니스크’는 양자시대가 본격화되어도 미처 보정을 하지 못해 오류가 많이 날 것이라는 사실을 표현한 것이다.
‘양자데이터 재활용’으로 양자신경망 성능 크게 높여
이를 극복할 양자데이터 재활용은 동일한 데이터가 양자 회로의 여러 위치에서 반복적으로 인코딩되면서 이뤄진다. 이러한 구조적 차이는 양자신경망의 성능과 표현력을 크게 높여준다는 설명이다.
앞서 정 교수는 “애초 양자역학 원리에 의해 양자회로에서 게이트 연산은 이전 상태의 정보를 보존하면서 동시에 시스템을 새로운 상태로 변환시킨다”면서 “따라서 데이터를 재인코딩하더라도 이전 연산의 효과는 사라지지 않고 시스템에 누적된다.”고 했다. 이는 “마치 기존 신경망의 다층 구조에서 각 층이 이전 층의 출력을 바탕으로 더욱 추상적인 특징을 학습하는 것과 유사한 원리”라고 했다.
양자데이터 재활용 기법은 특히 제한된 수의 큐비트만으로도 ‘재활용’ 기법을 통해 복잡한 양자회로를 구성할 수 있다. 또한 오류 보정이 안된 ‘니스크’ 환경에서도 효과적으로 활용될 수 있다. 그 결과 “모델의 표현력이 크게 향상되고, 더 복잡한 패턴과 관계를 학습할 수 있다”면서 “특히 양자신경망 학습 과정에서 자주 발생하는 ‘배런 플래토스’(Barren Plateaus 문제를 완화할 수 있다”고 지목했다.
여기서 ‘배런 플래토스’는 양자머신러닝의 큰 걸림돌 중 하나다. 양자신경망의 규모가 커질수록 비용 함수의 기울기 분산이 거꾸로 지수적 감소를 보이는 것이다. 다시 말해 “큐비트 수가 증가할수록 기울기 분산이 더 급격하게 감소한다”는 것이다.
이에 대해 정 교수는 “원론적으로 보면, 양자회로에선 큐비트 수가 증가할수록 상태 공간의 차원이 지수적으로 증가하며, 측정 결과의 분산이 줄어들게 되기 때문”이라며 “큐비트 수와 레이어 수의 증가는 계산 능력을 높이지만, 동시에 학습 가능성을 저해하는 기울기 소실 문제가 생긴다”고 했다.
기존 머신러닝과 융합, ‘하이브리드’도 기대
이같은 양자머신러닝은 특히 기존 머신러닝과 융합, ‘하이브리드’ 시너지도 기대된다. 일단 두 기술은 각기 다른 장점이 있다. 현재의 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템 등에 널리 활용되고 있다. 이에 비해 양자머신러닝은 양자화학 시뮬레이션, 복잡한 최적화 문제, 금융 모델링 등 특정 도메인에서 매우 유용하다. 정 교수는 “특히 양자데이터에 대한 직접적인 학습 및 처리 능력, 그리고 보안이나 암호화 분야의 차세대 기술로 주목된다”고 했다.
그는 특히 “그러나 양자머신러닝이 단순히 고전 머신러닝의 대체재가 아니라, 서로 다른 강점을 가지는 보완적 기술이 될 수 있다”면서 “양자 하드웨어 및 알고리즘이 발전될수록 양자를 결합한 시너지가 기대된다”고 했다.