가트너 등 “초능력 발휘, 생성AI가 전체 산업 데이터의 10% 생성”
“수많은 설계안 생성, 인간 상상력 뛰어넘는 현신적 디자인과 설계”
설계 조건 수시로 바뀌어도 무난히 수행, “다만 딥페이크 등 부작용 경계”

'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 개념도로서, 본문과 직접 관련은 없음.
'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 개념도로서, 본문과 직접 관련은 없음.

[애플경제 전윤미 기자] 생성형 AI가 디지털시대의 화두가 된 가운데, 향후 6~8년 안에 이는 널리 실용화되어 생산성 혁명을 가져다줄 것으로 예상되고 있다. 시장분석기관 가트너는 “2025년까지 생성된 모든 데이터 중 생성형 AI가 만들어내는 데이터가 현재의 1% 미만에서 10%로 증가할 것”이라며 “헬스케어, 제조, 미디어, 자동차 등 폭넓은 산업에서 이미 실증되고 있다.”고 밝혔다.

아에 따르면 생성형 AI는 무수한 ‘경우의 수’를 가진 설계안이나, 인간이 미처 상상하지 못했던 혁신적인 설계안을 도출한다. 다만 “딥페이크 등 부작용에 대한 우려도 있기 때문에, 일부 업계에서는 도입이 늦어질 가능성도 있다”고 덧붙였다.

역시 시장분석기관인 IRS글로벌도 가트너의 이같은 전망을 비롯한 각종 연구자료를 인용하며, “생성형 AI를 사용함으로써 특히 획기적인 설계와 생산성 향상 등 제품 개발 단계에서 효율성이 크게 향상될 것으로 보인다”고 밝혔다.

무수한 설계안 생성, 설계자에게 제시

이들 기관에 의하면 생성형 AI는 우선 제품 설계 단계에서부터 무수한 ‘경우의 수’를 검토할 수 있게 한다. 기존의 설계 방법이라면, 모든 제약 조건을 설계자가 직접 검토하고 찾아내야 했다. 그러나 사람이 여러 개의 안건을 검토하는 데에는 한계가 있다.

이에 비해 생성형AI를 접목하면, 인간이 제시한 비용이나 무게, 용도 등 설계 조건 범위 내에서 실현할 수 있는 몇 가지 설계안을 작성한다. 인간 설계자는 그 안건 중에서 최적의 것을 고르면 된다. 만약 만족하지 못하면 자신이 제시한 제약 조건을 다시 검토하고, 이를 AI가 재검토하게 하면 된다.

'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 개념도와 제품으로서, 본문과 직접 관련은 없음.
'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 개념도와 제품으로서, 본문과 직접 관련은 없음.

지금껏 없었던 ‘혁신적 설계안’도 생성

가트너는 또 ‘혁신적인 설계안’을 생성AI의 최대 장점으로 꼽았다. 즉 “설정된 제약 조건이 허락하는 범위 내에서 모든 가능성을 모색한다.”면서 “도출된 수많은 설계안 중에는 과거의 설계물과 완전히 다른 새로운 설계안이 있을 수도 있다.”고 했다.

즉, 사람의 선입견에 사로잡히지 않고, 많은 설계안을 검토할 수 있다는 얘기다.

흔힌 인간 설계자는 개인의 지식이나 경험에 근거한 선입견을 통해 만들어지게 될 가능성이 있다. 또 “좋은 설계안을 만들기 위해 과거의 설계물을 참고할 경우, 양질의 결과물을 만들 수는 있어도, 혁신적인 아이디어는 만들어지기 힘들다.”고 비교했다.

인간 설계자의 경우 만약 설계 도중에 조건이 바뀔 경우 큰 수고와 많은 시간이 낭비된다. 바뀐 설계 조건을 충족하는게 쉬운 일은 아니다.

이에 비해 생성형 AI를 사용하면 조건이 변화되어도 빠르게 대체안을 제시할 수 있다. 덕분에 설계 변경의 공정 개수도 줄어든다. IRS글로벌은 “제품 형태를 소형화할 때는 mm 단위라도 비용을 절감할 수 있기 때문에, 간편하게 대체안을 검토할 수 있다는 것이 생성AI의 큰 장점”이라며 “성적 디자인을 접목할 경우 최대 40% 정도 투입 재료를 절감할 수 있다는 연구 결과도 있다.”고 전했다.

'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 제품으로서, 본문과 직접 관련은 없음.
'2023 스마트팩토리전'에 출품된 AI 기반 머신비전 제품으로서, 본문과 직접 관련은 없음.

“자칫 毒이 될 수도…위험성 경계해야”

가트너는 그러나 이같은 ‘생성형 AI의 위험성’을 지적한다. 즉, “생성형 AI는 편리하기도 하지만, 사람에게 위험을 가져다줄 가능성도 있다”고 주의를 당부했다.

이에 따르면 생성형 AI를 악용한 나머지, 사기나 부정, 정치적인 거짓 선동과 가짜정보 범람, 신원과 신분 사칭 등이 우려된다.

특히 사람의 얼굴을 바꿔 가짜 동영상을 만드는 딥페이크(Deepfake)가 대표적이다. 기존 AI기술보다 더욱 정교한 수법으로 진화할 가능성이 크다. 예를 들어 장본인이 실제로 하지 않은 행동이나 발언을 마치 실제로 한 것처럼 연출할 수 있다. 만약 정치․사회적 영향력이 큰 사람의 발언이 딥페이크에 의해 조작되면, 큰 문제가 아닐 수 없다.

“결국은 사용자의 윤리의식이 가장 중요”

반대로 생성AI기술로 부정을 방지하거나 악용된 사례를 감지하는 순기능도 있다. 기존의 데이터를 통해 특징을 학습하면, 실존하지 않는 가공의 데이터를 생성, 변환할 수 있다. 영국의 금융기관들은 실제 결제 데이터를 활용, 생성한 대량의 결제 데이터 샘플로 부정한 결제를 감지하는 AI를 개발하고 있다.

가트너는 그러나 이같은 부작용을 막는 가장 큰 조건은 ‘인간의 윤리’임을 분명히 했다. 즉, “결국 생성형 AI를 적절하게 이용할 것인지 여부는 사람의 윤리의식에 달려 있다.”면서 “사회가 AI의 장점을 누리도록 하려면, 인간이 윤리의식이 먼저 향상되어야 한다.”고 짚었다.

저작권자 © 애플경제 무단전재 및 재배포 금지