금융권, AI 기술을 통한 디지털 혁신과 보안 강화 병행
의료 산업, 생성 AI 의료기기 규제 마련으로 안전성 확보
전기전자제품, AI 윤리 기준 설정으로 글로벌 경쟁력 강화

(사진:픽셀스)
(사진:픽셀스)

[애플경제 김예지 기자] AI 기술의 빠른 발전에 따라 모든 산업 분야에서 윤리적, 법적 문제와 보안 리스크를 해결할 기준이 중요해졌다. 이에 따라 각 산업 부문별로 AI 기술의 지속 가능한 발전을 위해 나름의 규제와 가이드라인을 제시하고 있다.

특히, AI의 활용 범위가 확대됨에 따라 사회적, 경제적 영향이 커지고 있는 만큼, 정부의 역할은 더욱 중요해지고 있다. 기업들이 AI를 안전하고 책임감 있게 도입할 수 있도록 지원하는 동시에, 기술이 가져올 수 있는 위험을 미리 차단하는 데 필요한 법적 및 윤리적 기준을 설정하는 것이 필수적이다.

금융권 통합 AI 가이드라인 발표

금융감독원은 10일 ‘2025 금융감독원 업무계획’을 발표하며, 금융권에서 AI 기술을 적극 활용하도록 촉진하고 디지털 혁신을 이루는 동시에 보안성과 신뢰성을 강화할 AI 가이드라인을 제시했다. 금융위원회는 금융시장의 안정성과 공정성을 유지하면서 AI 기술이 금융 혁신을 이끌 수 있도록 지원할 계획이다.

금융권에서는 AI 기반 챗봇, 신용평가 모델, 이상 거래 탐지 시스템(AML) 등 다양한 서비스가 빠르게 확산되고 있다. 그러나 개인정보 보호 문제와 AI 기반 금융사기 등 새로운 위협이 발생하고 있다. 이에 금융당국은 금융사들이 AI를 도입할 때 윤리적 기준을 준수하고, 보안 리스크를 사전에 차단할 수 있도록 명확한 가이드라인을 제시했다. 또한, 안전성이 검증되지 않은 AI 모델의 금융 서비스 적용을 경계하며 AI 보안 시스템 강화를 강조하고 있다.

지난달 금융당국은 ‘망분리’ 규제를 완화하고, AI 기반 금융 혁신을 본격적으로 추진하기 위한 발판을 마련했다. 금융당국은 AI 기술이 금융업계의 경쟁력을 강화할 중요한 요소가 될 것이라고 판단하고, 관련 규제를 개선하여 금융사들이 AI를 보다 적극적으로 도입할 수 있도록 지원하고 있다.

의료 산업, AI 의료기기 허가·심사 기준 마련

의료 산업에서도 AI의 활용이 증가함에 따라, 이에 대한 규제 마련이 본격화되고 있다. 지난 24일, 식품의약품안전처는 세계 최초로 ‘생성형 인공지능 의료기기 허가·심사 가이드라인’을 발표했다. 이는 생성형 AI 기술을 적용한 의료기기의 안전성과 유효성 평가를 돕고, 제품화를 지원하기 위한 기준이다.

식약처는 이번 가이드라인에서 생성형 AI 의료기기에 대한 사례와 허가 신청서 작성 방법을 포함해 필요한 제출 자료를 안내했다. 생성형 AI는 의료영상 판독, 진단 보조, 치료 계획 수립 등 다양한 의료 분야에서 활발히 활용될 가능성이 크지만, 데이터 편향과 윤리적 문제 등 우려도 따른다. 이에 따라 AI를 활용한 의료기기의 안정성과 유효성을 면밀히 평가하는 기준이 필요하다.

오유경 식약처장은 “이번 가이드라인이 국내 AI 의료기기 개발에 큰 도움이 될 것”이라며, “앞으로도 선제적이고 투명한 규제 체계를 마련하고, 글로벌 시장에서 한국 기업들이 경쟁력을 갖출 수 있도록 국제 규제 조화를 위한 규제 외교도 적극적으로 추진할 것”이라고 밝혔다.

식약처는 전문가들과 협의체를 구성해 지난해 3월부터 관련 기술과 규제 동향을 조사하고 논의했다. 이를 바탕으로 생성형 AI 의료기기의 개발부터 허가 후 관리까지 전 주기적으로 발생할 수 있는 위험 요소를 분석하고, ‘허가 심사 시 고려해야 할 사항’을 정리해 발표했다.

전기전자제품 대상 AI 윤리 가이드라인 수립

산업통상자원부는 지난해 8월 전기전자제품에 적용할 인공지능(AI) 윤리 기준을 마련했다. 이 가이드라인은 AI 기술이 내장된 전자제품의 안전성과 신뢰성을 확보하고, 윤리적 문제를 방지하는 것을 목표로 한다.

국가기술표준원이 발표한 '전기전자제품 AI 윤리 가이드라인'은 AI 기술이 적용된 전자제품이 공정하고 투명하게 운용될 수 있도록 설계되었으며, AI 시스템의 안전성과 정확성을 보장하는 것은 물론, 개인정보 보호, 차별 방지, 설명 가능성 등의 요소를 포함하고 있다.

정부는 이 가이드라인을 통해 AI 기술이 접목된 제품의 신뢰성을 확보하고, 소비자 보호와 기술 혁신을 균형 있게 추진할 계획이라고 밝혔다. 이를 위해 관련 업계와 지속적으로 협의하고, 기업들이 가이드라인을 실효성 있게 적용할 수 있도록 지원 방안을 마련할 방침이다.

AI 기술의 발전은 다양한 산업에서 혁신을 촉진하는 핵심 요소가 될 것으로 전망된다. 그러나 동시에 AI가 잘못 활용될 경우 개인정보 유출, 불공정한 의사결정, 금융사기 등 사회적 문제가 발생할 위험도 존재한다. 이에 정부가 제시한 AI 가이드라인은 기업들이 AI를 안전하게 활용하고, 법적·윤리적 문제를 해결하는 데 중요한 기준이 될 것이다.

저작권자 © 애플경제 무단전재 및 재배포 금지