네이버, 삼성전자, 카카오, SKT, LG전자 등…‘컨소시엄’ 구축도
해외서도 안전․신뢰AI 위한 ‘프런티어 포럼’, ‘AI 연합’ 등 결성
정부, ‘AI 윤리기준’, ‘디지털권리장전’, ‘개인정보보호 가이드라인’ 등
미국 ‘AI 권리장전’, 행정명령, EU 세계 최초 ‘AI Act’, ‘AI 가이드라인’

(사진=텍스트리)
(사진=텍스트리)

[애플경제 전윤미 기자] AI윤리 기술 분야에서 국내 기업들도 대기업을 중심으로 나름이 윤리지침이나 가이드라인을 설정하고 있다.

예를 들면, 네이버의 경우 지난 2022년 3월 ‘네이버 AI 윤리원칙’을 발표하고, AI 윤리위원회를 설립・운영하고 있다. 인공지능과 관련된 윤리적인 문제에 대한 조언을 하고, 투명성과 ‘사용자 프라이버시’를 강조하고 있다.

삼성전자는 이보다 앞선 2019년에 ‘공정성, 투명성, 책임성’ 등 3대 원칙을 중심으로 한 ‘삼성 AI 윤리원칙’을 발표한 바 있다. 또 AI 윤리기준을 정립하고, 공동연구를 수행하는 국제 컨소시엄인 ‘Partnership on AI’에도 가입했다.

카카오는 2018년 국내 기업 최초로 ‘알고리즘 윤리규범’을 마련한 바 있다. 이를 통해 투명성, 공정성, 프라이버시 보호 등에 중점을 둔 ‘카카오 AI 윤리 플랫폼’을 구축했다. 또 2022년엔 국내 기업 최초의 전사적 AI윤리 논의 기구인 ‘공동체 기술윤리위원회’를 신설했다.

‘LG 전자’는 2022년 ‘AI 윤리원칙’을 발표한데 이어, ‘AI 윤리 점검 TF’와 LG계열사들이 참여한 ‘AI 윤리 워킹 그룹’ 협의체를 운영하고 있다.

‘SK 텔레콤’은 2021년 AI 윤리 가치를 사규에 반영했으며, 또 이를 위한 외부 전문가 자문단도 운영할 것으로 전해졌다.

국내, 대기업들 위주 ‘AI윤리’ 가이드라인

이와 함께 국내 대기업들은 지난해 10월 거대언어모델(LLM)의 안전성・신뢰성 확보를 위한 ‘컨소시엄’을 구축하기도 했다. 네이버, 카카오, SKT, KT, LG의 ‘AI 연구원’ 등이 컨소시엄을 구축했다. 또 한국지능정보사회진흥원의 ‘AI 학습용 데이터 구축사업’에도 참여, LLM의 신뢰성 및 윤리성 평가에 사용될 기준 데이터셋을 구축할 예정이다.

해외에서도 이와 유사한 사례들이 줄을 잇고 있다. 글로벌 빅테크 기업들은 안전・신뢰 AI 분야 주도권 확보를 위한 연합을 결성하기도 했다.

그 중 오픈소스가 아닌 ‘폐쇄형 AI’ 기술을 주로 출시한 오픈AI, 구글, 마이크로소프트 등은 지난해 7월, “대규모 ML 모델의 안전하고 책임있는 개발을 보장”한다는 취지로 ‘Frontier Model Forum’을 결성했다. 이는 “프런티어 모델의 위험성을 각별히 인식하고, 그 위험을 최소화하며, 개발 역량과 안전성에 대한 독립적이고 표준화된 평가를 가능하게 한다”는 취지다. 쉽게 말해 포럼 자체의 표준화된 평가 기준에 의해 안전한 AI를 개발한다는 뜻이다. 이들은 이를 위해 1,000만 달러 이상의 AI 안전기금을 조성하기도 했다.

이에 비해 오픈소스 위주라고 할 수 있는 메타와 IBM 등은 지난해 12월 ‘안전・신뢰 AI 발전을 위한 AI Alliance’(AI Alliance)를 출범시켰다. 이들은 “개방적이고 안전하며 책임감 있는 AI를 발전시키는 것”을 목표로 한 50개 이상의 기업과 단체, 조직으로 구성된 ‘국제 연합 AI Alliance’를 출범시켰다.

이는 AI반도체 기업 AMD, 델(Dell Technologies), 인텔, 리눅스 재단 등의 기술 기업과, 대학, NASA 등 기관들이 회원으로 참여했다. “AI 시스템의 책임감 있는 개발・사용을 가능하게 하는 벤치마크, 평가 리소스를 개발・배포한다”는 취지다. 이를 위해 ▲활발한 AI HW 생태계 육성, ▲글로벌 AI 기술 구축 및 탐색적 연구 지원, ▲AI 규제에 대한 대중 담론과 정책 입안자에게 정보를 제공하는 교육 리소스 개발 등을 내세웠다.

갤럭시 AI 지원 확대 이미지. (사진=삼성전자)
갤럭시 AI 지원 확대 이미지. (사진=삼성전자)

한국 등 각국 정부도 ‘안전・신뢰 AI 정책’

이같은 국내․외의 기류 속에서 각국 정부나 공공분야에서도 나름의 ‘안전・신뢰 AI 정책’을 제시하고 있다.

국내에서도 이미 지난 2020년 ‘AI 윤리기준’을 통해 ‘인간성(Humanity)’을 위한 AI 3대 원칙과 10대 요건을 담은 국가 인공지능 윤리기준을 수립, 공개한 바 있다. 그 중 3대 원칙은 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙 등이다.

또 지난해 2월에는 ‘AI-저작권법’과 제도를 개선하기도 했다. 문체부는 AI 법률, 저작권, 콘텐츠, 인공지능 전문가들로 구성된 ‘AI-저작권법 제도개선 워킹그룹’을 통해 가이드라인을 설정했다.

또 지난해 8월 개인정보보호위원회는 AI 개발・서비스 기획-데이터 수집-AI 학습-서비스 제공 등 단계별로 준수해야 할 개인정보 원칙과 기준, 그리고 이를 근거로 한 가이드라인을 제시했다. 지난해 9월엔 과학기술정보통신부 주도로 ‘디지털 권리장전’이 공개되었다. 이는 ‘자유와 권리의 보장’, ‘공정한 접근과 기회의 균등’, ‘안전과 신뢰의 확보’, ‘디지털혁신의 촉진’, ‘인류 후생의 증진’ 등이다.

또 과기정통부는 지난해 연말 한국정보통신기술협회(TTA)와 함께 인공지능 기반 제품・서비스를 대상으로 인공지능 제품에 대한 검인증 원칙을 제시했다.

미국은 지난 2022년 ‘AI 권리장전’을 마련했다. 이는 5대 원칙, 즉 안전하고 효과적인 시스템, 알고리즘 차별 금지, 개인정보보호, 고지 및 설명, 인간 대안/검토 사항/비상 대책 검토 등을 담고 있다.

또 상무부 산하 국립표준기술연구소(NIST)는 공공 및 민간에서 활용할 수 있는 ‘AI 위험 관리 프레임워크’를 마련했다. 지난해 7월에는 백악관에 대표적인 생성 AI기업 대표를 소집, “안전하고 보안이 유지되며 투명한 AI 개발에 대한 백악관-기업 간 공동 성명”을 발표하기도 했다. 당시 참여 기업은 아마존, 앤스로픽, 구글, 인플렉션, 메타, 마이크로소프트, 오픈AI 등 7개다.

지난해 10월엔 또 ‘안전하고 신뢰할 수 있는 AI에 관한 행정명령’을 공표했다. 이는 △새로운 안전 및 보안 표준 제정, △소비자 사생활 보호, △형평성과 시민 권리 증진, △소비자들에게 이익 제공, △ 노동자 보호, △혁신과 경쟁 촉진, △국제적 파트너들과 협력해 미국의 리더십 증진, △책임있고, 효과적인 정부 활용을 보장한다는 등의 내용이 포함되어 있다.

중국, 딥러닝, 개인정보보호 등 강력한 규정

중국도 나름의 안전・신뢰 AI 정책을 마련한 바 있다. 2022년에 사용자의 사용 기록과 개인 정보를 바탕으로 콘텐츠를 배치, 추천하는 플랫폼을 대상으로 한 ‘인터넷 정보서비스 알고리즘 추천 관리 규정’을 제정했다. 이들 플랫폼이 사업자를 대상으로 불량 정보가 확산되지않도록 공급자 의무를 부과한 것이다.

또 지난해 중국 정부는 ‘인터넷 정보서비스 심층합성 관리규정’도 만들었다. 이는 딥러닝 합성 서비스 제공 업체를 대상으로 한 것이다. 이들 업체에 대해 딥러닝 합성 서비스 사용자의 신원 인증과 콘텐츠 관리, 안전 관리 책임 등을 부과했다.

이 밖에도 ‘생성 AI 서비스 관리 임시 시행 방법’을 통해 글, 그림, 기타 콘텐츠를 생성하는 AI 서비스에 대한 관리 지침을 정했다. 또 개인정보 보호와 허위정보 유포 제어, 그리고 AI 개발 과정에서 국가 간 차별없는 동등한 기회를 부여하고 권리를 보장한다는 취지의 ‘글로벌 인공지능 거버넌스 이니셔티브’도 제정했다.

특히 EU의 ‘안전・신뢰 AI 정책’도 눈길을 끈다. 지난 2019년 EU는 이미 ‘신뢰할 수 있는 AI 가이드라인’을 제정했다. 이는 “적법하고, 윤리적이며, 견실한 AI 시스템의 설계, 개발, 이용을 위한 원칙, 요구사항 및 자율 점검”을 강조했다. 또한 이를 위한 “평가 목록 개발을 목적으로 신뢰할 수 있는 인공지능 가이드라인”을 마련하고 배포했다.

지난 2021년 4월엔 세계 최초로 유럽의회는 EU 내에서 출시 또는 서비스되는 인공지능에 대한 규제법인 ‘AI Act’를 마련했다. 이는 오는 6월부터 발효될 예정이다. 동 법은 AI에 대한 제한 사항과 공급자의 안전 조치 등을 포함하고 있으며, 이를 위반할 경우 최대 3,500만달러 또는 연간 매출의 7%의 과징금 처벌 규정을 담고 있다.

저작권자 © 애플경제 무단전재 및 재배포 금지