구글, 'AI윤리' 수정? 글로벌 'AI윤리' 논쟁 재점화
EU, 강력한 윤리 기준으로 개인 정보 보호 강화 한국, AI 기본법 시행 준비…책임성과 공정성 강조 미국, 트럼프 행정부의 AI 윤리 정책 변화
[애플경제 김예지 기자] 구글이 지난 4일(현지시간) AI 윤리 지침을 수정하며 "AI를 무기 개발 및 감시에 사용하지 않는다"는 조항을 삭제하면서 새삼 각국의 AI 관련 윤리 법제가 관심을 끌고 있다.
구글의 이번 조치는 AI 기술이 군사적 또는 감시적 용도로 확장될 가능성을 열어두었다. 일부 전문가들은 이러한 변화가 AI 기술의 윤리적 사용에 대한 신뢰를 약화시킬 수 있다고 우려하고 있다. 이와 같은 상황 속에서 AI 기술의 발전과 활용에 대한 각국의 윤리 원칙은 점점 더 중요한 논쟁적 사안으로 떠오르고 있다.
특히 유럽연합(EU), 한국, 미국의 AI 윤리 원칙을 살펴보면, 각국이 AI의 위험을 관리하고 사회적 책임을 다하기 위해 다양한 방법을 모색하고 있다는 점에서 차이를 보인다.
EU는 강력한 법적 규제를 통해 AI 기술이 사회에 미치는 영향을 제어하고 있으며, 한국은 윤리 가이드라인과 법률을 병행해 AI에 대한 신뢰성을 높이고 있다. 반면, 미국은 트럼프 행정부 출범으로 바이든 행정부의 AI 행정명령이 철회되며 정책 변화가 예고되고 있다.
유럽연합, AI 윤리 지침 강화…개인권 보호 우선
유럽연합(EU)은 최근 AI 활용에 대한 새로운 지침을 발표했다. 이 지침은 고용주와 민간 및 공공기관이 AI 시스템을 사용할 때 지켜야 할 규범을 정의하며, 특히 직원들의 감정을 추적하거나 개인의 신용도 및 평판을 점수화하는 AI 시스템의 사용을 금지한다. EU는 이를 통해 AI 기술이 개인의 권리와 프라이버시를 침해하지 않도록 하려는 목적을 두고 있다.
EU는 지난해 3월 세계 최초로 포괄적인 AI 규제법을 제정했으며, 이 법은 오는 8월 2일부터 전면 시행될 예정이다. 해당 법은 AI가 초래할 수 있는 잠재적인 위험을 줄이고, 안전하고 공정한 AI 사용 환경을 구축하는 데 중점을 두고 있다. EU 집행위원회 관계자는 이번 지침이 법적 구속력은 없지만, 유럽 시장에서 AI 시스템을 제공하는 기업들에게 법적 확실성을 제공하려는 목적임을 강조했다.
지침에 따르면, EU는 다크패턴(의도치 않게 사용자가 결제를 하도록 유도하는 웹 디자인)과 특정 사회적 취약 계층을 착취하는 AI 시스템을 금지했다. 또한, 공공기관과 민간기업이 출신지나 인종과 같은 민감한 정보를 이용해 개인의 사회적 점수를 매기는 AI도 금지된다.
경찰은 검증되지 않은 생체인식 정보만을 바탕으로 범죄 예측을 해서는 안 되며, 고용주는 직원들의 감정을 추적하기 위해 웹캠이나 음성인식 시스템을 사용할 수 없다. 또한, 법 집행을 위한 AI 기반 얼굴 인식 CCTV 카메라는 제한적 사용만 가능하며, 철저한 안전 절차 아래에서만 허용된다.
EU는 이 지침을 통해 AI 기술이 윤리적이고 신뢰할 수 있는 방식으로 사용되도록 유도하고, 기술 발전과 시민 권리 보호를 동시에 이루려는 의도를 가지고 있다.
한국, AI 기본법 시행…투명성·책임성 강화
한국은 지난해 12월 ‘인공지능 윤리 및 신뢰 확보를 위한 법률’을 제정했으며, 올해 6월부터 시행될 예정이다. 이 법은 AI 기술의 투명성과 신뢰성을 확보하고, AI 개발자와 운영자의 책임을 명확히 하는 데 초점을 맞추고 있다.
특히 AI 시스템의 공정성과 안전성을 강화하기 위해 고위험 AI에 대한 사전 인증 제도를 도입한다. 예를 들어, 의료 진단, 금융 심사, 자동화된 채용 절차 등 사회적 영향력이 큰 AI 기술은 정부의 인증을 받아야 한다. 또한, AI 개발 및 운영 과정에서 개인정보 보호와 차별 방지 기준을 준수해야 한다.
이와 함께 한국 정부는 AI 윤리 가이드라인을 통해 ‘사람 중심 AI’를 강조하고 있다. AI가 인간의 존엄성과 권리를 침해하지 않도록 하고, 책임성을 강화하는 방향으로 규제를 마련 중이다. 또한, AI 기술을 개발하는 기업들이 연구 및 개발 과정에서 윤리적 검토를 수행하도록 요구하는 제도를 도입하고 있다.
정부는 AI 기업들이 AI의 사회적 영향력을 사전에 평가하고, 리스크를 최소화하기 위한 정책을 강화할 계획이다. 이를 위해 민관 협력을 통해 AI 윤리 인증 제도를 도입하고, 공공기관에서 AI 시스템을 도입할 때 윤리성 평가를 의무화할 예정이다.
한국의 AI 법률은 EU보다는 유연한 편이지만, 점진적으로 규제를 강화하는 방향으로 가고 있다. 한국 정부는 주요 기업들과 협력하여 AI 기술이 혁신성을 유지하면서도 윤리적인 방향으로 발전할 수 있도록 지원하고 있다.
미국, 트럼프 행정부의 AI 윤리 정책 변화
미국은 AI 윤리에 관한 규제에서 중요한 변화를 맞고 있다. 2023년 10월, 조 바이든 전 대통령이 AI 시스템의 안전성과 투명성을 보장하는 행정명령을 서명했으나, 올해 도널드 트럼프 대통령이 취임 첫날 이 명령을 철회했다. 트럼프 대통령은 AI 개발을 지원하겠다는 입장을 표명하며, 기존의 규제를 대체할 새로운 정책을 발표했다.
트럼프 행정부는 AI 기술이 국가 안보와 경제적 리더십의 핵심 전략으로 자리잡고 있으며, 이에 따라 AI 안전과 신뢰성 관련 정책은 강화될 것으로 보인다. 동시에 기업 규제는 완화될 전망이다. AI 업계 관계자는 "트럼프 2기 행정부는 국가 안보와 경제적 이익을 중심으로 AI 정책을 더욱 강화할 가능성이 크다"고 전했다.
현재 트럼프 행정부는 AI 기술에 대한 새로운 행정명령을 내놓지 않고, 대신 ‘암호화폐와 AI의 차르’로 데이비드 삭스를 임명했다. 그는 기술 규제에 비판적인 입장을 가진 인물로 알려져 있다.
바이든 전 대통령의 행정명령은 주요 AI 기업들에게 시스템 안전성 테스트 결과와 관련 정보를 연방 정부에 제출하도록 요구했다. 이 명령은 또한 국립표준기술원(NIST)을 통해 AI 모델의 편향과 결함을 식별하고 수정하는 지침을 마련하도록 했다. 그러나 일부 기업들은 이 요구사항이 영업비밀 공개를 강요한다고 주장하며, 규제가 과도하다는 입장을 표명했다.