인권보장, 투명성, 보안성, 책임성 기반의 ‘개발자 체크리스트’
저작권법 준수, AI오남용 방지, 개인정보보호 등 ‘직장인 체크리스트’
한국지능정보원, 방통위, 포괄적인 ‘생성형AI 윤리 준칙’ 공표

사진은 'AI엑스포코리아 2024'로서 본문과는 직접 관련이 없음.
사진은 'AI엑스포코리아 2024'로서 본문과는 직접 관련이 없음.

[애플경제 이지향 기자] 생성AI를 개발하는 개발자들은 늘 사회적으로 합의된 윤리 기준과 인권보장, 투명성, 책임성 등을 준수해야 한다. 또 생성AI를 이용하는 직장인들은 개인정보보호, 저작권법 준수 등의 AI윤리를 지켜야 한다. 국내에서도 이처럼 평범한 직장인과, AI를 개발하는 당사자인 AI개발자들을 위한 포괄적인 ‘생성형 AI 윤리’ 준칙이 확정, 공표되어 눈길을 끈다.

최근 한국지능정보원과 방송통신위원회 등은 이런 내용의 ‘생성AI 개발자와 직장인들을 위한 AI윤리’를 공개했다.

생성AI 개발자 위한 윤리적 대원칙과 실천항목

이에 따르면 우선 생성AI 개발자의 경우 3가지의 윤리적 대원칙을 선언하고 있다. 우선 다양한 사회적 가치와 이해관계자의 관점을 조율하고, 사회적 합의를 통해 윤리적 쟁점을 해결하는 ‘사회적 합의’가 중요하다. 또 기술 발전과 윤리적 문제의 갈등 상황 또는 개발 과정에서 투명성과 효율성이 상충할 때 어떻게 할 것인가. 이에 대한 판단기준으로서 ‘AI윤리기준’을 제시하고 있다. 이와 함께 ‘도적적 자세’, 즉 AI윤리 가이드를 숙지하고, 개발 과정에서 투명성, 공정성, 책임성, 안전성 등 개인적으로 윤리적 태도를 함양하는 노력을 강조하고 있다.

이런 대원칙을 바탕으로 한, 생성AI 개발자들을 위한 개발 과정에서의 윤리원칙은 크게 5가지다.

우선 ‘인권보장’이다. AI 시스템의 설계, 개발, 운영, 사용 과정에서 사람의 기본적인 권리와 자유를 보호하고 존중하는 것이다. 또 ‘보안성’, 즉 AI 시스템의 해킹, 데이터 유출, 오작동 등 사회적·개인적 피해가 발생하지 않도록 안전을 보장하는 노력이다. ‘공정성’, 즉 AI 시스템이 특정 개인이나 집단에 대해 불공정한 편향이나 차별을 유발하지 않도록 설계·운영하는 것이다.

‘투명성’도 중요하다. AI 시스템의 작동 원리와 의사결정 과정 등을 사용자가 이해할 수 있도록 명확히 하는 것이다. ‘책임성’, 즉, AI 시스템의 설계, 개발, 운영, 사용 과정에서 발생하는 결과에 대해 책임을 다하는 것도 중요하다.

이를 위해 한국지능정보원 등은 생성AI 개발자들을 위한 ‘체크리스트’를 공개했다. 우선 기획과 설계 단계에서 ▲AI 시스템이 인간의 존엄성과 권리를 침해하지 않도록 설계되었는지, ▲ AI 시스템 설계 시 다양한 이해관계자의 의견을 반영 여부, ▲설계 단계에서 공정성을 보장하고 차별을 방지하기 위한 방안 여부, ▲외부 전문가의 의견을 받아 윤리적 타당성을 검토했는지 여부, ▲법적 요구사항을 반영한 시스템 설계 여부 등이다.

데이터 수집과 처리 과정에선 ▲데이터 수집 과정에서 다양한 인구 집단을 대표하는 데이터포함 여부, ▲2 데이터 수집 시 사용자 동의 여부, ▲ 데이터 내 개인정보와 프라이버시를 보호하기 위한 적절한 보안 조치 여부, ▲수집된 데이터의 정확성과 완전성 검증, ▲개발에 활용되는 데이터의 출처 및 처리의 주요 과정 기록 여부 등도 점검 대상이다.

또 AI모델 개발 과정에서 ▲AI 모델의 학습 과정에서 공정성을 평가하고, 편향을 수정했는지, ▲AI 모델의 의사결정 과정을 설명할 수 있는 메커니즘을 구현했는지도 점검해야 한다.

또한 시스템을 구현할 때도 ▲데이터와 모델의 보안 강화 조치, ▲프로젝트 문서화와 로그 기록을 통한 투명성 보장 여부도 중요하다. 또한 ▲시스템이 관련 법규와 규제를 준수했는지도 중요하다.

운영과 모니터링 과정에서도 ▲문제가 발생했을 때 신속하게 해결할 수 있는 대응 시스템을 마련했는지, ▲AI 시스템의 운영 과정에서 책임 주체를 명확하게 지정했는지, ▲윤리적 문제나 기술적 취약점이 새롭게 발견되었을 때 신속히 대응하고 있는지, ▲사용자 피드백을 적극적으로 수렴하고, 이를 반영하여 시스템을 개선했는지, ▲AI 시스템의 성능 및 윤리적 기준을 유지하기 위해 정기적으로 업데이트하고 있는지 등도 점검 대상이다.

AI챗봇 이미지. (출처=셔터스톡)
AI챗봇 이미지. (출처=셔터스톡)

생활인, 직장인 위한 ‘생성AI윤리’도 상세 명시

또 평범한 생활인을 포함한 직장인을 위한 ‘생성AI 윤리 준칙’도 관심을 끈다. 이는 일상생활에서 AI를 이용할 때 지켜야 할 다양한 항목을 포함하고 있다.

우선 ▲편향성을 인식하는게 중요하다. AI가 생성한 결과물에 인종, 성별, 국가, 학력, 장애 등 편향을 포함하고 있는지 점검해야 한다는 주문이다. 또한 생성 AI가 잘못된 정보를 제공할 경우, 시스템 관리자에게 검토와 개선을 요구할 필요가 있다.

또 ▲허위정보나 조작을 분별, 인식해야 한다. 생성AI가 제공하는 정보는 할루시네이션(환각) 현상이 발생할 수 있기 때문에 반드시 교차 검증을 해야 한다. 인공지능 모델은 학습 데이터의 부족 또는 오류로 인해 잘못된 정보를 생성한다. 그럼에도 이를 마치 사실인 것처럼 제시하곤 한다.

▲개인정보보호도 매우 중요하다. 즉히 챗봇 등 대화형 AI를 활용할 경우 개인정보, 사생활 정보, 회사 기밀을 입력하지 않아야 한다. 실수로 민감한 정보를 입력한 경우 생성AI 서비스 제공업체에 데이터 삭제를 요청해야 한다.

▲저작권법을 반드시 준수해야 한다. 즉, AI가 생성한 콘텐츠의 표절 및 저작권 문제가 발생하지 않도록 생성형 AI 활용 여부와 출처를 밝힐 필요가 있다. 특히 “생성AI로 만든 콘텐츠가 특정 인물의 퍼블리시티권을 침해하지 않도록 주의해야 한다”는 주문이다. 개인의 이름, 초상, 서명, 목소리 등 인격적 요소에서 파생하는 재산적 가치를 권리자가 독점적으로 지배하는 권리를 존중해야 한다는 지적이다.

특히 직장인이나 생활인들은 생성AI를 ▲오남용해선 안 된다. 이를 위해 생성AI의 올바른 사용법에 따라 적정하게 사용하고, 시간적•정신적 과의존 상태가 아닌지 점검할 필요가 있다.

직장인들이 이런 AI윤리를 잘 지키고 있는지를 점검하는 체크리스트도 눈길을 끈다. 이에

따르면 우선 ‘저작권’ 대목에서 생성형 AI의 결과물을 활용할 때 생성형 AI를 활용해서 얻은 결과물이라고 출처를 표기해야 한다. 또 생성AI를 활용할 때 타인의 권리가 침해될 수 있는 텍스트, 오디오, 이미지 등을 사용하지 않았는지도 점검한다.

이와 함께 생성AI에 질문이나 정보를 입력할 때 특정인의 명예를 훼손하거나, 차별하는 내용이 포함되어선 안 된다. 또한 개인, 기관 등 특정 대상을 비난하거나, 가치관이나 주장을 일방적으로 혐오하는 내용도 금물이다.

특히 ‘혐오표현’을 절대 금해야 한다. 생성AI로 정보를 얻거나 콘텐츠를 제작하기 위해 개인정보, 기업 기밀 등 민감한 정보를 제공해선 안 된다. 특히 직장인들은 ‘정보유출’을 각별히 조심해야 한다. 생성형AI로 가짜뉴스, 스팸 등을 만들기 위해 사실이 아닌 부정확한 정보나 조작된 내용을 일부러 입력해서도 안 된다.

이 밖에도 한쪽으로 치우친 편향적인 내용인지를 점검하고, 생성AI의 출력이 모두 정답은 아니라는 생각을 하며, 잘못된 정보가 있는지 사실 확인을 위해 교차검증을 헤야 한다. 특히 생성AI가 주는 편리함에만 의존하지 말고, 먼저 충분히 생각하고 고민한 후에 생성형 AI는 보조적 수단으로 활용하는 것도 중요하다는 조언이다. 즉, “생성AI가 제시한 결과를 그대로 사용하지 않고, 재해석하거나 자신의 생각과 아이디어를 덧붙여 생산적으로 활용하는 것이 바람직하다”는 것이다.

저작권자 © 애플경제 무단전재 및 재배포 금지