- 챗봇 ‘이루다’ 사건, 편향적이고 불법적인 데이터 학습으로 동성애·장애인 혐오 및 성차별 등의 문제야기
- ‘사람 중심의 인공지능’ 3대 기본원칙... 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙
- 인권위, 유엔은 인공지능 활용 시 인권보호 장치를 마련하도록 여러 차례 권고

(제공=연합뉴스)
(제공=연합뉴스)

 

[데일리시사닷컴]4차 산업혁명의 중추적 역할을 하고 있는 인공지능이 빠르게 확산 도입되면서 인권과 관련된 예상치 못한 문제가 발생하면서 인공지능의 윤리문제가 대두되고 있다.

지난해 불거졌던 인공지능 챗봇인 ‘이루다’ 사건은 편향적이고 불법적인 데이터 학습으로 동성애·장애인 혐오 및 성차별 등의 문제가 사회적 문제로 이슈가 되었다.

이루다의 경우 AI가 데이터를 수집하고 활용할 때 개인의 정보를 활용할 수 있는지 여부에 대해서 동의 구하거나 고지해야만 함에도 불구하고 카톡과 같은 소셜이 상대방의 대화 내용과 개인정보를 그대로 AI 학습에 이용한 것이 문제의 소지가 되었다.

이는 당시의 인공지능의 윤리기준의 가이드라인이 형성되어 있지 않은 상태에서 윤리기준이 가이드라인이 왜 필요한지를 나타내는 사건이었다.

당시 한국인공지능윤리협회는 “‘인공지능 윤리 헌장’을 제정한 이래, AI의 편향성, AI의 오류와 안전성, AI의 악용문제, 개인정보유출문제, 킬러로봇 문제 등 인공지능 윤리의 5대 문제를 지속적으로 제기해 왔다.”며,

“하지만 아직 AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다.”고 비판하였다.

정부는 ‘사람 중심의 인공지능’을 위한 최고 가치인 ‘인간성(Humanity)’을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있다.

3대 원칙으로 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙과 10대 핵심 요건으로는 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성의 요건이 있다.

지난해 4차 산업혁명위원회 제22차 전체회의에서는 인공지능 윤리교육 총론과 교육과정을 개발하고, 이를 토대로 시민, 연구・개발자, 학생 등 대상 윤리 교육 실시, 인공지능 윤리 실천지침으로 연구・개발자, 이용자 등이 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트 보급 등 사회 전반 건전한 인공지능 의식을 확산할 계획이라고 밝히기도 하였다.

그러나 인공지능의 기술발전이 사회전반에 영향을 주고 있음에도 불구하고 그 영향을 받는 당사자들은 인공지능의 도입․운영․결정 과정에서 의견제시나 참여의 기회를 보장받지 못하고 있고, 인공지능에 의해 인권침해나 차별이 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황이라는 인권위에 해석이 나왔다.

인권위는 유엔은 인공지능 활용 시 인권보호 장치를 마련하도록 여러 차례 권고하였고, 유럽연합 역시 안면인식 인공지능 시스템 활용 금지, 인공지능 면접 시스템에 대한 고위험 등급 부과, 위험단계에 따른 규제수준 설정 등을 주요 내용으로 하는 “인공지능법” 초안을 공개하였다.

인권위는 “이미 국제사회는 인공지능 때문에 발생할 수 있는 문제를 예방하기 위한 제도와 지침을 개발하고 있다.”며 국무총리에게 ‘가이드라인’에 기초하여 인공지능 관련 정책이 수립․이행되고, 관계 법령이 제․개정되도록 관련 부처들을 유기적으로 조정 하고 통할할 것을 권고하였다.
 

저작권자 © 데일리시사닷컴 무단전재 및 재배포 금지