박병수 소장 |
그런데 AI 기술 기업 간 경쟁이 심화되면서 인공지능이 가져올 우려도 커지고 있다. 이와 같은 우려를 토대로 지난 3월 말 테슬라 최고경영자 일론 머스크와 사피엔스의 저자인 ‘유발 하라리’ 등 유명인 1천여 명은 공개서한을 발표해 챗GPT로 대표되는 거대언어모델 기반 인공지능 개발을 6개월간 중단해야 한다고 요구하였고, 가장 위협적 기술이 인간을 장악하기 전에 인간이 인공지능을 통제해야 한다고 호소했다. 이미 유엔 인권 최고대표는 2021년 '디지털 시대 프라이버시권' 보고서를 통해 국제 인권 규범을 준수할 수 없는 인공지능을 금지하고 고위험 인공지능의 경우 그 판매와 사용을 규제하는 규정을 마련하기 전까지 사용을 유예할 것을 각국에 요구한 바 있다.
우리나라는 이미 행정처분을 비롯한 공공영역의 의사결정과 기업의 면접 과정 등에서 인공지능이 단순한 지원을 넘어 결정적 판단자로 활용되고 있다. 어떤 이는 기업 채용 과정에 응모했다가 인공지능 면접에서 인성 문제가 불합격 처리돼 크게 실망했다는 말도 들린다. 문제는 일반적으로 인공지능의 판단 논리와 기준을 알 수 없어서 그 대상자는 그 결정에 동의하기 어렵다고 하더라도 그에 대해 문제를 제기하거나 적절하고 효과적인 권리구제를 받기 어렵다는 점이다.
국가인권위원회는 2022년 5월 '인공지능 개발과 활용에 관한 인권 가이드라인'을 마련했다. 이 가이드라인에는 다음과 같은 내용이 포함돼 있다. 첫째는 인공지능의 개발과 활용이 인간의 존엄성과 개인의 행복을 추구할 권리에 부합하는 방향으로 이루어져야 한다. 둘째는 알 권리 보장을 위해서 인공지능의 판단과정과 그 결과에 대한 적절하고 합리적인 설명이 보장되어야 한다. 셋째는 인공지능 개발과 활용에서 정보주체는 인공지능 서비스가 언제, 어디서 자신의 개인정보를 수집하고, 어떻게 개인정보를 처리해 사용하고 보관, 삭제하는지에 대해 알고 참여할 권리, 즉 ‘개인정보자기결정권’을 보장받아야 한다.
넷째는 인공지능의 결정이 특정 집단이나 일부 계층에 편향적이고 차별적인 결과가 나오지 않도록 필요한 조치를 취해야 한다. 다섯째는 인공지능 개발 및 활용에 대한 인권영향평가 제도를 마련하고 평가 결과 부정적 영향이나 위험성이 드러난 경우 이를 방지할 수 있는 조치사항을 적용하고 그 결과를 공개해야 한다. 여섯째는 개인의 인권과 안전에 미치는 인공지능의 위험성을 단계별로 구분하고, 그에 걸맞은 법과 제도가 마련되어야 한다.
국가인권위원회는 이러한 원칙을 실현하기 위하여 국가인권위원회는 국무총리를 비롯한 관련 부처와 기관장에게 인권위가 발표한 가이드라인에 기초해 인공지능 관련 정책이 수립·이행되고 관계 법령이 제·개정되도록 할 것과 공공기관 및 민간 기업이가이드라인을 준수하도록 적극 관리·감독할 것을 권고했다. 이에 대해 정부는 국가인권위원회의 권고취지에 공감을 표하며 관련 정책과 사업 및 제도 개선에 가이드라인의 내용을 반영하겠다고 회신하였다.
이미 늦었을 수도 있지만, 아직은 인공지능에 대한 의존도가 상대적으로 낮은 지금이야말로 인공지능의 기술 개발과 인권적 가치가 균형 있게 진행될 수 있는 여건을 조성할 마지막 기회라고 할 수 있다. 이러한 기회를 잘 살려 인공지능이 주는 혜택을 사회적 약자를 포함하여 모든 사회구성원이 평등하게 누릴 수 있도록 관련 법률과 제도가 구체적이고 실효적으로 정비되어야 할 것이다.
/박병수 국가인권위원회 대전인권사무소장
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지