신동철 변호사 |
그런 감상 한편으로 문득 노래들이 너무나 정교하고 자연스러워서 덜컥 겁이 나기도 했다. 기술이 계속 발전되고 표시를 하지 않는다면, 진짜와 가짜를 구별해 낼 수 있을까. 특히 재판에서 이런 가짜 음성들이 상대방의 증거로 사용되면 진위조차 구별하지 못하는 때가 오지 않을까 하는 걱정도 되었다.
이런 영상들은 딥페이크 기술이 사용된 것인데, 딥페이크란 딥러닝(deep learning)과 가짜(fake)의 합성어로서 학습하는 인공지능(AI) 기술을 활용해 사람의 이미지·음성·영상을 합성하는 기술을 말한다.
이런 딥페이크 영상으로 큰 문제가 된 외신 보도가 종종 있었다. 4년 전 미국 대선에서 유력인사의 특정 후보 지지연설이 딥페이크로 조작된 것이 밝혀져 큰 파장이 있었다. 그런가 하면, 올해 초 홍콩에서는 영국 임원의 얼굴과 음성이 조작된 영상통화를 통해 이에 속은 직원이 한화 약 340억 원을 송금하는 영화에서나 있을 것 같은 사건이 일어나기도 했다. 영상통화에 여러 사람이 등장했는데, 모두 직원의 얼굴을 딥페이크로 재현한 것이었다.
예전에는 딥페이크 기술이 일부 전문가만이 구현할 수 있는 어려운 것이었지만 지금은 초등학생도 인공지능 어플을 이용하여 지인 사진 한 장으로 수 분 만에 금방 영상물을 제작할 수 있을 만큼 보급되었다. 이렇게 쉽게 딥페이크에 접근할 수 있다는 것은 누구나 범죄의 표적이 될 수 있다는 것을 말하기도 한다. 최근 딥페이크 음란물이 사회문제가 되자 중학생 개발자가 딥페이크 피해가 의심되는 지역이나 학교가 표기된 지도를 만들었는데, 짧은 시간에 피해가 접수된 학교가 600개가 넘는다고 하니 이미 그 심각성을 알 수 있다.
이렇듯 청소년들이 또래 친구, 연예인, 심지어 가족의 사진을 이용하여 딥페이크 음란 편집물을 만드는 일에 가담하는 경우가 늘어나고 있는데, 이에 대해 전문가들은 갑자기 터진 문제가 아니라 지속적으로 방치되어 있었던 문제이며, 청소년들의 단순한 성욕이나 호기심의 문제로 가볍게 볼 일이 아니라고 입을 모은다. 가담 청소년들은 자신의 행위가 범죄임을 인식하면서도 붙잡힐 염려가 없고 잡히더라도 처벌이 약하니 괜찮다는 생각에 이런 일을 저지르고 있다는 것이다. 또한 이런 행동이 또래 집단에서 인정받기 위한 놀이라는 생각이 만연되어 있다고 한다.
현행 성폭력처벌법 14조의 2 규정으로도 딥페이크 영상물 제작과 반포 행위에 대해 '허위 영상물 등을 제작·반포하면 5년 이하 징역 또는 5000만원 이하 벌금에 처할 수 있게 하고, 영리를 목적으로 제작·반포한 경우엔 7년 이하 징역으로 가중 처벌'하고 있다. 딥페이크 영상물을 제작하거나 퍼뜨리는 것은 단순히 호기심이나 장난으로 치부할 문제가 아니라, 피해자의 인생을 송두리째 망가뜨릴 수 있는 심각한 범죄행위라는 인식이 필요하다.
당국도 이러한 범죄행위에 대하여 더 이상 훈계나 솜방이 처벌로 그치지 않는다는 것을 보여주어야 하고, 입법을 통한 처벌 강화가 필요하며, 이러한 딥페이크 편집물에 대해서 생성형 AI를 기반으로 만들어졌다는 사실이 의무적으로 표시되도록 제도적인 보완도 시급히 요구된다.
/신동철 법무법인 유앤아이 변호사
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지