▲ETRI 정보보호연구본부장 진승헌 |
요즘 인공지능을 기반으로 하는 다양한 서비스가 생겨나고 있다. 구글의 구글 홈, 아마존의 에코, 애플의 홈팟 등은 스피커에 인공지능을 탑재하여 검색뿐 만 아니라 구매대행까지 다양한 콘텐츠를 추천해준다. IBM의 인공지능 의사 '왓슨'은 일부 국내 대학 병원에도 도입돼 진단과 치료에 관하여 의료진에게 의견을 제시한다. 또한, TV, 냉장고, 스마트폰, 자동차 등에도 인공지능 탑재가 확산되어 '알아서 척척' 해주는 편리한 서비스를 제공해 준다. 이제 인공지능은 우리의 삶의 한 부분으로 자리 잡아가고 있다.
그러나 인공지능을 이용한 서비스가 우리 생활에 악영향을 끼지는 '허점'을 내포하고 있다면 과연 어떻게 될까? 작년 5월에 발생한 테슬라 자율주행차의 인명사고는 이미지 인식을 잘못하여 오동작한 사례로, 대형 트럭의 흰색 옆면을 밝은 하늘과 구분하지 못해 발생했다. 이 경우는 자율주행 자동차의 그 당시 기술적 미비함으로 생긴 사고이지만, 만약 해커에 의해 이미지 인식 취약점을 이용한 악의적인 공격이 발생한다면 인명 및 재산상의 심각한 피해가 발생할 가능성이 존재함을 단적으로 보여주는 사례라고 할 수 있다.
얼마 전 미국 워싱턴대 연구팀이 실험을 통해 자율주행차의 이미지인식 취약점을 경고했다. 자율주행자동차는 탑재된 다양한 센서를 통해 주위의 자동차나 보행자, 도로 표지판 등을 촬영하고 기계 학습을 통해 인식하여 도로 상황을 파악, 주행한다. 그런데 연구팀은 실제 도로 표지판과 같은 크기의 모형을 만들고 스티커를 붙여 자율주행자동차의 시스템을 오작동 시킬 수 있음을 입증했다. '우회전'을 의미하는 도로 표지판에 가공된 스티커를 붙여 '시속 45마일 제한'이라는 속도 제한 표지판이라고 오인식 하도록 하거나 '일시 중지' 표지판을 '시속 45 마일 제한'이라고 잘못 인식되도록 한 것이다.
2015년 구글 연구팀의 논문에 따르면 사람의 육안으로는 구별하지 못하는 미세한 빛의 왜곡을 가했더니 구글의 이미지 인식 알고리즘 '구글넷(GoogLeNet)'이 99.3%의 신뢰도로 '팬더'를 '긴팔원숭이'로 오인식했다고 한다. 이처럼 인공지능을 속이는 기술들이 연구되고 있다. 이 기술에는 '대립적 정보'가 쓰인다. 즉, 인간의 감각기관으로는 정상적으로 보이지만 기계의 센서는 전혀 다른 것으로 인식하는 이미지나 소리, 텍스트 등을 말한다. 일부 연구에서는 이미지를 불과 4%만 변조해도 해당 이미지를 잘못된 카테고리로 분류하도록 만들 확률을 97%까지 높일 수 있다고 한다.
제4차 산업혁명시대 인공지능을 기반으로 생산성을 극대화하고 삶을 윤택하게 하는 것은 모두의 바람이다. 하지만 보안을 고려하지 않고 만들었던 인터넷이 넓게 쓰이면서 곳곳에서 보안 문제를 땜질처방 하느라 겪었던 어려움을 타산지석으로 삼아야 한다. 따라서 AI의 역기능에 대한 폭넓은 검토와 준비가 필요한 시점이다. 특히 설계 단계부터 보안 문제를 고려해 어떤 공격에도 오동작하지 않는 신뢰 가능한 인공지능을 만드는 연구가 필요하다. AI가 확실한 '믿는 도끼'가 돼 원하는 나무만 찍고 내 발등을 찍지 않길 바라기 때문이다.
▲ETRI 정보보호연구본부장 진승헌
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지