윤강준 국가수리과학연구소 산업수학전략연구부 박사 |
인공지능기술에 대한 사회구성원의 합의는 그렇게 쉬운 문제는 아니다. 얼마 전에 자율주행 자동차가 지녀야 할 기술에 대해 소비자들의 의견을 묻는 다음과 같은 설문조사가 있었다. 도로 위에서 자율주행을 하던 중 도로 위의 보행자와 자동차 탑승객의 생명 중 하나를 선택해야 하는 응급상황이 발생했을 때 자율주행자동차는 보행자를 구하기 위해 도로 밖으로 벗어나도록 설계해야 하는지 아니면 도로에 머무르면서 탑승객의 안전을 우선시하도록 설계돼야 하는지에 대해 물었다. 대부분의 응답자들은 보행자를 우선시하는 기술을 자율주행자동차는 지녀야 한다고 답했다. 그다음 질문으로 A자동차는 탑승자를 우선시하도록 설계돼 있고 B자동차는 보행자를 우선시하도록 설계됐을 때 어떠한 자동차를 구매하겠느냐고 묻자 대부분은 A자동차를 구매하겠다고 응답했다.
인공지능기술이 100이라면 데이터가 90일 정도로 인공지능기술은 사용하는 데이터에 영향을 크게 받으며, 인공지능 알고리즘에 어떠한 데이터를 입력시키느냐가 중요하며 그래서 인공지능기술은 "쓰레기를 넣으면 쓰레기가 나온다 (garbage in, garbage out)"라고 표현한다. 신입생 선발 과정에서 공정성을 기하기 위해서 영국 세인트조지 의과대는 신입생 선발 과정을 자동화했는데 기대와는 달리 여성과 비유럽계 지원자에 대한 차별이 발생했다. 이는 의과생들은 유럽계 남성들이 주를 이루었으며 이를 통해 선발을 위한 데이터를 모았기 때문이다. 또한 다음과 같은 상황을 살펴보자. 달리는 자동차는 당연히 사람과 동물 중 사람을 우선시할 것이다. 그런데 사람에 대한 정보가 백인 위주로 취합됐다면 도로 위의 흑인여성은 무엇으로 판단하겠는가? 그리고 이와 같이 자율자동차에 사고가 발생했을 때 그 책임은 개발자, 판매자, 구매자 중 누구에게 있는가? 따라서 인공지능기술의 개발과 활용에 합의는 개발자와 사용자뿐만 아니라 사회구성원과도 함께 논의돼야 한다.
최근 인공지능의 제작과 관련해 윤리적 규제가 필요하다는 목소리가 높아지고 있으며 이에 대한 지침마련에 논의가 활발하게 진행되고 있다. AI 개발에 필요한 윤리적 가이드라인으로 다음의 네 개의 원칙을 들 수 있다. 첫째는 인권보호 즉, 인간 중심적이고 사회에 유익해야 한다는 것이며 이를 위한 최소한의 의사 결정권이 사람에게 있어야 한다는 것이다. 둘째는 모두관계에서 공정해야 한다. AI기술은 개발자의 의도에 의해 편향성을 가질 수밖에 없는데 개발자는 최대한 공정하고 편견 없이 기술을 개발해야 한다. 그리고 AI기술은 투명해야 한다. 개발자는 적용되는 데이터, 작동원리나 성능에 대해서 사용자에게 공개해야 하며 사용자는 기술 사용 목적을 투명하게 해야 한다. 마지막으로 개발자는 AI기술에 대한 윤리적 책임감을 지녀야 한다.
AI는 컴퓨터로 하여금 인간처럼 인지하고 행동하게 만들려는 의도에서 출발했다. 그런 기계적이지 않고 인간적이라는 것은 상대방을 배려하고 함께 행복을 영위하려는 자발성이 있다는 것이다. 따라서 가장 AI적인 기술은 당연히 윤리적일 수밖에 없다.
윤강준 국가수리과학연구소 산업수학전략연구부 박사
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지