황순욱 한국과학기술정보연구원(KISTI) 책임연구원 |
지금까지 많은 글로벌 챗봇 서비스가 출시됐다. 아마존의 알렉사, 애플의 시리, 마이크로소프트의 테이 등이 대표적이다. 2016년 선보인 MS 테이의 경우 일부 사용자들의 쇠뇌에 의해 부적절한 차별발언으로 16시간 만에 서비스가 중단됐다. 지금까지 챗봇에 대한 인상은 그저 심심할 때 재미삼아 한번 해보는 장난감 정도다. 공개 후 잠시 사람들의 이목을 끌다가 이내 관심 밖으로 사라졌다. 이번은 좀 다른 것 같다. 출시된 지 한 달이 넘었는데도 SNS상에 챗GPT 해보기(챗GPT로 돈벌기·책쓰기·유튜브 영상 만들기·코드 짜기 등) 열기가 입소문을 타고 점점 더 번져나가고 있다.
필자도 챗GPT 사이트에 가입해서 "너는 누구냐"(who are you)라고 물어보았다. "저는 오픈AI에 의해 훈련된 초거대 언어 모델인 어시스턴트입니다. 저는 사람이 아니라 질문에 답하고 다양한 주제에 대한 정보를 제공하도록 설계된 컴퓨터 프로그램입니다"라는 답변이다. "어떻게 훈련받았나"(how were you trained)라고 물었더니, "제 경우에는 대규모 텍스트 데이터를 입력으로 다음 단어를 예측하는 방법을 학습해 인간과 유사한 문장을 생성하도록 훈련받았습니다. 제 훈련 데이터는 책, 기사, 웹사이트 등 다양한 출처에서 가져왔습니다"라고 답한다.
챗GPT는 온라인상에 존재하는 방대한 양의 텍스트를 섭렵한 오픈AI에서 개발한 '초거대 AI 언어 생성 모델'이다. 2016년 MS 챗봇 테이의 16시간 만의 운영 중단 사건 교훈 때문인지 오픈AI에서는 이번 챗GPT 개발에 각별히 신경을 쓴 것 같다. 챗GPT는 비합리적인 주장, 폭력, 혐오, 차별을 담은 대화는 거부할 수 있도록 설계됐다. 또한 사실과 다른 질의에 대해서는 이의를 제기하고 바로 잡아주기도 한다.
오픈AI에 의하면 챗GPT는 기존의 GPT-3를 확장해서 인간 사용자 피드백 기반 강화학습(RLHF·Reinforcement Learning from Human Feedback)에 의해 훈련됐다고 한다. 챗GPT의 응답에 사람이 점수를 매기고 이를 강화학습 보상 알고리즘에 반영해서 챗GPT의 보상 모델을 학습시킨 것이다. 주어진 질의에 대해 사람 사용자가 판단하기에 좋은 응답이라 생각할수록 보다 큰 보상을 받고 유해한 텍스트는 생성하면 보상을 받지 못하도록 학습된 것이다. 챗GPT와 대화할 때 기계가 아닌 논리정연하면서 유창한 사람과 대화한다는 느낌을 받는 것도 이러한 RLHF 기술 덕분이 아닐까 한다.
2023년 계묘년 새해가 밝았다. 챗GPT가 어디로 어떻게 진화할까? 벌써부터 100조 개의 매개변수를 갖는 훨씬 더 진화된 GPT-4의 2023 출시 소문이 무성하다. 2023년이 구글에게 물어보는 구글링(Googling) 시대에서 챗GPT에게 물어보는 챗지피팅(ChatGPTing) 시대로 전환하는 변곡점이 될지, 아니면 MS의 테이처럼 '챗GPT 해보기' 열풍이 점차 사라지는 해가 될지 한번 지켜보자. 구글 검색과는 달리 출처를 알 수 없는 텍스트를 너무 확신에 찬 어조로 마구 내뱉는다는 챗GPT에 대한 혹평도 만만치 않다.
'챗GPT의 출현과 미래'에 대한 챗GPT의 의견을 한번 물어보았다. "챗GPT와 같은 자연어 처리 기술의 부상이 우리가 컴퓨터 및 디바이스와 상호 작용하는 방식에 혁신적인 변화를 가져왔습니다. 이러한 새로운 기술이 점점 더 널리 보급됨에 따라 잠재적인 위험을 염두에 두면서 기술이 제공하는 기회를 탐구하는 것이 중요합니다"라고 답한다. 2023년 새해 결심으로 챗GPT의 조언처럼 '챗GPT와 같은 새로운 기술과 좀 더 친해지고 새로운 기술이 제공하는 기회 탐구하기'로 정해야겠다. 황순욱 한국과학기술정보연구원(KISTI) 책임연구원
중도일보(www.joongdo.co.kr), 무단전재 및 수집, 재배포 금지