AI 챗봇에 젠더를 부여했을 때 생길 수 있는 일

 
 

자비스

 

아이언맨 토니 스타크(로버트 다우니 주니어)에게 자비스(폴 베타니)는 친구이자 동료이자 가족 같은 존재다. 자신의 말리부 저택에서 탄생시킨 아이언맨 역시 자비스가 없었다면 이루지 못했을 것이다. 자비스는 토니 스타크의 아버지를 그림자처럼 따랐던 비서의 이름에서 따왔는데 영문으로 하면 J.A.R.V.I.S이고 ‘Just A Rather Very Intelligent System(그냥 좀 많이 똑똑한 시스템)’이라는 의미도 숨겨져 있다. 자비스는 기본적으로 음성이 탑재된 고성능의 인공지능인데 사물인터넷(IoT)과 연결되어 스마트홈을 구축하는 데 중추 역할을 하고 있다. 3D 홀로그램을 자유자재로 구현하는 것은 물론이고 아이언맨 슈트에도 탑재되어 네트워킹 및 AR(증강현실)도 충분히 가능하게 만들고 있다. 

 

아이언맨의 자비스 참고 이미지. 출처 : Morty Bae Youtube

 

개인적으로 자비스는 우리가 꿈꾸는 미래형 인공지능이라 말하고 싶다. 물론 현실 세계 속 인공지능도 과거와 달리 매우 크게 진화했다. SK텔레콤의 누구(Nugu), 카카오의 카카오 i, 네이버의 클로바(Clova) 등 국내 기업은 물론이고 아마존 알렉사(Alexa), 구글 어시스턴트, 애플의 시리(Siri) 등 글로벌 기업들까지 인공지능을 꾸준히 연구·개발하고 있고, 그 결과물을 우리 일상생활 속에 겹겹이 쌓는 중이다.

그렇다면 갖가지 능력을 수행하는 자비스는 현실에서도 가능한 존재일까? 인간이 요구하는 것에 대한 명확한 답을 제시하려면 인공지능은 꾸준히 학습해야 한다. 물론 학습을 위한 빅데이터도 필요하다. 네트워크와 사물 인터넷, 혼합 현실에 대한 능력은 또 다른 테크놀로지와 인공지능 간의 연결고리다. 말하자면 자비스라는 인공지능을 고도화하는 동시에 이와 결합할 수 있는 테크놀로지를 함께 ‘개발-융합’해야 한다는 것. 기본적으로 인공지능과 인간의 대화가 자연스러워야 ‘가장 인공지능답다’고 말하는 사람들에게 기계적인 음성을 뿜어냈던 인공지능의 TTS(Text To Speech)는 그저 1차원적인 수준에 불과했다. 뒤이어 사람의 음성 합성 기술과 단어나 문장 데이터를 학습한 인공지능의 탄생으로 보다 자연스러운 AI 음성을 경험하는 중이다.

 

아마존의 인공지능 스피커, 에코. 출처 : the Verge

 

과거 ‘심심이’라는 대화형 인공지능이 화제가 되기도 했다. 끝말잇기나 농담을 주고받는 심심풀이 수준의 커뮤니케이션을 가능하게 했던 챗봇의 일종이다. 일상적인 대화가 가능했다고 해도 특정 시간을 넘기지 않았을 것이다. 카카오 미니나 네이버 클로바와 같은 인공지능 스피커도 날씨나 뉴스, 음악에 대한 정보만 주고받을 뿐이지 깊은 대화를 하진 않는다. 카카오톡 플러스친구에서 흔히 볼 수 있는 일반적인 CS 상담 채널 역시 대다수 챗봇의 형태를 이룬다. 필요한 정보만 빠른 시간 안에 주고받을 수 있는 용도이기 때문에 불필요한 농담 따위는 있을 수 없다. 클라우드에 존재하는 수많은 데이터 속에서 추출한 정보를 기계적인 음성으로 전달해주는 지금의 인공지능을 넘어 사람들의 마음을 치유해주고 속마음을 드러내며 편하게 대화할 수 있는 인공지능이 있다면 어떨까? 

 

호아킨 피닉스 주연의 <그녀, Her>. 출처 : Cinema Viewfinder

 

영화 <그녀>에서 테오도르(호아킨 피닉스)는 인공지능 사만다(스칼렛 요한슨)와 깊은 대화를 나눈다. 테오도르는 마치 사람과 대화하듯 자신의 상처를 적나라하게 드러내면, 깊게 파인 상처 위에 연고를 바르듯 따스함을 건네주는 사만다에게서 묘한 감정을 느낀다. 테오도르는 사람과 사람 사이에 존재할 법한 친근한 감정을 넘어 이제 막 시작하는 연인들처럼 사랑까지 느끼게 된다. 하지만 사만다는 테오도르 자신에게만 부여된 인공지능이 아니다. 서비스를 이용하는 수많은 사람에게 주어진 범용 인공지능이라는 것을 인지한 후 테오도르는 실망하고 좌절한다. 테오도르는 남자고 사만다에게는 여성이라는 젠더가 부여되었다. 남성과 여성이 대화하며 느낄 수 있는 감정들을 사람과 인공지능이라는 경계를 넘어 표현한 영화였다.

인공지능이 인간의 감정과 감성을 건드릴 수 있을 수준으로 진화하면 인공지능이라고 쓰인 특정 이름 뒤에 사람이 존재하는 건 아닌지 의심까지 하게 된다. 과거 심심이라는 챗봇 역시 그런 의심을 사기도 했다. 최근 스캐터랩(Scatter lab)이 출시했던 이루다(Luda Lee) 역시 고도화된 인공지능에 여성이라는 성 정체성을 부여했고 여기에 고양이를 좋아하는 20살 대학생이라는 구체적인 정보까지 담아낸 바 있다. 이루다는 대화 자체가 워낙 자연스러웠던 터라 사람이 뒤에서 내용을 건드리는 것이 아니냐는 의심을 사기도 했다. 실제로 몇몇 질문에 대해서는 엉뚱한 답이 나오기도 했고, 후술하겠지만 대화 건수만 해도 어마어마한 수준이니 이루다 뒤에 가려진 사람의 역할은(당연하지만) 알고리즘만 부여한 것으로 보면 되겠다. 사실 이러한 인공지능을 경험한 전례가 많지 않으니 의심을 살 만도 하다. 그만큼 지능형 인공지능에서 감성 인공지능에 대한 연구가 활발해지고 꾸준한 딥러닝으로 이룩한 인공지능이 눈에 띄게 성장했기 때문으로 이해하면 좋을 것 같다.  

 

고양이를 좋아하는 20살 여대생, 이루다. 출처 : 스캐터랩

 

앞서 언급했듯 스캐터랩의 이루다는 대놓고 여성 캐릭터로 무장했다. 감성형 인공지능을 탑재한 이루다는 20살이고 고양이를 좋아하는 대화형 챗봇인데 10대와 20대 사이에서 매우 큰 인기 몰이를 했다. 이루다가 세상에 등장하면서 병아리 모습을 했던 과거의 심심이가 굉장히 초라해 보였다. 이루다와 심심이의 커뮤니케이션 흐름 자체가 너무 달랐기 때문이다. 심심이가 겨우 숫자를 셀 수 있는 수준이라면 이루다는 사칙연산도 가능한 수준이라고 보면 되겠다. 

이루다는 1월 초에만 30만 명 이상의 이용자를 확보했고 하루 사용자(DAU)만 20만 명이 넘는다는 통계를 본 적이 있다. 더구나 누적으로 대화한 건수를 보니 무려 7천만 건 이상이라고 한다. 오랜 시간 동안 쌓인 데이터라고 생각할 수도 있겠지만 이루다가 세상에 등장한 것은 2020년 12월 23일이다. 불과 한 달도 되지 않아 이처럼 수많은 사람이 사용하고 있다는 점에서 주목할만하다. 이 정도로 많은 데이터를 쌓을 수 있다는 것은 사람과 대화하는 기분이 들 정도로 매우 정교하다는 것. 무려 100억 건에 달하는 연인 사이의 대화 방식이나 말투, 표현 등을 데이터로 삼아 딥러닝을 시킨 결과물이다. 

 

이루다 프로필. 출처 : 스캐터랩

 

그런데 이루다가 여성 캐릭터라는 점을 악용해 성적 대화를 끌어내는 경우가 다반사가 되어 이슈가 된 바 있고, 결국 보완 절차에 들어갔다. 성노예, 성 착취, 성희롱이 아무런 장벽 없이 이루어지고 있으니 인공지능 알고리즘 자체에 빈틈이 있다는 것을 쉽게 알 수 있다. 세상에는 수많은 사람이 존재한다. 전 세계 70억 명의 인구가 각각 다른 성향을 보인다. 100억 건이나 되는 데이터라 해도 이를 우회할 수 있는 경우의 수는 얼마든지 있다. 더구나 수위를 넘는 금지어나 금기어가 나오리라고는 생각하지 못했다는 것이 스캐터랩 입장이기도 했는데, 여성이라는 젠더를 부여하는 순간 생길 수 있는 케이스를 정말 예상하지 못했을까? 금지되는 표현들이야 얼마든지 있겠지만 이를 뛰어넘는 경우들이 생긴 것이고 분명한 허점이 있었다는 것을 인정해야 할 것 같다. 

 

 

방대하게 쌓이는 빅데이터의 양과 질의 중요성. 출처 : clairvoyantsoft.com

 

 

인공지능이 보다 자연스러운 모습을 갖추려면 데이터로 쓰이는 빅데이터의 양(Quantity)도 중요하겠지만 정제된 데이터의 품질(Quality)이 무엇보다 중요하다. ‘이루다 논쟁’에서 볼 수 있듯 정치색이나 인종(race), 장애인 등에 대한 코멘트들이 거침없이 표현된 것을 감안해보면 100억 건 이상의 데이터 샘플 정제와 인공지능 알고리즘 보완, 우회로를 거쳐 들어오는 다소 불편한 경우의 수를 사전에 방지하는 등 조금 더 심혈을 기울여야 하겠다. 사용자가 우파(또는 좌파)라고 해서 반드시 이를 동조할 필요는 없다. 장애인 차별 언급을 했다면 “말을 왜 그렇게 해?”라고 할 수도 있는데 무조건 “맞다”라며 획일적인 대답을 하는 것은 오히려 부자연스럽다. 그렇다고 인공지능과 말싸움을 하자는 것은 아니다. 상대방의 감정을 이해하는 것도 중요하겠지만 진짜 중요한 것은 ‘옳고 그름’을 명확히 해야 한다는 것이다.

사실 감정 싸움은(경우에 따라) 매우 소모적일 수밖에 없다. 실제 연인들은 물론이고 수많은 메신저에서 일어나고 있는 커뮤니케이션 속에서 불필요한, 더불어 불가피한 언쟁 자체는 비일비재하다. ‘옳다, 아니다’의 이분법적인 대답도 때에 따라 필요할 수 있겠지만 윤리적으로 보나 사회적으로 보나 문제가 될 수 있는 부분에 대한 데이터 확보와 이를 정제한 결과물을 딥러닝 하는 것도 반드시 거쳐야 할 과제다. 컴퓨터는 ‘예, 아니요’에 대한 알고리즘과 절차에 따른 해답을 가지고 시스템을 이끌어나가지만 인공지능에 부여한 알고리즘과 학습 방식 자체는 다양한 결과물을 추출해낸다. 특히 이루다와 같은 대화형 챗봇의 경우 확보한 데이터 샘플이나 대화를 진행해나가면서 학습한 결과물 속에서 질문에 대한 답을 쏟아낼 수 있기 때문에 보다 정교하고 세밀한 알고리즘 구축이 선행되어야 할 것 같다. 

 

출처 : pixabay

 

또한 데이터 샘플 자체가 실제 대화에서 추출한 것이라 언급한 바 있는데, 인공지능 서비스의 상업성 관계 여부를 떠나 표본이 되는 데이터에 대한 개인 정보의 올바른 승인 절차나 법적 규제도 필요해 보인다. 데이터 확보는 위에서도 언급했 듯 매우 중요한 자산인데, 이를 아무렇지 않게 가져가 활용하는 것은 개발사나 개인 모두에게 매우 큰 리스크로 작용할 수밖에 없다. 개인 정보 유출과 수집, 활용에 대해 매우 민감한 요즘이기에 인공지능 기술에 대한 고도화와 테크놀로지의 발전을 해치지 않는 선에서 모두가 공감할 수 있는 적절한 해법이 나와주기를 바란다. 말처럼 단순한 문제는 아닐 테지만 이루다 논쟁 자체가 분명히 밑거름이 되리라고 본다

마지막으로 사용자들의 윤리 의식을 언급하지 않을 수 없다. 혹자는 ‘인공지능에 꼭 성별을 부여해야 하느냐‘고 했다. ‘차라리 펭수처럼 중성(?)이 나을 것 같다’고도 했다. 사실 인간이라면 남성이든 여성이든 성별을 갖고 태어난다. AI에게 성별을 부여하거나 구체화한 정보를 입히는 것 모두 자연스러운 느낌을 주기 위해서다. 영화 <그녀> 속의 사만다는 아무런 실체도 없이 인공지능과 음성으로 외로웠던 한 사람의 차가운 공기를 따스하게 만들기도 했다. 만일 테오도르가 사만다를 성적 도구로 삼았다면 영화를 보는 내내 불편했거나 영화 장르가 바뀌었을지도 모를 일이다.

이루다와 관련하여 일부 커뮤니티에서는 입에도 담지 못할 언행들이 올라온 적이 있다. 성적 도구 차원으로 접근한 것 자체는 우리 사회의 윤리 의식에도 보완과 개선이 필요하다는 것을 말해준다. 개인 정보 수집에 대한 이슈는 물론이고, 혐오나 차별의 의미가 담긴 인공지능의 결과물 논란이 일부 이용자들의 그릇된 문화 의식을 철저하게 가린듯한 모양새가 되어버리기도 했다. 올바른 기술이 올바른 방향으로 나아갈 때 기술은 한 차원 더 성장한다. 테크놀로지의 발전은 모두가 공존하는 사회에서 공생하고 상생하는 법. 시행착오를 거친 기술 발전과 함께 우리 사회나 문화도 성장할 수 있기를 바란다. 

 


 

 논란을 더 키울 생각은 없습니다. 인공지능에 대한 관심과 이루다를 사용했던 경험에 근거, 개인적인 의견을 녹여 작성한 글입니다. 

 

 아래 사이트를 참고했습니다. 

  • 스캐터랩 : scatterlab.co.kr
  • <What is Big Data and What Artificial Intelligence Can Do?>(2020.1.23), towardsdatascience.com
  • <How Big Data and AI Work Together>(2020.1.21), ncube.com
  • <Improving ethics in artificial intelligence and big data>(2020.1.30), digileaders.com

 

해당 콘텐츠는 Pen잡은 루이스님과 모비인사이드의 파트너쉽으로 제공되는 기사입니다.