창의성 지닌 챗GPT와 그 능력을 빌려 쓰는(?) 인간

 

 

 

 

챗GPT(Chat GPT)는 이미 잘 알려진 것처럼 텍스트를 생성하는 정교한 모델이다. 당연하지만 어떠한 질문을 던지느냐(유저의 의도)에 따라서 챗GPT가 내놓는 답은 완전히 달라진다. 역시 잘 알려져 있듯 시의성이 필요한 질문이라면 다소 실망할 수도 있다. 하지만 몇 권씩이나 되는 두꺼운 백과사전을 굳이 찾지 않아도 그 안에서 필요한 핵심 정보를 찾는 것이라면 꽤 그럴듯한 답을 받을 수도 있다. 검색엔진과 비슷하다 느낄 수 있겠지만 또 다른 느낌이다.

글쓰기를 위한 용도로 활용하고자 한다면 어떠할까. 아주 간단한 질문 한 문장으로도 특정 주제의 글을 쓸 수 있도록 기초적인 틀을 잡아주기도 한다. 물론 여기서 그치진 않는다. 글의 틀이 되는 뼈대와 보기 그럴듯한 살까지 붙여주니 하나의 글을 만들어주는 능력도 갖추고 있다. 유저는 간단한 질문 몇 개만 던지면 그만이다. 이쯤 되면 글쓰기를 위한 보조 도구가 아니라 글쓴이가 되고자 하는 유저를 대신하며 그 중심에 자리 잡게 된다. 겉보기에도 완벽해 보이는 하나의 아티클을 결과물로 내놓기 때문에 챗GPT에서 얻은 결과물을 조금만 다듬으면 ‘내 것’처럼 만들 수도 있겠다.

하지만 이미 잘 알려진 것처럼 인공지능을 통한 악용사례가 다반사이기도 하고 실제로 골치라고도 했다. 때문에 이를 트레킹 할 수 있는 서비스까지 생겨났을 정도다. 사실 챗GPT가 답한 내용에 대해서는 그저 참고자료이자 보조도구로서 활용해야 한다. 정확한 DB를 학습했다면 그럴 일도 없을 테지만 정말 만에 하나 아니 십 만에 하나라도 잘못된 정보를 학습한 인공지능의 답이 틀렸다면 챗GPT에 책임을 물을텐가? 비약이 심할 순 있겠지만 전교 1등이 어쩌다 틀린 답을 썼는데 이를 커닝해서 답안지를 내놓는 것과 다를게 무엇인가?

 

 

 

 

지금의 챗GPT는 어느 시점에 멈춰있다. 실시간으로 업데이트가 되지 않은 탓에 시의성에 부실한 측면이 있다. 하지만 과거에 묻혀버린 어느 사건에 대해 물으면 즉시 답을 하기도 한다. 물론 학습하지 못한 내용을 던지게 된다면 원하는 답을 얻지 못한다. 글로벌하게 알려진 이슈에 대해서는 어느 정도 데이터 셋을 가진 것 같다. 우리나라를 벗어나지 못한 어떤 사건에 대해서는 실제로 시원한 답을 얻긴 어려웠다. 때에 따라서는 지극히 평이한 결과값을 내놓기도 했다. 마치 사전에서 읽는 내용을 요약해서 얻는 느낌이었다. 영화 <기생충>에 대해서 정보를 달라고 했을 때 굉장히 콤팩트한 답을 얻을 수도 있었다. 영화 <스타워즈> 시리즈는 한편으로 끝나지 않기에 이에 대해 글을 쓰고 싶다고 하면 어디에 포커싱 할 것이냐고 되묻기도 한다.

사실 챗GPT는 특정 단어들과 어떤 짧은 문장들을 연결하는 언어 모델 같다. 말하자면 쿼리에 맞는 키워드를 찾아 단어에 조사를 붙이고 문장을 만들어내는 셈이다. 영어든 한글이든 마찬가지다. 정교해 보이고 방대하게 느껴지는 단어들의 연쇄적인 생성과 집합 구조라는 형태는 굉장히 기계적이고 또 기능적이다. 인공지능을 뛰어넘는, 즉 인간미에 가까운 ‘언어의 온도’라는 것이 부재하다. 그러니 애초에 도덕적이고 윤리적이며 극단적인 이야기를 좀처럼 하질 않는다. 편향된 답을 내놓게 된다면 그에 따른 파장도 엄청난 수준일 테니 애초에 그렇게 학습이 되어있는 모양이다. 결국엔 지극히 중립적인 답을 내놓는다. 물론 그것이 ‘정확한 답’이라 할 순 없지만 세상에 널린 데이터가 그러하다는 것을 증명한다. 정치적인 이데올로기나 종교적인 이슈 혹은 경우에 따라 의견이 엇갈릴 수 있는 수많은 문제들에 대한 ‘정답’은 과연 존재할까? 챗GPT는 여기저기 널려있는 데이터를 학습했을 뿐이고 그에 맞는 답을 줄 뿐이다.

 

 

 

 

다시 챗GPT의 글쓰기라는 본질적인 질문으로 돌아오자. 위에서도 언급했듯 챗GPT는 글쓴이를 위한 보조도구라는 챗GPT의 정체성을 간과할 순 없다. 애초에 챗GPT가 결과물로 내놓는 ‘글’이라는 것은 굉장히 거칠다. 이제 막 나무를 깎아 어떤 조각을 만들어낸 것이라 자칫 가시에 질릴 수도 있다. 더구나 무엇을 조각해 냈는지 어림 잡을만한 수준이라 더욱 정교해질 수 있도록 다듬어야 하고 매끄러워질 수 있도록 사포질도 해야 하며 기름칠에 색칠까지 해서 내가 원하는 조각상으로 만들어내야 한다. 그래야 질적으로도 좋은 결과물을 얻을 수 있는 것이다. 그럼에도 챗GPT는 꾸준하게 학습한다. 어찌 됐든 ‘생성’이 가능한 모델이라 점점 더 정교해지고 있다. 지금 챗GPT를 통해 얻을 수 있는 글의 일부도 충분히 훌륭해 보인다. 나아가 인공지능 챗GPT의 학습이 꾸준하게 이뤄지고 알고리즘을 고도화하면 지금보다 더욱 논리적이고 완벽에 가까운 글을 내놓게 될 것이다. 여기에 업데이트까지 이뤄져 시의성까지 꿰뚫게 되면 진짜 사람의 ‘임무’를 대체할 수도 있을 것 같다. 해외 미디어에서도 AI 콘텐츠 도입에 대해 이야기했을 뿐 아니라 AI 자체가 미디어에서 보다 거대한 역할을 수행하게 될 것이라고도 했다.

챗GPT의 화려한 테크놀로지와 글쓰기 능력 이면에 가려진 치명적인 리스크도 분명히 존재하고 있다. 위에서 언급한 것처럼 글쓰기의 주체라던가 챗GPT의 정체성을 포함하여 허위정보나 가짜뉴스 등을 굉장히 교묘하면서도 그럴듯하게 만들 수도 있다는 것이다. 기사를 쓰고 교열을 하고 데스킹을 거친 하나의 아티클이 발행될 때 ‘검증’이라는 것이 필요하다고 말할 정도다. 이미 데스킹이라는 과정에서 검증이 들어갈 테지만 인공지능의 글쓰기 능력을 검증하는 또 다른 인공지능 알고리즘이 필요할지도 모를 일이다. 자칫 잘못된 정보로 점철된 것들이 아주 빠르게 유포되면 이 역시 사회적 파장이 일어나게 될 수도 있을 테니까. 이러한 리스크를 감안하면 ‘인공지능이 사람을 대체할 수 있다’라는 말과 상충되기도 하지만 어쨌든 시간문제가 아닐까. 리스크가 있다는 건 이미 챗GPT를 포함해 인공지능을 연구하고 개발하는 수많은 전문가들 역시 인지하고 있을 법한 부분들, 결국 고도화라는 것도 메이저하든 마이너 하든 이슈를 잡아내 뜯어고친다는 의미도 포함되어 있을 것이다. 다만 이를 또 다른 어뷰징으로 활용하는 것은 결국 인공지능의 능력을 빌려 쓰는 사람의 문제다.

미디어에서 활용하는 인공지능 사례로 스포츠 경기나 주식, 날씨에 대한 콘텐츠 생성 그리고 기사의 요약이나 TTS 활용 등이 있겠다. 이를 두고 로봇 저널리즘 혹은 자동생성기사라고 표현하기도 한다. 네이버의 경우는 사람이 취재해서 쓰는 기사와 로봇 저널리즘 즉 인공지능이 자동으로 생성하는 기사 자체를 분리했다. 로봇이 쓰는 주식 시장 기사가 수도 없이 쏟아져 나와 ‘공해’를 이룬다는 측면에서다. 키워드 하나 검색해도 로봇이 생성한 기사들이 검색 결과를 도배한 수준이라 이를 배치하지 못하도록 막았던 것인데 언론사에서는 저널리즘과 테크놀로지의 트렌드를 전혀 수용하지 못하는 포털이라고도 했다. 하지만 포털은 언론사가 콘텐츠의 질을 떠나 물량으로 쏟아내 버리는 또 다른 형태의 어뷰징을 이야기하며 맞받아쳤다. 어쨌든 시간은 흘렀고 이제는 단순한 자동생성기사를 넘어 챗GPT라는 차세대 인공지능이 등장한 시대가 되었다. 인공지능이 불특정 주제의 콘텐츠를 만들어내고 이를 그대로 긁어 내보내는 사례들이 있는데 저널리즘을 이야기하는 언론이 이렇게까지 하리라고는 생각하지 않겠다. 미디어오늘에서도 챗GPT 시대의 언론을 꼬집어 이야기하기도 했다. 기사에 나온 내용을 일부 인용하고 정리하여 쓰자면, 백과사전에 잘 나와있는 팩트들 그리고 어떤 데이터셋을 학습해 결과물을 내놓는 챗GPT, 우리는 이러한 내용을 참고하여 “아이디어를 얻거나 기획적 측면으로 활용하되 결과적으로 ‘국민의 알 권리’를 위해 사건에 주목하고 화두를 제시하는 언론의 역할을 수행해야” 하지 않을까?

 

 

해당 콘텐츠는 Pen잡은 루이스님과 모비인사이드의 파트너쉽으로 제공되는 기사입니다.