챗GPT 가짜 뉴스 기승, AI 감지 도구 활용성 ‘급부상’했다

생성형 AI 이용한 가짜 뉴스 문제 심각해져 GPT제로 등 AI 감지 도구 등장, 하지만 정확도는? 생성형 AI, 적절히 사용할 수 있는 방안 고민해야 할 때

pabii research

8일 중국에서 AI 기술을 이용해 가짜 뉴스를 제작·유포한 남성 홍모씨가 붙잡혔다. 홍씨는 현지에서 열차 사고가 발생해 9명이 숨졌다는 가짜 뉴스를 확산시킨 혐의를 받고 있다. 이와 같은 챗GPT 등 생성형 AI를 이용한 가짜 뉴스 유포 사례는 점차 늘어나는 추세다. 실제 미국의 뉴스 신뢰성 평가 사이트 ‘뉴스가드’가 발표한 ‘뉴스봇의 부상: 온라인에서 확산하는 AI 생성 뉴스 웹사이트’ 보고서에 따르면 AI 챗봇을 이용하고 있는 뉴스 사이트 중 49개의 사이트가 가짜 뉴스를 게재한 것으로 나타났다.

‘GPT제로’ 급부상, 사람과 AI 가려준다

가짜 뉴스 유포 정도가 심각해지기 시작하자 AI가 작성한 텍스트와 사람이 작성한 텍스트를 가려내 표절을 막아주는 애플리케이션 ‘GPT제로(GPTZero)’가 급부상하기 시작했다. GPT제로는 프린스턴대학교에서 컴퓨터과학과 저널리즘을 전공한 에드워드 티안이 지난 1월 선보인 애플리케이션으로, 난해성(perplexity)으로 알려진 텍스트의 임의성과 텍스트 내 이러한 임의성의 균일성(burstiness)을 분석하는 방식으로 AI가 사용된 문장을 가려낸다.

GPT제로에 대한 대중들의 관심은 뜨거웠다. AI를 이용해 가짜 뉴스를 유포하는 등 오용 사례를 막기 위해 이미 120만 명 이상이 GPT제로를 이용하고 있다. 이에 힘입어 티안은 네오캐피탈, 언코크캐피탈 등 벤처캐피탈(VC)로부터 350만 달러(한화 약 46억원)의 투자금을 유치하기도 했다. BBC 등 대형 미디어 조직과 뉴욕타임스 전 CEO인 마크 톰슨 등 다양한 업계 경영진과 협력해 AI 탐지 및 분석을 위한 파트너십도 논의하고 있는 것으로 알려졌다.

티안은 현재 10명가량의 팀원과 함께 프로젝트를 수행 중에 있다. 기계 학습 박사 과정 학생이던 이들은 AI 기계 학습에 대한 투명성을 비전으로 함께 GPT제로를 만들어 냈다. 사측에 따르면 이렇게 이들이 제작한 GPT제로의 정확도는 사람이 쓴 텍스트를 가려내는 데 99%, AI 텍스트의 경우 85%다.

GPT제로 독점 체제, 과연 오래갈 수 있을까?

반면 챗GPT를 개발한 오픈AI가 내놓은 비슷한 서비스는 정확도가 확연히 떨어진다. 오픈AI의 감지 도구는 AI가 작성한 텍스트의 단 26%만을 ‘AI가 작성했을 가능성이 있다’ 정도로 평가한다. 또 사람이 작성한 텍스트는 9%가량을 AI가 작성한 텍스트로 잘못 인식한다. 사람이 작성한 텍스트의 경우에도 정확도는 90%를 겨우 넘는다는 의미다. 특히나 영어 이외의 언어에선 판별력이 더욱 떨어지는 것으로 알려져 사실상 GPT제로의 하위호환으로 불린다.

그러나 GPT제로의 시장 독점 체제는 그리 오래가지 못할 것으로 보인다. 다양한 카피캣(잘 나가는 제품을 그대로 모방해 만든 제품)이 속속 나타나고 있기 때문이다. 한 회사에선 ‘제로GPT(ZeroGPT)’라는 GPT제로와 거의 흡사한 애플리케이션을 내놓기도 했다. 박사 과정 학생 10명가량으로 구성된 협소한 팀이 지닌 한계도 무시할 수 없다. 다양한 전문가들이 시장에 뛰어들기 시작하면 이들은 경쟁에서 밀려날 수밖에 없다.

무엇보다 오픈AI 측에서 본격적으로 AI 감지 도구를 개발하기 시작한다면 GPT제로가 따라잡히는 건 시간문제다. 오픈AI는 챗GPT를 만들어 낸 장본인이다. 즉 그 누구보다 각각의 알고리즘이 어떻게 작동하는지, 이를 바탕으로 해당 알고리즘이 어떻게 결과물을 추적하는지 가장 잘 알고 있다는 의미다. 사실상 GPT제로가 시장을 휘어잡을 날은 얼마 남지 않았다.

수익 창출 경로가 마땅치 않다는 점도 문제다. 현재 무료로 제공되고 있는 GPT제로가 유료로 전환됐을 때 이를 이용할 사람들이 있겠냐는 것이다. 사측이 설명하는 것과 달리 GPT제로의 정확도가 그리 높지만은 못하다는 점도 발목을 잡는다. 실제 GPT제로를 이용해 두 명이 챗GPT로 쓴 영어 에세이를 검사한 결과, 하나는 ‘완전히 AI가 썼다’는 결과를, 다른 하나는 ‘완전히 사람이 썼다’는 결과를 내놓았다. 한글 기사의 경우 ‘완전히 AI가 썼다’고 말하는 오류도 있었다. 이에 대해 임준호 한국전자통신연구원(ETRI) 언어지능연구실 책임 연구원은 “아직 믿을 만하게 AI와 사람의 글을 구분하는 기술은 없다”고 말했다.

사진=pexels

생성형 AI 문제 명확해, 가짜 뉴스 먼저 잡아야

AI 감지 도구에 대한 니즈는 확실히 존재하기에 앞으로 지속적으로 연구가 진행되고 발전될 것으로 보인다. 여전히 챗GPT 등 AI를 활용한 작업물에 대한 문제점이 적지 않기 때문이다. 챗GPT를 활용한 언론 활동이 장기화될 경우 신뢰성이 결여된 정보가 잘못된 인식과 여론을 형성하는 등 어긋난 결과를 불러올 수 있다. 챗GPT는 방대한 자료를 정리하고 요약할 뿐이기 때문이다.

가짜 뉴스 유포에 대한 우려도 쏟아지고 있다. 지난해 호주 남부 햅번셔의 시장으로 선출된 브라이언 후드는 챗GPT로 인해 해외 뇌물 수수 사건에 연루된 피의자로 잘못 알려진 바 있다. ‘세종대왕 맥북프로 던짐 사건’과 같은 황당한 가짜 뉴스를 퍼뜨리기도 했다. 챗GPT는 이와 관련해 ’15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던졌다’는 답변을 내놓았는데, 누가 봐도 말이 되지 않는 설명이다.

문제는 또 있다. 챗GPT 등 AI를 악용한 불공정거래 및 착취가 발생할 수 있다는 게 바로 그것이다. 실제 미국 할리우드 영화·방송업계 작가들은 AI로 인해 악화된 업무 환경 개선을 요구하며 파업에 돌입하기도 했다. 이들이 지적하는 건 초기 기획부터 대본 완성까지 모든 과정에 작가가 참여하는 것이 아닌 일부에만 참여할 우려가 있다는 것이다. 예컨대 여러 작품을 학습한 생성형 AI를 이용해 기본적인 초안을 만든 후 작가진을 참여시켜 스크립트를 작성하도록 함으로써 완성도를 높이는 과정이 반복될 수 있다는 것이다. 이 같은 상황이 이어질 경우 전체 작업에서 작가들의 참여 비중이 줄어드는 만큼, 할당되는 비용도 낮아질 수 있다.

대표적인 불공정 거래 사례로 제시되는 것이 ‘미니룸’이다. 미니룸은 OTT 경쟁이 심화됨에 따라 콘텐츠 개발 속도를 높이기 위해 등장한 새로운 개발 관행으로, 소수의 작가 그룹을 섭외해 수많은 종류의 스크립트를 만든 후 이 중 적합한 것을 책정해 공식적인 콘텐츠로 제작하는 방식이다. 미니룸에 투입된 작가들은 정식 작가로 섭외한 것이 아니며, 스크립트 당 2~3명 정도의 소규모 팀으로 이뤄져 ‘소액’으로 빠르게 콘텐츠 개발을 시작할 수 있다. 이러한 미니룸 방식으로 인해 더 적은 인원이 투입된 만큼 작가들의 평균 임금도 줄어든 것으로 알려졌다.

생성형 AI 기술 자체를 반대하는 이들은 적다. 새로운 AI의 흐름에 편승하지 못한다면 도태될 것이란 인식은 누구나 갖고 있다. 다만 AI로 인해 가짜 뉴스가 유포되거나 인간의 역량이 평가절하됨으로써 인간에게 할당되던 비용이 줄어들 가능성 등을 경계하고 있을 뿐이다. 새로운 기술은 우리 삶을 윤택하게 할 하나의 비료다. 그러나 이를 어떻게 사용하느냐에 따라 결과는 천차만별로 달라질 것이다. 챗GPT로 인해 생성형 AI 시장이 확 커진 만큼 양질의 데이터를 적절히 활용할 수 있는 방안을 점차 구상해 나가야 할 것이다.

Similar Posts