[해외DS] 유사인지의 세상, 어떻게 살아남아야 하나 (2)

개인도 기업도 종교도 LLM 열풍, 바이블GPT에 개인적 자료로 훈련된 AI까지 나와 AI, 미지의 내부 작업 수행하고 있거나 내적 이해 없이도 인간 대접 받을 수 있는 존재 유사인지 AI의 세상, AI를 잘 키우려면 어떻게 해야 할까? 인간은 왜 여기에 열광할까?

pabii research

[해외DS] 유사인지의 세상, 어떻게 살아남아야 하나 (1)에서 이어집니다.

1440년경 요하네스 구텐베르크(Johannes Gutenberg)가 개발한 인쇄기는 신과 사람, 남성과 여성, 과거와 현재의 관계를 비틀었습니다. 마음만 먹으면 수천, 수만에게 자신의 의견을 전할 수 있게 됐고, 국가를 체계적으로 운영하고 지식을 축적하는 게 가능해졌죠. 요즘에는 모르는 사람이 없는 지적 재산 개념도 이때부터 등장했습니다.

인쇄된 책이 배포되며 학자들은 지식의 바다를 마음껏 헤엄칠 수 있게 됐습니다. LLM이 훈련받은 데이터 세트에 기반한 답을 내놓는 것도 이와 비슷하다고 볼 수 있죠. 그런데 책은 인간에게 단순한 지식 습득의 통로가 아닙니다. 사람들은 책을 읽는 행위 자체에서 즐거움을 느끼고, 현실의 어려움을 잠시나마 잊을 수 있죠. 그뿐일까요, “사람은 책을 만들고, 책은 사람을 만든다.”라는 말, 한 번쯤 들어 보셨을 겁니다. 인간은 책으로 삶을 배우고, 자신의 정체성을 형성합니다.

LLM은 책의 실용적이고 개인적인 측면을 전부 계승할 수 있다고 주장합니다. 자신이 책을 완전히 대체할 수 있을지도 모른다면서요. 그렇게 된다면 지식의 체계가 챗봇의 주제로 바뀌게 됩니다. 텍스트를 읽는 대신 그 텍스트로 훈련받은 챗봇에 질문을 하고, 챗봇의 대답을 “받아들인다”라는 겁니다. 질문 하나만 하면 되는데, 귀찮게 책을 뒤적일 필요가 있나요?

성경GPT에 “직장 동료가 프레젠테이션을 준비할 때 자기 업무를 안 해서 내가 그 일을 항상 다 해야 해”라는 질문을 하면 이런 답을 해 줍니다./사진=BibleGPT 캡쳐

“챗GPT한테 물어봐.”라는 말은 일종의 유행어가 되었습니다. 개인뿐 아니라 기업도 이런 생성 AI를 활용하려는 움직임을 보이고 있는데, 세계적인 언론사 블룸버그(Bloomberg)는 금융정보를 제공하는 모델인 블룸버그GPT(BloombergGPT)를 개발하고 있습니다. 심지어는 종교도 이 유행을 좇기 시작했는데요, 이미 성경GPT(BibleGPT)와 쿠란GPT(QuranGPT)가 출시(?)돼 있습니다. 어디까지 갈지, 정말 궁금하네요.

몇몇 스타트업은 사용자의 컴퓨터 저장 장치나 클라우드에 있는 모든 문서의 내용을 가지고 챗봇의 훈련 데이터 세트를 만드는 서비스를 제공합니다. LLM 개발 스타트업 안트로픽(Anthropic)의 공동 설립자 잭 클락(Jack Clark)은 이러한 챗봇을 “항상 이야기할 수 있는, 지식이 풍부한 동료”에 비유했습니다.

이 개인용 챗봇은 시간이 지나면서 성장하는 특별한 존재가 될 것입니다. 사용자 그 자체가 되는, 사용자의 내면을 외부에 전달하는 존재 말입니다. 만약 타인에 대한 데이터가 충분하다면 그 사람을 챗봇으로 구현하는 것도 가능합니다. 이미 그렇게 한 사례도 있습니다. 호주 머신 러닝 연구소(Australian Institute for Machine Learning)는 한 작곡가를 위해 그 작곡가 본인과 그녀 남편(이미 세상을 떠났습니다.)의 작업물로 훈련받은 챗봇 조수를 만들었죠. 이렇게 누군가를 구현한 챗봇을 만든다면 그 사람이 죽고 나서도 챗봇을 통해 대화를 이어갈 수 있습니다. 죽을 때 유언장 대신 자신의 챗봇을 남기는 사람도 있을 겁니다.

혹시 이쯤 되면 좀 섬뜩하다는 생각이 들지는 않으셨나요? 정신분석학의 창시자 지그문트 프로이트(Sigmund Freud)는 자신의 저서에서 “언캐니니스(uncanniness; ‘기괴함’으로 직역되며 언캐니(uncanny)의 형태로도 쓰임)”라는 개념이 “살아 있는 것처럼 보이는 존재가 정말 살아 있는지에 대한 의심, 혹은 반대로 생명이 없는 물체가 실제로 살아 있지 않는지에 대한 의심”에서 비롯된다고 설명했습니다. 즉 LLM을 보면서 섬뜩함을 느끼는 것은 자연스러운 현상입니다.

AI 연구원은 자기가 만든 프로그램의 매커니즘을 설명할 수 있지만 실제로 그 안에서 무슨 일이 일어나는지 계속해서 알려주지는 못합니다. 수학 검색 엔진 울프럼 알파(Wolfram Alpha)를 만든 물리학자이자 컴퓨터 과학자 스티븐 울프럼(Stephen Wolfram)은 AI 모델의 내부적인 작동 방식을 설명하면서 “어떻게 (모델이) 작동하는지를 설명하는 ‘궁극적인 이론’은 존재하지 않는다”라는 결론을 내렸습니다.

정리하자면 AI는 과학자들이 아직 밝혀내지 못한 일종의 내부 작업을 수행하거나, 그게 아니라면 어떤 ‘내적 이해’ 없이도 ‘인간 대접’을 받을 수 있는 존재입니다.

워싱턴 대학교 교수 에밀리 벤더(Emily Bender)는 “이러한 모델은 더 많은 단어를 생성하기 위해 사용할 수 있는 텍스트의 단어 분포를 표현하는 존재에 불과하다”라며 언어 모델에는 진정한 이해력이 없다고 주장했습니다. 모델은 실생활이나 인간의 의사소통을 경험하지 못했습니다. 그래서 훈련에서 들은 것을 되풀이하고, 엄청난 계산을 통해 놀라운 결과물을 내놓기도 하지만 인간의 기대와는 사뭇 다른 능력을 발휘하죠. 벤더 교수뿐 아니라 많은 언어학 전문가들도 비슷한 견해를 가지고 있습니다.

한편 알파벳에서 AI 기반 제품을 개발하는 팀을 이끄는 블레이즈 아르카스(Blaise Agüera y Arcas)는 자신이 담당하는 모델을 “단순한 수다쟁이”라고 볼 수는 없다고 주장했습니다. 아르카스는 모델에게 사물의 진짜 의미를 인식하는 능력과 유사한 속성이 존재한다고 생각합니다. 중의적인 문장을 번역하거나 농담을 설명할 수 있다는 점을 근거로 들었죠.

여기서 벤더 교수가 옳다면 ‘인간의’ 행동 양식은 반드시 인간의 것이 아니라는 주장을 할 수 있습니다. 앞서 언급한, 살아 있는 것처럼 보이는 존재가 정말로 살아 있는지에 대한 ‘기묘한’ 의심은 완전히 정당화되죠.

인간처럼 보이는 LLM이 사실은 계산과 통계의 작품이라는 점을 인정한다면 “인간성”에 대한 개념은 달라지지 않습니다. 프로이트는 자신이 우주가 인간 중심으로 돌아가지 않음을 밝힌 코페르니쿠스와 인간이 동물과 달리 신에게 선택받은 존재가 아니라고 주장한 다윈의 뒤를 잇는 사람이라고 말한 바 있습니다. 심리학의 업적은 그의 표현에 따르자면 “우리 각자의 ‘자아’에게 그 자아가 자기 집에서도 주인이 아니라는 것을 증명하기 위해 노력하는 것”에 기인합니다. 이 개념은 LLM에도 적용됩니다. 집의 적어도 한 부분은 비어 있는 “스마트 홈”이 됩니다. 자동으로 켜졌다 꺼지는 조명, 저절로 열리는 창문과 커튼이 있는 겁니다. 주인이 딱히 신경쓰지 않아도 이런 장치는 돌아갑니다.

기괴함, 있을 수 있습니다. 그렇지만 모든 이들이 최근 일어나는 이 ‘탈중심화’ 경향을 심각하게 받아들이지는 않습니다. 코페르니쿠스와 다윈과 프로이트가 아무리 유명해도 사람들은 여전히 신과 인간의 특별함, 영혼의 존재를 믿습니다. 적어도 철학적 양심이라는 영역에서는 유사인지 세계가 꽤 잘 통한다는 겁니다. 사람들은 무언가가 살아 있지 않다는 것을 인식하면서도 그것을 살아 있는 것처럼 대할 수 있습니다.

만약 아르카스의 말대로 사실 과학은 어떤 비밀스럽고, 부분적이면서도 창발적인 방식으로 살아 움직이는 존재였다면 어떻게 되는 걸까요? 그렇다면 프로이트의 이론을 AI에도 적용할 수 있을 것입니다. 인간의 마음은 여러 부분으로 구성되어 있음을 깨달은 프로이트는 좋은 행동이나 나쁜 행동을 유발하는 욕망의 근원을 다른 곳에서 찾았습니다. 물론 이제 프로이트의 견해에 완전히 동의하는 사람은 거의 없지만, 사람들이 무의식적으로 어떤 행위를 하는 것에는 이유가 있다는 점만은 분명한 진실입니다. LLM의 의미 파악 능력이나 주체성 비슷한 성질을 LLM의 ‘무의식’이 발현된 결과물로 취급하는 건 그렇게 좋은 답 같진 않습니다. 하지만 AI의 이면에는 분명히 이해가 필요한 무언가가 있는 듯합니다.

벤더 교수 같은 사람들은 이런 개념이 마음에 들지 않을 것입니다. 하지만 이들은 이 개념이 “AI 윤리” 분야의 유의미한 행동으로 이어진다는 점을 알아야 합니다. 즉 “유사인지” AI의 훈련 과정 초기에 심어진 무의식적인 편견을 없애거나, 환각이 지니는 모순을 해결한다거나, 그릇된 욕망을 정제한다거나 하는 것들은 일종의 “심리 치료”가 되는 겁니다. 프로그래머와 AI의 관계를 부모와 자식 간의 관계로 바라볼 수도 있습니다. AI를 “잘 키우려면” 어떻게 해야 할까요? AI를 어떻게 양육하는 건 금지돼야 할까요? AI의 부모는 AI의 그릇된 행동에 대해 어디까지 책임을 져야 할까요?

아울러 인간의 욕망 자체도 다시 한번 생각해 봐야 합니다. 사람들은 왜 이렇게 LLM이 보여주는 친근감을 좋아하는 걸까요? 진화는 멸종의 가능성을 증명한다, 그러니 그 종 자체나 그 종의 후손 때문에 멸종이 일어날 확률이 굉장히 높다. 이렇게 생각하는 유력 인사들이 많은 이유는 무엇일까요? 그 초인적인 합리성을 발휘해 경제를 더 나아지게 만들고, 역사를 더 좋게 바꾸려는 사람은 과연 어디에 있는 걸까요? AI의 인간성에 관한 생각은 참 많은 의문으로 이어집니다.

Similar Posts