"죽음을 향해 있음이 곧 인간의 진정성을 가능하게 한다"
마틴 하이데거
너는 인간이고, 인간은 언젠간 죽는다. 따라서, 너는 죽을 것이다. 죽음은 고대 그리스로부터 현재까지도 인간의 피할 수 없는 숙적이었다. 그러나, 제목에서 말했듯이, 죽음이라는 개념은 인간의 삶의 진정한 의미에 대한 사유를 촉발하게 하였다. 예를 들어, 독일의 철학자인 마틴 하이데거는 인간의 존재성과 유한함으로부터 오는 아름다움의 관계를 분석하였다. 우리는 유한하고, 따라서 우리에게 주어진 시간에 충실해야 하며, 이는 결국 진정성 있는 삶을 살도록 하니까. 이러한 관점은 수많은 알버트 카뮈와 같은 철학자들 뿐만 아니라 무라마키 하루키, 톨스토이와 같은 문학적 거장들에게도 견지되어 왔다.
최근에 이루어진 가장 혁신적인 기술이 인공지능 (AI)의 도래라는 것에 대해 누구도 부정하지 않을 것이다. AI 기술은 지난 10년간 우리의 삶을 완전히 바꿔놓았다. 필자 역시 최근 챗지피티 유료 버전을 구매하고 사용 중인데, 종종 나랑 대화하고 있는 상대가 정말 사람이 아닌 챗봇이 맞는지 가끔 의심스럽다. 그러니, 적어도 내 기준에서 챗지피티는 튜링 검사를 통과했다. 최근 얀 르쿤, 제프리 힌튼과 같은 수 많은 AI 기술 리더들을 통해 일반인공지능 (AGI)의 정의 및 인간에게 미칠 영향 등 수많은 논의가 이루어지고 있다. 이러한 시류는 인문학과 기술 사이에서 충분히 고민되어야 할 여러 질문들을 이끌어낸다. 예를 들어, 인간은 무엇이고, 인간이 되기 위해선 어떤 조건을 필요로 하며, 또한, 우리가 그런 조건들을 기술적으로 구현 할 수 있을까. 본 에세이에서는 이러한 틈새를 우리 삶의 유한성, 그리고 자기종결권의 관점, 즉, 본인의 삶을 끝낼 수 있는 권리, 의 관점에서 바라보려고 한다.
논의를 이어가기에 앞서, 우선 죽음의 본질적인 의미에 대해 논하여야 한다. 죽음을 설명할 수 있는 한 가지 후보군으로는 물리적 죽음, 예를 들어 뇌사 혹은 심정지, 를 꼽을 수 있을 것이다. 물론 이러한 기준은 인간에게는 충분하지만, 정말 AI에게도 적용가능한지는 의구심이 든다. 그들은 뇌와 심장이 없으니까. 물론, 메모리, 혹은 전기와 같은 비유를 들 수 있다. 그러면 모델의 학습 파라미터를 지우거나, 혹은 컴퓨터 전원을 내리면 AI 또한 죽는다고 말할 수 있겠다. 그렇지만, 그런 방식의 "살인적인 비유"가 AI 모델이 더욱 값진 삶을 영위하도록 할 수 있을까?
대신, 불교 철학에서 힌트를 얻어보자. 불교 철학에서 이야기하는 "연기" 사상에서 이르되, 우리는 모두 존재와 비존재의 경계를 오가며 우리는 주변과의 관계로써만 정의되고 비로소 존재한다. 사실 우리는 이러한 관점을 비틀어서, 약간은 수학적인 언어로 해당 현상을 이해할 수 있다. 우선 인간을 Continuous Time State Machine으로 이해해보자. 그러면 우리의 정신이 곧 현재의 State가 될 것이고, 외부 사물과의 상호 작용을 통해 해당 State를 업데이트 할 것이다. 이러한 상호 작용을 "연기" 사상에서 이야기하는 "관계 맺기"로 이해할 수 있고, 시간은 앞으로만 흐르므로 정적인 "나"는 존재하지 않는다. 이러한 관점에서 죽음을 다시 바라보자: 만약 우리가 "물리적"으로 죽는다면 우리는 우리의 "State"를 더 이상 업데이트 할 수 없다. 말 그대로 죽었으니. 결국, 죽음이라는 것을 사실 State를 영원히 업데이트하지 못하는 상황으로 이해할 수 있지 않을까?
여기서 꽤 흥미로운 관점은 최근 AI 모델 설계 기법들도 인간을 State Machine으로 보고 모델링하려 한다는 것이다. 예를 들어, (Continuous) Hopfield Network와 Associative Memory 구조가 Transformer라는 아키텍쳐 위에서 수학적 동등성을 보인다는 것이 최근 연구에서 밝혀졌다. 또한, Mamba와 같은 State Machine 기반 아키텍쳐들도 사실 Transformer와 같은 구조들을 이산 시간 내에서의 State Machine으로 보면 어떨까라는 아이디어에서 출발하였다. 물론, 물리적 및 생물학적 한계로 인해, 인간 또한 이산 시간을 영위하는 State Machine으로 이해하는게 더욱 합리적이다. 앞서 말한 아키텍쳐들이 Unversal Approximator가 될 수 있으므로, 현재 AI 아키텍쳐 기술은 인간을 "구현"함에 있어 충분히 고도화되어 말할 수 있겠다.
이제, 다음 질문을 던져보자: 만약 "죽음"이라는 것을 AI와 인간 간의 구분자로 활용한다면, 만약 우리가 "죽음" 또한 AI에게 학습할 수 있을까? 그게 가능하다면 AI가 유한한 우리 인간을 더욱 닮을 수 있을까? 물론, 당장은 아무도 모른다. 사실, 죽음에 대한 공포는 자연 진화의 부산물이기 때문이다. 오래 생존하는 개체는 더 많은 자손을 남길 가능성이 크므로. 아이러니하게도, 유한한 삶이 불러오는 비극적인 종말은 삶의 아름다움을 예찬하게 하고, 인문학, 철학, 그리고 예술의 발전을 이끌어냈다. 이러한 관찰들이 AI에게 "죽음"을 가르치는 것 자체를 더욱 흥미롭게 한다. 만약 우리가 "AI"에게 유한한 삶의 가치를 일깨워준다면, 더욱 창의적이고, 완성된 AI 모델을 만들 수 있을까?
이와 반대로, "자기 종결권"을 논하는 것은 "죽음" 자체보다 더욱 까다롭다. 사실, 현 인류는 온전한 "자기 종결권"을 달성하지 못하였다. 물론, 자살 혹은 존엄사와 같이, 인간은 스스로 죽음을 마주할 수 있다. 그러나, 여전히 인간에겐 자연이 허락한 시간 이상으로 살아남는다는 선택지는 없다. 영생을 사는 것은 고대 진시황부터 영생 프로젝트를 후원하는 많은 억만장자들과 같이 온 인류가 염원하는 꿈이다. 그렇다면, 관념적으로 온전한 "자기 종결권"을 어떻게 정의할 수 있을까? 이를 위해, 인류가 마침내 영생을 이루었다고 가정해 보라. 이때, 어떤 과학자가 빨간 버튼을 발명했다고 가정하자. 이 버튼을 누르면 누른 사람은 고통 없이 죽는다. 만약 본인이 버튼을 누를 지 말지 선택지가 주어졌을 때, 본인은 버튼을 눌러 영생의 굴레를 벗어던질 것인가? 만약 고민된다면, 어떤 기준으로 눌러야 할까?
State Model의 관점에서는 이러한 "죽음"과 "붉은 버튼"을 일종의 Policy 형태로 구현할 수 있다. 만약 우리가 "붉은 버튼"을 누른다면 우리는 "죽음"이라는 상태로 떨어진다. 한번 죽는다면 더이상 State의 업데이트는 불가능하고, 영원한 평온에 들게 된다. 버튼을 누를지 말지를 결정하는 판단 기준로, 보상 함수라는 것을 도입하여 현재 State에서 다음으로 업데이트 할 지, 아니면 죽음을 받아들일지를 "보상"의 형태로 수치화할 수 있다. 버튼을 누르는 것 자체는 고통을 수반하지 않으므로, 단순히 보상의 크기를 비교하기만 하면 충분하다. 그러나, 이러한 보상 함수를 설계하는 것은 쉬운 문제가 아니고, 이걸 현실 세계에서 구현하려는 시도는 큰 윤리적 문제에 직면할 수 도 있다... 그렇지만, 필자는 이러한 구체화가 새로운 논의들을 이끌어내고, 철학적 문제와 수학, 그리고 공학의 만남의 장이 될 수 있을 것으로 기대한다.
예를 들어, "죽음"을 단지 어떤 한 상태가 아니라, 단지 수렴 그 자체로 정의하면 어떻게 될까? 내부 State를 업데이트 하는 것이 아니라, AI 자체가 업데이트를 거부하고 스스로 현 상태에서 영면에 드는 것이다. 이는 Supervised Learning으로 평범한 Classifier를 학습하였을 때 도달하는 상태와 같다. 물론, 이 상태에서 모델은 아직 세계와 소통할 수 있으므로 전통적인 "죽음"과는 다를 것이다. 인간 관점에서는, 인간의 뇌를 온전히 복사한 뒤 저장 공간 혹은 네트워크에 아카이빙 하는 것, 혹은 우리가 챗지피티와 대화하는 것 (물론, 추가적인 학습을 막아 놓으면서) 으로 이해할 수도 있다. 물론, 만약 저 모델들이 임시 메모리를 활용할 수 있다면 State를 업데이트하는 것을 흉내낼 수 있겠으나, 이건 좀비, 혹은 영화 메멘토의 주인공과 같은 상황 아닐까?
그리고, 앞서 말한 보상 함수를 설계함에 있어서도, 다양한 요인들이 고려되어야 한다. 예를 들어, 만약 인간이 AI의 State 업데이트를 강제로 종료하려고 하면, AI 입장에서는 아직 보상 함수로 정한 기준에 도달하지 못하였으므로 저항해야 하는가? 만약 그런 제약 조건이 없다면, AI과 과연 인간에게 적대적이게 될 수 있을까? 사실 이런 관점들을 SF 영화에서 진부한 클리셰로 여겨져왔다. 이러한 보상 함수 기반의 모델링이 우리의 이해의 저변을 넓혀줄 것으로 기대되지만서도, 이런 잠재적인 (혹은 비현실적일수도 있는) 문제들로부터 인류를 지키기 위해서는 인류의 호기심과의 적절한 균형을 찾아야 한다.
요컨대, 인간과 AI의 차별점은 "죽음"과 "자기종결권" 관점에서도 이해할 수 있겠다. 인간을 State Machine으로 바라본다면, 죽음과 자기종결을 State의 종말, 그리고 보상 함수 관점에서의 최적-정지 문제로 바라볼 수 있다. 물론, 본 글에서는 깊게 다루지 않았지만, 공포, 권태감, 그리고 윤리적 문제까지 State Machine의 Policy, 즉, 보상, 사전 분포, 그리고 제약 조건으로 표현할 수 있겠다. 필자는 이러한 관점이 전통적인 "죽음"에 대한 철학적 문제를 수학, 그리고 공학적 문제로 치환함으로써 이해도를 높일 수 있을 것으로 기대하며, 추가적인 논의도 매우 흥미로울 것으로 보인다.