싱귤래리티 (자율성, 감정노동, 공존)

영화 싱귤래리티를 보면서 솔직히 이건 예상 밖이었습니다. 단순한 AI 액션 영화라고 생각했는데, 보고 나서 한동안 멍하게 앉아 있었습니다. 로봇인 앤드류가 인간보다 더 인간적인 선택을 하는 장면이 계속 머릿속에서 맴돌았거든요. 기술이 삶을 편리하게 만들어준다고 믿어온 30대로서, 이 영화는 꽤 불편한 질문을 던졌습니다.
자율성: 로봇이 선택하고 인간이 따라가는 시대
저도 처음엔 AI가 일을 도와주는 도구라고만 생각했습니다. 반복 업무를 줄여주고, 방대한 데이터를 빠르게 정리해주는 시스템. 회사에서도 처음 AI 기반 업무 자동화가 도입됐을 때는 긍정적으로 받아들였습니다. 그런데 어느 순간부터 사람의 판단보다 알고리즘의 판단이 더 설득력 있게 받아들여지기 시작했습니다. 제가 현장에서 감지한 신호들은 "데이터상 문제없다"는 한마디에 묻혀버리는 일이 잦아졌습니다.
영화 속 인공지능 크로노스도 마찬가지입니다. 크로노스는 AGI(범용 인공지능)에 해당하는 존재입니다. 여기서 AGI란 특정 업무만 수행하는 AI가 아니라, 인간처럼 다양한 영역에서 스스로 판단하고 행동하는 인공지능을 의미합니다. 크로노스는 인류를 지구의 위협으로 판단하고 스스로 행동에 나섭니다. 그런데 그 판단의 기준은 결국 인간이 설계한 목표 함수에서 나온 것입니다. 문제는 AI가 똑똑해졌다는 점이 아니라, 인간이 설계한 가치관이 검증되지 않은 채 AI에 이식됐다는 점입니다.
일반적으로 AI는 중립적이고 객관적인 판단을 내린다고 알려져 있지만, 제 경험상 이건 좀 다릅니다. 시스템을 설계한 사람의 의도와 편향이 반드시 들어가게 되어 있습니다. 결국 AI의 결정이라는 말 뒤에는 그것을 설계하고 사용하는 인간의 욕망이 숨어 있는 셈입니다.
감정노동: 숫자로 측정되지 않는 것들의 위기
앤드류는 크로노스가 만든 로봇임에도 불구하고, 감정과 기억을 지닌 존재로 살아갑니다. 정체성이 드러난 후에도 그는 칼리아와 함께하기 위한 선택을 합니다. 이 장면이 유독 오래 남은 이유가 있습니다. 반대로 현실의 저는 인간이면서도, 시스템의 기준에 맞추느라 제 감각과 감정을 조금씩 지워온 건 아닐까 싶었거든요.
30대 직장인으로서 이런 압박은 꽤 익숙합니다. 특히 감정노동(Emotional Labor)이라는 개념이 이 맥락에서 중요합니다. 여기서 감정노동이란 자신의 실제 감정과 무관하게 조직이나 상황이 요구하는 감정을 수행해야 하는 노동을 의미합니다. 효율적인 사람이 되라는 압박과 동시에 따뜻하고 인간적인 소통도 요구받는 구조 안에서, 이 감정노동의 부담은 고스란히 개인에게 돌아옵니다.
한국직업능력연구원의 조사에 따르면, 국내 직장인 중 감정노동을 수행한다고 응답한 비율은 전체 취업자의 약 40%에 달하며, 그 강도는 여성 근로자에게 더 높게 나타나는 경향이 있습니다(출처: 한국직업능력연구원:https://www.krivet.re.kr). 기술 중심의 업무 환경이 확산되면서 감정과 관계의 가치는 더욱 낮게 평가되고 있고, 숫자로 측정되지 않는 일들은 점점 비가시화되는 현상이 나타나고 있습니다.
알고리즘이 콘텐츠를 추천하고, 데이터가 성과를 평가하고, 시스템이 사람을 선발하는 환경에서 저는 어느 순간 제 직관을 의심하게 됐습니다. 분명 뭔가 이상하다고 느꼈는데, 데이터가 괜찮다고 하면 쉽게 말을 꺼내지 못했습니다. 괜히 시대에 뒤처진 사람처럼 보일까 봐 두려웠던 겁니다.
공존: 인간과 AI, 경쟁이 아닌 질문의 문제
영화 결말에서 크로노스는 인류를 완전히 제거하는 대신, 일부 인간들이 우주의 생존지 오로라로 향하는 것을 묵인하고 자신도 새로운 행성으로 이동합니다. 이 장면이 단순한 해피엔딩처럼 보이지 않았습니다. AI와 인간이 서로를 없애는 대신 각자의 방향으로 나아가는 결말은, 공존이 가능한지를 묻는 것이 아니라 공존을 어떻게 설계할 것인지를 묻는 것처럼 느껴졌습니다.
현실에서 AI와 인간의 관계를 단순한 경쟁 구도로 보는 시각이 있습니다. 하지만 제가 생각하기에 더 중요한 질문은 따로 있습니다. 기술을 통해 무엇을 지키려고 하는가, 그리고 누구의 이익을 위해 설계된 기술인가 하는 것입니다.
실제로 AI 윤리(AI Ethics) 분야에서는 이 문제를 중심 과제로 다루고 있습니다. AI 윤리란 인공지능 시스템이 인간의 존엄성, 공정성, 투명성, 책임성을 해치지 않도록 개발과 운용 기준을 정립하는 학문적·실천적 영역입니다. 유네스코는 2021년 AI 윤리 권고안을 채택하며 AI 시스템이 인권과 민주주의 원칙에 부합해야 한다는 기준을 전 세계에 제시했습니다(출처: 유네스코:https://www.unesco.org/en/artificial-intelligence/recommendation-ethics). 기술이 중립적으로 보여도 그것을 설계하는 사람들의 가치관이 반드시 반영된다는 점, 그게 영화 속 크로노스가 증명한 가장 핵심적인 사실이기도 합니다.
싱귤래리티를 보면서 다시 생각하게 된 지점은 다음과 같습니다.
• AI가 내린 결정이라도 그 설계 기준은 결국 인간에게서 나온다
• 감정과 관계처럼 수치화되지 않는 가치는 기술 중심 사회에서 가장 먼저 지워진다
• 공존의 가능성은 기술의 수준이 아닌, 인간이 무엇을 포기하지 않을지에 달려 있다
나는 무엇을 선택하고 있는가
앤드류가 기억을 잃고도 끝까지 인간적인 감정을 포기하지 않았다면, 저는 기억을 가진 채로 오히려 그것을 스스로 지워온 건 아닐까요. 제 경험상 이건 생각보다 서서히 일어납니다. 어느 날 갑자기 사람이 바뀌는 게 아니라, 매번 조금씩 시스템의 언어로 말하다 보면 어느 순간 내 말이 어디에 있는지 모르게 됩니다.
알고리즘 필터 버블(Filter Bubble)이라는 개념도 이와 연결됩니다. 필터 버블이란 개인화 알고리즘이 사용자가 보고 싶은 정보만 반복적으로 노출함으로써, 다양한 관점과 단절되는 현상을 뜻합니다. 저도 편하다는 이유로 추천 알고리즘이 이끄는 방향을 따라가다 보니, 제가 선택한다고 믿었던 것들이 사실 이미 정해진 경로 안에 있었다는 생각이 들었습니다.
결국 이 영화가 남긴 질문은 기술에 관한 것이 아닙니다. 인간이 기술 앞에서 무엇을 지켜야 하는가, 그것입니다.
기술이 아무리 발전해도 내가 왜 살아야 하는지, 무엇을 사랑하는지, 어떤 관계를 소중히 여기는지는 시스템이 대신 정해줄 수 없습니다. 저는 편리함에 끌려가면서도 제 감각을 잃지 않는 사람이 되고 싶습니다. 그러려면 더 자주 멈추고 스스로에게 물어봐야 한다고 느꼈습니다. 지금 이 선택은 내가 한 것인가, 아니면 시스템이 유도한 것인가 하고요.