본문 바로가기
DA 에세이

에이리언 로물루스: 강렬한 인공지능 딜레마 실험극(feat. 트롤리 딜레마)

by DAkimble 2024. 8. 18.

 

우리는 살다 보면 어떤 선택을 하더라도 만족할 수 없는 딜레마에 처하게 됩니다. 인간보다 지능이 뛰어난 AI는 해결할 수 있을까요?

 

 

시작하며: 영화판에도 불붙은 도덕적 딜레마 논쟁과 기름을 붓는 AI

  원래 인생은 선택의 연속이라고 하죠. 삶의 진로나 목숨이 경각이 달린 상황의 판단부터 저녁 메뉴나 유튜브에서 볼 영상까지 삶은 온통 선택거리로 채워져 있습니다. 그런데 선택이란 다른 하나의 포기를 의미하기 때문에 어떤 선택을 하더라도 만족할 수 없는 결과가 나오는 딜레마 상황이 발생합니다. 그리고 그것이 윤리적 문제에 해당될 때 우리는 이를 도덕적 딜레마라고 부릅니다. 과거에는 이런 어려운 결정은 종교나 공동체 지도자가 도맡았습니다. 하지만 현대 사회에서는 민주주의를 택하며 서로 다른 가치관을 가진 사람들이 섞여 살고 선택의 기준이 다양해지면서도 선택의 권리와 책임이 모두 시민들 스스로에게 주어지게 되었죠. 열심히 일만 하는 게 아니라 생각도 하고 책임도 져야 한다니 민주주의는 시민의 피뿐만 아니라 땀도 먹어야 자라는 것 같습니다.

 

  한국에 2010년 번역되어 정의 열풍을 일으켰던 <정의란 무엇인가>에서 마이클 샌델은 이 같은 상황을 지적하면서 현대인이 도덕적 무질서에 빠지지 않기 위해 '트롤리 딜레마'나 '죄수의 딜레마'와 같은 다양한 사고실험으로 시민들이 윤리에 대해 사유하고 서로 논의해야 한다고 주장했습니다. 사고실험은 현실의 복잡한 디테일을 생략한 문제를 제공해서 선택의 철학적 문제에 집중할 수 있도록 해주죠. 그리고 대중문화인 영화에서 요즘 도덕적 딜레마가 자주 나오는 것도 현대인의 고민의 반영일지도 모릅니다. <다크 나이트>(2008)의 유명한 페리 씬에서는 빌런 조커가 다른 여객선에 갇힌 일반인과 범죄자들에게 서로의 배를 폭파시킬 수 있는 스위치를 쥐어주며 죄수의 딜레마를 구현해 냅니다. 이후에도 <엑스페리먼트>(2010)의 악의 평범성이나 <쓰리 빌보드>(2017)의 개인의 정의 vs 공동의 이익의 딜레마 등 여러 영화에서 다양한 논의가 있어왔습니다.   

 

<다크나이트>는 사고실험의 연속입니다. 페리 씬 외에도 살인마를 살해해야 하나? 폭력으로 자백을 받아야하나? 말이죠. 출처: 네이버 포토

 

 

 8월 14일에 개봉한 에이리언 시리즈의 신작 <에이리언 로물루스>에서도 괴물들로부터 목숨을 위협받는 6명의 주인공들은 끊임없이 딜레마 상황에 처하게 됩니다. 그들은 악조건 속에서 위기에 빠지며 다수의 인원이 위협에 둘러싸인 한 친구를 구하러 가야 할지, 감염됐을지 모를 친구를 모선으로 데려가야 할지 기로에 서게 됩니다. 그런데 이에 더해서 <로물루스>는 SF 장르만의 방법으로 인조인간인 앤디를 등장시켜 딜레마를 AI와도 관련된 논의로 한 차원 끌어올립니다. 혹시 도덕적 딜레마가 사람이 지적 능력이나 정보가 부족해서 해결하지 못하는 것이라면 이를 보완한 인공지능이 탑재된 인조인간은 그 문제를 해결할 수 있지 않을까요? 하지만 이 영화에서 인조인간은 선택의 기로에 처하는 인간들을 도와주기도 하지만 때로는 그들의 의사에 정 반대되는 결정을 강요하며 오히려 문제를 아주 심각하게 만들 수도 있다는 것을 보여줍니다.

 

  현실에서도 전문가들은 AI의 발전이 오히려 현실에서 새로운 윤리적 난제를 더하고 해결을 어렵게 만들기도 한다고 말합니다. 저는 이전에도 머신러닝 추천시스템에 관한 글에서 AI가 선택을 대신해 주는 것이 일으킬 수 있는 문제에 대해 간략하게 다뤄보기도 했죠. 이번 글에서는 먼저 <로물루스>에 대한 간단한 감상평을 말씀드리고 이후 영화에 등장하는 다양한 문제 상황을 '트롤리 딜레마'와 자율주행자동차의 문제에 대입해서 생각하는 시간을 가져보겠습니다. <로물루스>에 대한 더 자세한 감상평은 제 다른 블로그 글에서 봐주세요! 최근 영화에 이처럼 딜레마 이론에 관한 내용이 자주 나오는 것은 우연이 아니라 <다크 나이트가>에서 직설적으로 드러나듯 연출자들의 현대인이 직면한 딜레마에 대한 고민의 흔적이라고 생각합니다. 따라서 이 글에서는 AI로 인해 더욱 복잡해진 현대인의 문제 상황에 대해 생각해 보는 동시에 영화를 더욱 입체적으로 이해하는데 도움이 되는 배경지식으로서 딜레마에 대해 알아보겠습니다. 

 


 

1 불쌍한 아이들과 로물루스의 딜레마

 

  <로물루스>는 에이리언 시리즈 1편과 2편 사이의 이야기를 다룹니다. 에이리언 1편에서 노스트로모호에서 깨어난 에이리언 한 마리가 리플리를 제외한 인간(+무언가!)을 학살한 사건 이후 우주선 밖으로 방출됐지만, <로물루스>에서는 그 개체가 다시 회수되어 작품의 무대가 되는 로물루스호에서 난동을 부리고 비극의 씨앗을 남겼던 거죠. 그래서 사람들은 다시 우주선에서 난동을 부리는 괴생명체와 그에 살아남기 위해 몸부림치는 여전사의 모습을 담은 <로물루스>의 줄거리가 에이리언 1, 2편과 너무 비슷하다고 독창성 문제를 지적하기도 합니다. 사실 에이리언 시리즈의 이야기의 뼈대는 7편 모두 '여자 주인공이 (알고 보니) 웨이랜드 사의 야욕에 의해 에이리언과 조우하며 위기에 빠지지만 처절한 전투 끝에 살아남는다(혹은 아쉽게 사망한다)'는 거예요. 하지만 <로물루스>의 차별점은 앞서 말씀드린 독창적인 상황설정 외에도 등장인물들의 특징과 행동방식이 있습니다. 일단 전작들의 인물들이 적어도 30대 이상에 전문 기술자나 군인, 과학자였다면 <로물루스>의 인물들은 모두 20대 초반의 아직 누군가의 도움이 필요해 보이는 청년들이거든요. 누가봐도 에이리언 오리지널 시리즈 네 편의 주인공 리플리나 5, 6편의 인조인간 데이빗 8의 우수한 능력과 카리스마, 야망 등에 비하자면 <로물루스>의 어린 레인 캐러딘이나 그녀의 파트너 인조인간 앤디는 귀엽고 불쌍해 보이는 편이죠. 함께 나오는 그들의 오랜 친구, 4명의 타일러 패거리들도 어딘지 어수룩해 보이며 몸이 아픈 친구도 있습니다. 그들이 우주선에 올라타서 소풍이라도 온 듯 철없이 들뜬 모습이나 괴물들에게 속수무책으로 당하는 모습은 너무 안타까워서 원격이라면 에이리언의 팬인 제가 코칭이라도 해주고 싶을 정도였습니다.

 

  이 6인조는 전작의 인물들과 달리 혼자서는 위기에 제대로 맞서싸우기 어렵습니다. 대신 어린 시절부터 서로만 믿고 의지하며 힘든 세상을 헤쳐와서인지 끈끈한 우정을 갖고 있죠. 청년들이 미숙하지만 자신의 목숨이 위험해져도 동료를 끝까지 구하려는 모습은 관객들의 공감과 감동을 자아냅니다. 그리고 우리의 영리하고 피도 눈물도 없는 알바레즈 감독님은 이런 인물들의 성격을 능수능란하게 활용하죠. <로물루스>는 시리즈 전편들에 비해 액션보다는 호러에 방점을 찍습니다. 괴물들과 맞서싸우던 리플리에 비해 레인과 청년들은 살아남으려 몸부림친다는 느낌이고 그 모습은 관객들의 청년들에 대한 공감을 자아내고 스릴을 증폭시킵니다.

 

  한편 이러한 감정이입은 관객들을 작중 인물들이 처한 딜레마 상황으로 끌고 갑니다. 나라면 괴물이 노려보고 있는 한 친구를 구하기 위해 여러 명이 위험을 감수하는데 동의할까? 감염됐을지도 모르는 인원을 모선으로 데려오는 것은? 멀리 고립된 친구를 찾으러 가는 도중에 마주친 위기 상황에서 머리를 굴려가며 하는 시도 하나하나가 멈춰서 생각해 보면 친구의 목숨을 끔찍이 생각하지 않으면 할 수 없는 일입니다. 그런데 여기 까지라면 작품 특유의 빠른 진행도 더해져 으레 공포영화에서 나오는 위기상황이라고 생각할 수 있지만 감독님은 인조인간 앤디가 사람의 목숨이 걸린 선택들에서 결정적인 역할을 한다는 설정으로 논의의 수준을 한 차원 끌어올립니다. 앤디의 냉정하게 보면 합리적이고 우선순위가 명확한 선택은 청년들의 '인간적'이지만 그래서 때로는 무모해 보이는 선택과 대비가 되기 때문입니다. 하지만 인조인간이 어떤 사람의 목숨을 구하는 것을 반대하거나 심지어 막아서는 것은 뒤집어 보면 간접적인 살상 행위나 다름없고 이는 작중 인물들과 함께 관객들의 동요와 때로 분노를 일으킵니다. 과연 이런 앤디의 선택을 어떻게 평가해야 할까요? 애초에 오답이 없는 윤리적 딜레마 속에서도 인조인간이 했기 때문에 틀린 선택이 될 수도 있는 걸까요? 다음 장에서는 사고실험 중에서도 사람의 생명과 가장 밀접하게 관련된 트롤리 딜레마와 자율주행 자동차 문제를 통해 앤디와 인공지능의 윤리적 선택에 대해 생각해 보겠습니다.

 

2 로물루스와 AI의 도덕적 딜레마: 맞는 말만 하고도 악역이 된 앤디?

 

1) 트롤리 딜레마(Trolley Dilemma)

  트롤리 딜레마는 <정의란 무엇인가>에서도 맨 먼저 등장했을 정도로 잘 알려진 사고실험입니다. 이 문제에서는 브레이크가 고장 난 탄광 전차(트롤리)의 레버를 그냥 둔다면 5명이, 당긴다면 1명이 희생되는 상황에서 나에게 선택권이 주어진다면 어떤 결정을 할지 묻습니다. 레버를 조작하지 않는 선택을 한다면 사람의 목숨이 다른 어떤 것을 위한 수단이 되는 것을 반대하는 것이고(의무론), 당긴다면 가능한 다수의 최대 이익을 추구하는 것이죠(공리주의).

 

  하지만 조금만 변형시킨 트롤리 문제를 보면 현실에서는 이 딜레마가 얼마나 더 복잡해질 수 있는지를 보여줍니다. 예를 들어 레버를 당기는 대신 당신이 다른 어떤 거한을 직접 밀어서 철길로 쓰러뜨려야만이 트롤리를 멈추고 5명을 구할 수 있다는 변형문제가 있어요. 사실 추상적인 원리로 보면 크게 다를 것이 없는 실험이지만 전에 어렵지 않게 공리주의적 선택을 하던 사람들도 이번에는 더 망설이게 마련이죠. 이는 이러한 사고실험에서 조차 도덕적 선택에 양심과 책임감을 비롯한 감정적 요소가 크게 개입한다는 것을 나타냅니다.

 

  결국 이 문제에 정답은 없습니다. 아무리 다수가 공리주의적 선택을 한다 해도 개인적 경험이나 소신으로 다른 선택을 하는 사람이 틀렸다고 할 수 없고 감정적으로 변형문제에서 선택을 바꾸는 사람을 비난할 수도 없는 일입니다.

 

트롤리 딜레마는 아마도 세상에서 가장 유명한 사고실험일 겁니다. 출처: 이미지 클릭

 

 

2) AI의 도덕적 선택 문제와 자율주행차

  그렇다면 AI는 이런 정답이 없어 보이는 문제를 물어본다면 어떻게 대답할까요? 트롤리 문제를 Chat Gpt에게 물어보면 제가 드린 설명처럼 선택에 도움이 되는 정보와 시뮬레이션을 전해줄 수는 있지만 정답을 알려줄 수는 없다고 합니다. 왜냐하면 인공지능은 인간의 선택에서 필수적인 감정과 공감, 다양한 사회문화적 경험에서 오는 직관이나 책임을 질 수 있는 법인격도 없고 전혀 그런 선택을 고려하지 않은 개발자의 알고리즘에 영향을 받는다는 것이죠. 이런 걸 보면 딜레마 이전에 일상적 선택마저 왜 이리 어려운지 조금 알 수 있어요. 우리는 무의식 중에 쌓인 과거의 경험이나 의도치 않은 부모님 말씀에 영향을 받으니까요.

 

전문가들은 AI가 인간과 근접한 윤리적 선택을 하려면 사회 속에서 사람들과 부데끼고 다양한 경험을 하며 지능을 발전시켜야 할거라고 말합니다. 영화 <크리에티어>의 알피처럼 말이죠. 출처: 네이버 포토

 

  그렇다면 항상 AI는 선택에 도움만 주고 인간이 최종 결정을 하면 되지 않을까요? 마치 요즘에도 유튜브에서 추천 영상을 올려주면 선택은 시청자가 하듯이 말이에요. 하지만 인공지능가 점점 우리들의 삶 깊숙이 보급되면서 곧 인간 대신 윤리적 결정을 내려야 하는 상황을 도처에서 마주하게 될지 모릅니다. 그중 개발단계부터 가장 논란이 되는 것이 자율주행 자동차입니다. 자동차의 탑승자가 운전을 하지 못하는 상황에서 보행자와 충돌을 해야만 탑승자의 안전이 보장된다면 자율주행 AI는 탑승객을 우선시해야 할까요?(소유자 우선의 문제) 혹은 맞은편 차선으로 방향을 튼다든지 탑승자의 위험을 감수하고서라도 능동적인 개입을 해야 할까요? 혹은 복수의 충돌 가능성이 있는 보행자 중에 선택을 해야 하며 보행자에 대해서도 정보가 공유가 돼있다면 그에 따라 방향을 바꿔야 할까요? AI는 보행자가 무단횡단 중인지 여부, 직업, 재력, 나이, 가족의 수, 전과 등의 조건에 따라 차등선택을 하도록 알고리즘 될지도 모릅니다. 자동차가 그대로 직진하면 의사 한 명이 죽게 되고 방향을 왼쪽으로 꺾으면 무직의 중범죄자 5명이 사망할 때 후자를 택하는 모습을 보게 될 수도 있다는 거죠. 

 

3 로물루스가 예언하는AI의 윤리문제

 

순둥해보였던 앤디는 위기가 닥치고 선택의 순간들이 오자 변하기 시작합니다. 설마 그가 흑막인걸까요? 출처: 네이버 포토

 

  <로물루스>에서 벌어지는 인조인간 앤디와 사람들 간의 갈등은 이런 AI의 딜레마 문제로 점철된 우리의 미래상을 보여주는 듯합니다. 우리의 6인조 청년들은 로물루스 호에 도착하고 동면포트를 찾아다니다가 에이리언들을 깨우게 되면서 공격받기 시작합니다. 그러자 앤디는 처음에 인조인간답게 능력껏 공격을 막아주기도 하고 유용한 정보도 전달하지만 보호 대상인 레인이 위험에 처하는 상황들이 닥치자 돌변하기 시작합니다. 청년들이 괴물의 공격을 받아 감염되었을지 모르는 일원을 모선으로 데려가려고 하자 이를 무섭게 막아서거나 괴물이 미끼로 노리고 있다는 이유로 눈앞에서 절규하는 동료의 구출을 거부하기도 하죠. 이런 앤디의 행동에는 앞에서 열거한 문제들이 모두 나타납니다. 소유주인 레인의 안전을 우선시해서 다른 인원의 구출에 반대하거나 다른 친구들이 동료를 구출하기 위해 머리를 쥐어짜고 위험을 감수하는데 반해 앤디는 그런 적극적인 개입을 하려고 들지 않습니다. 그리고 청년들은 앤디가 동료를 돕는 걸 거부하는데 대해 울분을 터뜨리며 원망하며 그 모습을 보는 관객들도 당장에는 앤디를 탓하기 쉽습니다. 사실 영화는 시작부터 <로물루스>의 세계에서 사람들에게 AI의 공리주의적인 선택에 대한 분노가 만연해 있다는 것을 보여줍니다. 앤디는 아무 이유 없이 사람들의 공격을 당하기 일쑤고 타일러 패거리 중 한 명인 비요른은 처음 만날 때부터 계속해서 앤디에게 시비를 걸더니 이후에 그의 어머니가 인조인간이 광산 사고에서 14명을 구하기 위해 희생된 셋 중 한 명이었다는 것이 밝혀집니다.

 

   비요른의 사연을 들을 때나 인물들이 앤디를 탓하는 걸 볼 때도 관객들은 마음 한편에 '근데 인조인간이 옳은 거 아니야?' 하는 생각이 떠오르겠지만 온전히 인조인간의 편을 들기는 쉽지 않습니다. 그런데 앤디의 행동 중에 감염 위험이 있는 인원의 선내 출입을 거부하는 건 에이리언 1편에서는 주인공인 리플리가 한 행동과 똑같아요. 그리고 그때 관객들은 십중팔구 그녀의 냉철한 상황판단에 동의하게 되죠. 하지만 이런 반응 차이를 인공지능에 대한 인간의 선입견 탓만 할 수는 없습니다. 그 원인에는 인조인간과 사람 간에 우리의 인식 차이뿐만 아니라 AI의 책임 불가능성이나 공감능력의 결여도 있어요. 즉 리플리와 달리 에릭은 자신이 의도치 않게 누군가에게 해를 끼친다고 해서 어떠한 책임도 질 수도 없고 자신의 행위에 이유를 나열할 뿐 친구들이 감정적으로 공감하도록 설득하지도 못하거든요. 이는 현실에서 이미 지율주행 차량의 사고발생 가능성이 훨씬 낮은데도 사고가 발생할 때마다 논란이 되는 것에서 나타나듯 앞으로의 AI와의 공존이 큰 혼란과 함께할 것이라는 것을 예견합니다.

 

 

맺으며: 'The BUCK (MUST) STOPS here'

 

에이리언의 괴물들은 하나같이 인간 스스로가 초래한 비극입니다. 하지만 시리즈를 통틀어 누군가 책임을 진 적은 한번도 없죠. 무엇보다 잘못에 책임을 지는 사회가 올바르게 기술을 발전시킬 수 있을 것이다. 출처: 네이버 포토

 

  분량 상 모두 담지 못했지만 <로물루스>에는 트롤리 문제 외에도 현실에서 논의되고 있는 인공지능 관련 딜레마들이 인용된 듯한 설정이 많이 있습니다. 제작사인 거대기업이 인조인간의 알고리즘을 비밀에 부치며 언제든지 사용자들의 뒤통수를 칠 수 있고 책임은 회피하게 만드는 투명성의 문제라든지 에이리언도 과학의 산물인 만큼 기술이 발전할수록 인류 전체의 생존이 위험해지지만 기업과 국가 간 경쟁에 의해 멈출 수 없다는 거대한 죄수의 딜레마와 같은 것들 말이죠. 현실에서도 AI와 관련된 윤리적 딜레마의 전반적인 구도는 결국 인간 전체의 보편선과 개별 주체의 이익 간의 선택 문제가 부각됩니다. ’트롤리 딜레마’에서는 양도할 수 없는 인간 고유의 권리와 AI가 계산한 정량적 가치가 충돌하고, ‘투명성의 딜레마’에서는 빅테크 기업의 책임과 기술 보안, ‘죄수의 딜레마’에서는 인류 공동체의 생존과 개별 기업이나 국가 단위의 경쟁우위가 대립합니다.

 

  이러한 문제들은 너무나 복잡하고 결코 풀 수 없을 것 같지만 현실의 문제를 영화를 보고 단순화한다면(결국 그 추상화가 SF 영화나 사고실험의 목적이니까요) 책임이 있는 곳에 책임을 묻는 것이 모든 문제를 최대한 정의롭게 푸는 단초라고 생각합니다. 작중 초거대기업 웨이랜드 유타니사는 인조인간을 만들고 에이리언을 퍼뜨린 궁극적으로 모든 에이리언 시리즈 공통의 흑막입니다. 최초로 인조인간을 만든 것까지는 좋을지 모르지만, 그들에게 '에이리언을 운송해 와라. 탑승자들의 목숨은 상관없다'와 같은 잘못된 명령을 입력했다면 (알고리즘이 투명하게 공개되어 그런 명령을 애초에 하지 못하게 해야 하고)그리고 피해가 발생했다면 그 피해에 책임을 져야 합니다. 하지만 작중 세계관에서 인류의 세력이 방대한 우주로 뻗치면서 국가의 규제가 제대로 미치지 않아서인지 웨이랜드사의 전횡이 법적으로 단죄되거나 피해를 보상했다는 묘사는 한 번도 없었습니다. 

 

   인조인간이 광산 사고에서 14명을 살리기 위해 3명을 죽게 했다면 그 3명의 가족이나 친지에게라도 적절한 보상이 일어나 어느 누군가의 억울함이나 분노도 최소화해야 합니다. 광산 사고의 원인이 어떤 기업이나 개인에게 있지 않을까요? 인조인간의 알고리즘에 오류나 허점은요? 회사든 국가든 세금을 쓰든 14명과 합의를 하든 3명에게 보상을 할 수 있지 않을까요? 문명사회에서 대부분의 피해는 누군가에게 책임이 있을 수 있습니다. 자연재해조차도 제대로 예보하지 못하고 미리 피난처를 만들거나 대피를 시키지 않은 누군가의 잘못인 경우가 있습니다. 모든 잘못과 실수에는 누군가의 책임이 있고 국가든 개인이든 사고실험이나 무엇을 동원하든지 옳고 그름을 사유하고 결정하며 그것을 끝까지 따져 물을 때 정의가 바로 선다고 생각합니다. 우리는 자신도 모르는 사이에 국가 경쟁력에서 뒤처지지 않기 위해 인공지능과 같은 기술개발의 선두에 선 빅테크 기업들에게 막대한 부와 권력을 허락했습니다. 하지만 해리 트루먼(1884~1972) 전 미국 대통령이 '책임은 여기서 멈춘다'(The BUCK STOPS here!)고 말했듯이 책임은 가장 적확한 자가 맡아야 하며 '책임을 질 수 없으면 책임을 맡지도 말아야'(If you can't stand the heat, get out of the kitchen)한다는 원칙을 지켜야 합니다.