프리크라임

프리크라임

프리크라임의 스틸사진
감독
모니카힐셔 & 마티아스 히더
상영시간
87'
제작국가
독일
장르
다큐멘터리
출시년도 2017
색채
컬러
포맷
HD
화면비율
16:9
자막
Korean+English
배급

상영정보

정보인권-표현의 자유
해외 상영작
2018/06/07(목) 11:50
마로니에공원
2018/06/09(토) 17:30
다목적홀

시놉시스

세계 여러 국가기관은 빅데이터와 알고리즘을 통해 범죄를 예측하고 예방하는 기술, 프리크라임을 도입했다. 그들은 자신들이 가진 힘과 정보력을 가지고 사람들의 행동을 예측하고, 범죄가 발생하기도 전에 리스트를 생성한다. 리스트의 고위험집단은 경찰의 주요 감시대상이다. 온라인 서비스를 제공하는 기업들은 정부에 개인 정보를 판매하여 감시를 더욱 쉽게 만든다. 범죄와는 연관이 없는 사람이라도 이러한 데이터 알고리즘에서 벗어날 수 없다. 알고리즘은 그 사람의 환경이나 범죄의 원인을 고려하지 않는다. 유일한 계산 목표는 범죄의 가능성이다. 범죄에 노출될 가능성이 큰 소수자들은 더 쉽게 리스트에 포함된다. 범죄 피해자와 목격자마저도 이름이 기록된다. 경찰은 범죄예방이라는 명목하에 사람들의 정보를 수집하고 감시하면서 ‘어떤’ 사람들이 범죄자가 되기를 기다린다.

감독소개

모니카힐셔 & 마티아스 히더

Monika Hielscher and Matthias Heeder have been making documentary films together for more than 20 years. Their primary focus is on investigative documentaries with strong story-telling; their body of work includes theatrical and TV docs for ARD, ZDF, ARTE and others. They are based in Hamburg, Germany.

작품해설

기술이 고도로 발달하고 있는 현시대에 데이터 알고리즘은 정확한 것, 좋은 것으로 인식된다. 데이터 알고리즘은 우리를 지켜주는 것으로 환영받는다. 하지만, 데이터 알고리즘을 통해 예비범죄자 리스트를 만들어 범죄를 예측하고 예방하는 기술인 프리크라임(pre-crime)은 질서와 안전을 빌미로 일상적 감시를 정당화한다. 이렇게 일상화된 감시는 우리의 삶을, 인권을 조여 온다. 예비범죄자 리스트에 올랐다는 이유로 경찰은 불시에 집을 찾아와 문을 두드리고 의심의 눈길을 보낸다. 어디를 가든지 경찰의 감시를 받는 집중 사찰의 대상이 된다. 우리는 모두 이 리스트에 언제든지 오를 수 있는, 그들이 정한 ‘예비범죄자’가 될 수 있는 피해자다. 감시와 검열로 이루어지는 정보인권의 침해는 온라인에서의 활동뿐만 아니라 현실에서의 물리적 행동까지 제한한다. 이렇듯 정보인권의 침해는 삶 전반에 걸친 인권침해다.
비가 내리면 낮은 곳부터 잠기듯이, 이러한 정보인권의 침해는 사회적 소수자에게 더 자주, 심하게 일어난다. 사회적 소수자는 빈민가와 같은 우범지역에 거주하는 비율이 높다. 데이터 알고리즘은 사회적 요인이나 범죄의 원인을 고려하지 못한다. 그렇기에 알고리즘은 사회적 소수자를 단순히 ‘범죄와 밀접한 사람’으로 판단하고 예비범죄자 리스트에 올린다. 이런 과정을 통해 사회적 소수자에게는 예비범죄자라는 낙인이 찍힌다. 데이터 알고리즘에 이용되는 정보는 기업으로부터 나온다. 기업은 헐값에 고객들의 정보를 정부에게 팔아넘기고 이 정보는 예비범죄자 리스트를 만드는 데 사용된다. 예비범죄자 리스트 등재자는 “그냥 사람들의 생각대로 행동할 수도 있었다고요. 하지만 그건 제가 아닙니다. 그건 당신의 시선일 뿐입니다.”라고 외친다. 이 외침은 프리크라임이 범죄의 예방이 아닌 낙인찍기에 불과함을 폭로한다.
범죄예방은 어떤 사람이 범죄를 저지르지 않도록 생계를 지원하고, 튼튼한 사회적 안전망을 구축하는 방법을 통해 이루어져야 한다. 감시와 억압을 통한 낙인찍기와 사회통제로 이루어지는 것이 아니다. 객관성과 효율성이라는 탈을 쓴 숨 막히는 ‘적막’에 대항하여, 감시당하지 않을 자유와 정보인권 실현을 위해 ‘소란’을 피운다.

 

인권해설

알고리즘에 대해 싸움을 시작할 때다.
그간 우리는 개인정보 유출의 문제를 ‘약간’ 걱정해 왔다. 개인정보 유출은 어차피 다들 겪는 일이라고, 허탈함을 섞어 말했다. 보이스피싱만 조심하면 된다고. 내가 조심하면 되는 문제라고.
박근혜 정부의 전문가들과 기업들은 한목소리로 말했다. 개인정보 가지고 큰일은 없지 않았냐고. 그러니 이제 개인정보에 대한 권리에 연연하지 말라고. 개인정보는 인권의 문제가 아니다. 미국은 개인정보를 재산으로 취급한다. 우리도 개인정보 판매를 자유롭게 하자고, 목소리를 높였었다. 개인정보 규제를 완화하면 돈 벌 기회가 널려 있다고.
그러나 그들은 말하지 않았다. 누가 개인정보를 가지고 돈을 버는가를. 누가 개인정보를 사고 싶어 하는가를.
그들이 말하지 않은 것이 더 있다. 알고리즘은 눈에 보이지 않는다는 것을. 저들의 인공지능이 조용하게 어떤 일을 하고 있는지를.
 
우리가 생각하는 것보다 우리의 개인정보는 비싸다. 홈플러스가 보험사에 판매한 온라인 회원 정보는 건당 2,800원이었고 경품응모자의 정보는 건당 1,980원이었다. 2천4백만 건의 개인정보 엑셀을 열 군데의 보험회사에 팔면서 홈플러스가 벌어들인 돈이 231억 원이었다.
보험사는 이 정보를 왜 비싸게 사들였을까? 돈을 벌 수 있기 때문이다. 우선 광고에 썼다. 가족 중에 아이가 있는 이에게는 어린이보험을 팔고, 차가 있는 집에는 자동차보험을 팔았다. 맞춤 광고라서 내가 필요한 부분을 알아주니 편리하다고 볼 일일까? 보험이 필요치 않으면 광고 전화를 무시하고 말 일일까?
 
최근 진화한 알고리즘은 여기서 멈추지 않는다. 보험에 가입하면 인공지능이 당신을 판단한다. 스스로 학습하는 인공지능은 빅데이터를 이용해 당신을 공부한다. 트위터와 페이스북에 공개된 정보, 마트에서 사 온 정보, 그 밖에도 온갖 곳에서 사 온 정보들로 당신의 등급을 매긴다. 알고리즘이 “보험금을 제때 내지 않을 것 같다”고 판단한 이들에게는 보험료가 높게 책정된다. 보험료 지급을 요청할 때도 마찬가지다. 인공지능은 이미 당신의 트위터를 읽어 두었고, 마트에서 무엇을 샀는지 알고 있다. 휴대전화 회사에서 사 온 위치정보도 가지고 있다. 심지어 어떤 병으로 병원을 다녀왔는지도 알 수 있다. 이런 방식으로 당신이 보험 약관을 위반한 일을 한 적은 없는지 ‘자동으로’ 판단한다.
 
유럽 개인정보 담당자들은 “우리가 했던 행동이 아니라 장차 우리가 할 법한 행동이라고, 데이터가 말하는 대로 평가받는” 세상이 되었다고 개탄한다. 그리고 빅데이터로 인한 인권침해를 걱정할 때라고 경고한다. 알고리즘은 사회적으로 불공정하고 차별적인 의사결정을 야기할 수 있다. 차별받아온 이들에 대한 편견을 강화할 수 있다. 병이 있는 이들, 이주민들, 그리고 가난한 자들은 믿을 수 없다고. 이들에게는 기회를 주지 않거나 더 비싼 대가를 치르게 하거나.
 
구매 정보는 경찰에도 팔린다. 미국 경찰이나 정보기관은 신용카드사 정보도 구입한다. 이런 정보가 경찰에 왜 필요할까? 그들은 범죄예방을 위해서라고 말한다. 당신이 범죄율이 높은 동네에서 무기류를 구입했는지 알아두고 당신의 등급을 매겨 두겠다는 것이다. 트위터에 위험한 이야기를 쓰고 평소 불량한 친구들과 어울렸다가 경찰서에 들른 적이 있다면 빼박이다. 이 기록은 당신이 죽을 때까지 삭제되지 않을 것이다. 어쩌면 당신 사후까지도.
 
이 영화가 다루고 있는 미국, 영국, 독일 경찰의 알고리즘을, 한국 경찰도 도입하려고 한다. 지금 국회에 발의되어 있는 ‘범죄예방 기반 조성에 관한 법률안’은 인공지능으로 ‘범죄예방시스템’을 구축하겠다고 한다. 범죄를 미리 예방하겠다는 좋은 취지다. 그러나 우리는 미국, 영국, 독일 시민들의 경고에 귀를 기울여야 한다. 경찰의 인공지능은 차별적으로 작동하고 있다. 알고리즘은 범죄자를 친구로 둔 흑인을 감시하고, 이주민이 많이 살고 있는 낙후된 동네를 주목한다. 여기서 불심검문을 많이 하다 보면 성과도 있게 마련이다. 더 높은 검거율은 확신을 강화한다. 역시, 인공지능이 옳았어. 이 동네가 문제였어. 유색인종이 문제였어. 하지만 기업 범죄는 경찰 범죄예방시스템의 관심 밖이다.
 
홈플러스 소비자들은 자신도 모르는 새 개인정보가 팔렸다는 사실에 화를 냈다. ‘내가 모르는 새’라는 점이 중요하다. 개인정보 처리에 대해 알 권리는 정보인권의 출발점이다. 보험사의 알고리즘이, 경찰의 알고리즘이 어떻게 구동하는지 알 수 있어야 한다. 그리고 여기서 한발 더 나가 보자. 보험사나 경찰의 인공지능이 나에 대해 의사결정 하는 것을 거부할 수 있어야 한다.
 
알고리즘은 양심이 없다. 저들이 우리의 미래를 조종하지 못하도록 해야 한다. 편견과 차별에 저항해야 한다는 인권의 가치를 위해서이다. 알고리즘에 관한 싸움은 개인정보에 대한 더 강한 통제권을 주장하는 데서 시작한다. 내 개인정보가 어디에 쓰이는지 나는 알 수 있어야하고, 내가 통제할 수 있어야한다. 인공지능이 나를 평가하고 의사결정 하는 것을 거부하겠다. 이것이 정보 인권이다. 개인정보 문제를 인권 문제로 접근해온 유럽은, 최근 발효된 유럽 개인정보보호법(GDPR)에 알고리즘 통제 규정을 포함하였다. 우리에게도 할 일이 있다.

장여경 (정보인권연구소 상임이사)

스틸컷

프리크라임 스틸컷1
프리크라임 스틸컷2
프리크라임 스틸컷3