애플의 ‘아동 성범죄 방지 기능’은 왜 거센 반발에 직면했나

 

 

“애플이 내 스마트폰에서 내 누드를 볼 수 있을까?”

“애플이 욕조에 있는 신생아를 아동 포르노로 착각할까요?”

“애플이 내 모든 메시지와 사진을 스캔하나요?”

 

 

애플이 iOS 업데이트를 통해 아동 성착취물(CSAM, Child Sexual Abuse Material)을 감지하는 시스템을 도입하기로 한 것을 놓고 논란이 불거지고 있습니다. 전문가들은 보안성 저하, 프라이버시 침해, 악용 가능성 등을 우려하다 못해, 혼란스럽고 소름끼친다는 반응을 나타내는데요,

애플이 지난달 5일(현지시각) 밝힌 새 iOS 업데이트 기능은 크게 세 가지로 나뉩니다.

첫 번째는 아동 성착취물 감지 기능입니다. 뉴럴매치(NeuralMatch) 소프트웨어 업데이트를 통해, 아이클라우드에 업로드되는 사진 중 아동 성착취물로 의심되는 이미지를 감지해냅니다. 이상 사례가 적발되면 애플은 위법성을 확인해 이용자 계정 정지 후 관련 기관에 신고하는 조치가 이뤄집니다.

두 번째는 이용자가 자체 검색 앱이나 시리에서 아동 성착취 관련 주제를 검색하지 못하게 막습니다. 만약 해당 주제를 검색한다면, 검색 결과 대신 이것이 성범죄일 수 있다는 것을 알리고, 경찰 등 수사기관에 신고하거나 관련 도움을 받을 수 있는 곳의 연락처 등을 제공합니다. 자살 관련 정보를 검색할 경우 자살예방센터를 안내하는 것과 비슷한 조치로 볼 수 있습니다.

마지막으로 세 번째는, 메시지 검열 기능입니다. 아동이 성적인 노출이 있는 사진을 메시지로 보내거나 받으면 시스템이 이를 감지해 자동으로 해당 이미지를 숨깁니다. 사진을 확인하려면 경고 메시지와 함께 사진을 볼지 말지 재차 확인하는 절차를 거쳐야 합니다. 아동이 경고를 무시하고 사진을 보기로 선택한다면, 부모에게도 이를 알리는 메시지가 발송됩니다.

 


 

무엇이 문제가 됐나?

 

이 기능의 문제는 ‘아동 성범죄 근절’이라는 취지와 달리, 이용자의 사생활 침해 우려가 상당하다는 점입니다. 보안 전문가, 프라이버시 보호론자들은 공개 서한까지 발표하면서 애플의 새 정책에 대한 우려를 나타내고 있습니다.

애플은 이 같은 여론이 일자, 강도 높은 사생활 보호 장치를 설치했고 해당 기술은 아동 유해 콘텐츠로 지정된 이미지만 볼 수 있다고 강조합니다.

사실 이미지 해시를 분석해서 아동 성착취물을 감지하는 기술은 새로운 기술이 아니기도 합니다. 트위터, 페이스북 등은 이미 해시 기반으로 아동 성착취물을 감지한 뒤 관련 기관에 신고하도록 하고 있죠. 오히려 애플의 행보는 다른 기업들에 비하면 늦은 편입니다. 또 새 기능인 뉴럴매치는 미국 내에서 아이클라우드를 사용 중인 이용자를 대상으로만 제한적으로 작동합니다. 사진이 아닌 동영상은 감지 대상에서 제외되고요.

 

 

 



애플의 해명에도 논란이 사그라들지 않는 이유는 아동 유해 콘텐츠 감지 작업이 이용자 기기에서 이뤄진다는 점 때문입니다.

이는 타업체가 서버에 업로드된 데이터를 원격으로 감지하는 일반적인 방식과는 다른데요, 전문가들은 서버가 아닌 기기에서 감지가 이뤄지는 방식이, 사용자의 사생활을 들여다볼 수 있는 ‘백도어’로 작동할 수 있다고 주장합니다. 여기서, 백도어란 시스템상에서 보안체계를 우회하고 암호화된 데이터에 접근할 수 있도록 개발자가 일부러 만들어 놓은 이른바 ‘뒷문’을 뜻합니다.

그리고 ‘종단간 암호화’를 무력화할 수 있다는 건데요. 이게 무슨 말이냐면, 종단간 암호화는 메시지를 전송할 때부터 받을 때까지의 모든 과정을 암호화된 상태로 진행하는 방식을 말합니다. 애플 ‘아이메시지’가 대표적인 예죠. 그런데 애플의 새 정책대로 메시지에서 유해 이미지를 검열하려면 ‘암호화 과정이 이뤄지기 전 메시지를 직접 들여보는 방식일 가능성이 높다는 게’ 전문가들 의견입니다.

애플은 이에 대해서 “기능이 작동하더라도 애플이나 사법 기관이 메시지 내용에 접근할 수 없으며, 종단간 암호화 보안성에도 문제가 없다”고 반박했는데요.

전문가들은 애플의 주장이 앞뒤가 맞지 않다고 입을 모읍니다. “암호화는 사생활 보호를 제공하는 강력한 도구인데, 다른 사람이 보내는 모든 이미지를 감시하면서 동시에 강력한 프라이버시를 가질 순 없다”는 겁니다.

나아가 애플 말대로 라면, 이번 정책은 이전에 주장했던 것보다 애플이 더 강력한 감시 기술을 보유하고 있다는 것이고, 만약 이 정책이 그대로 실행되면 이를 선례로 향후에 어떤 식으로 그 도구들을 사용하도록 강요할 수 있다는 뜻이라는 거죠.

파이낸셜타임즈(FT)는 애플의 발표 이후 “애플이 ‘뒷문’을 열기 위한 발걸음을 내디뎠다”는 제목으로, 이번 애플의 조치가 “중대한 선례를 남길 것”이라는 사설을 내놓았습니다. 이어 “범죄에 맞서고 보안을 지키려면 빅테크 기업과 정부의 협력은 필수적이지만, 뒷문은 위험으로 가득 차 있다”며 “전 세계 수십억 명의 휴대전화 사용자들은 애플의 조치가 더 큰 쐐기의 시작점이 되지 않기를 바란다”고 덧붙였습니다.

 

 

 

 


 



논란이 일자 애플은 새로운 업데이트와 기술에 대해 직접 해명하고 나섰습니다. 보기 쉽게 이를 질의응답 형식으로 정리해봤습니다.



Q. 애플은 어떻게 아이폰에서 아동 음란물을 발견하는가?



A. 아이폰에서 아동 음란물을 찾는 게 아니다. ‘아이클라우드’에 저장된 아동 음란물만을 찾는다. 현존하는 클라우드 서비스는 저장된 모든 사진을 일일이 살펴보고 분석한다. 애플은 고객 사진을 모두 다 보지 않고도 불법 이미지만을 찾아낼 수 있다. 이를 위해서 개인 정보보호에 온 심혈을 기울여서 기술을 만들었다.

 



Q. 해당 소프트웨어로 아이폰을 업데이트하면 내 아이클라우드에서 무슨 일이 일어나는가?



사진이 아이클라우드에 올라가면 어느 정도는 기기 자체에서 분석하고, 나머지는 아이클라우드에서 수행하는 멀티 파트 알고리즘(Multi-part algorithm)을 사용한다. 아이클라우드 이미지 중에서 아동 음란물 이미지 30개 정도의 임계값을 충족하는 경우 애플이 사용자의 계정과 해당 이미지를 파악할 수 있다.

여기서 중요한 건, 애플은 아동 음란물 외 다른 사진들은 절대 알 수 없다는 점이다. 예를 들어, 당신의 아이가 욕조에 있는 사진이라든지, 다른 아동 음란물 이외의 부적절한 사진은 분석 대상이 되지 않는다. 알려진 특정 아동 음란물의 정확한 지문과 일치하는 사진들만 찾아낸다는 것이다.

 



Q. 애플이 사용자 기기에 대한 지나친 권한을 가지는 것 아닌가?



A. 오해다. 해당 시스템은 오직 클라우드에 저장하는 과정의 일부에서만 적용된다. 사용자가 저장하는 사진, 메세지, 텔레그램, 웹 브라우징 등을 막 훔쳐보지 않는다.

 

 


 



애플은 왜 지금 이런 기능을 내놓은 걸까?



업계에서는 애플의 이런 행보를 그간 애플이 사법 당국에 비협조적이라는 비판에 따른 조치로 보고 있습니다. ‘사생활 보호 우선’ 정책을 고수해온 애플은 수년 간 사법 당국과 부딪쳐왔는데요. 애플은 2015년 캘리포니아에서 발생한 총기 테러 사건 용의자의 아이폰 잠금을 풀어 달라는 미국 연방수사국(FBI)의 요청을 “개인정보 침해”라며 거부하기도 했습니다.

이런 가운데 미국 상원에서 <암호화된 데이터에 대한 합법적인 접근에 관한 법률; Lawful Access to Encrypted Data Act>을 추진 중이라는 얘기도 나오는데요. 아직은 음모론 수준입니다만, 이 법안이 만들어진다면 애플이 판매하는 기기와 운영하는 클라우드 서비스 모두에서 고객 데이터에 액세스할 수 있는 근거를 갖게 됩니다.

업계에 따르면 해당 법안은 “제조업체에 수색영장이 제출되면 데이터 액세스를 지원한다”는 내용으로 시작됩니다.

현재 애플이라도 아이폰을 잠금 해제할 수 있는 방법이 없습니다. 그래서 이 법안을 통해 아이폰에 백도어 설치를 의무화하겠다는 게 미국 상원의 의지라는데요. 2016년부터 해당 법안이 추진돼온 것으로 알려지면서 아직은 음모론 수준이지만 상당히 설득력이 있다는 게 업계 전문가들의 얘깁니다.

즉, 해당 법안이 아직 통과되지는 않았지만, 꾸준히 지속돼온 미국 상원의 기류를 애플이 반영했고, 이를 위한 명분으로 끔찍한 아동 성범죄 방지를 내밀었다는 것입니다. 카더라’에 가까운 얘기지만, 이 글에서 근거로 담은 이유는 많은 보안 전문가들이 구체적으로 적시하지 않았지만, 이런 감지 기술이 정치나 특정 정권에 악용될 가능성을 우려하기 때문입니다.

 

 

 



맷 그린 존스홉킨스대 교수와 에드워드 스노든도 애플의 움직임을 정면으로 비판하고 나섰는데요, 이들은 애플 기기와 서비스가 진출해 있는 여러 국가에서 각국 정부의 뜻에 따라 아이폰 사용자의 콘텐츠를 검열하는데 협조할 가능성까지 내다봤습니다. 애플은 영업 중인 각 국가의 법률을 준수하고 있다고 천명하고 있는 만큼, 국가가 법률로 제정하고 애플을 압박하면 애플은 항복할 수밖에 없다는 논립니다.

자동 검열 기능이 비민주 국가에서 어떻게 이용될지는 사실상 안 봐도 비디오입니다. 예를 들어 ‘중국 정부라면 애플에 무엇을 요구할까’라는 질문을 던져볼게요. 중국이라는 나라를 아는 사람이라면 누구나 예상 가능한 시나리오입니다. 즉, 일부 국가에서는 애플의 새로운 시스템을 정치적 내용이 담긴 사진이나 다른 유형의 이미지를 검열하는 데 사용하는 새로운 법을 만들 수 있다는 겁니다.

테러 방지를 빌미로 한 반정부 인사 감시에 악용될 가능성도 있습니다. 실제 앞서 지난 5월 미국 뉴욕타임스는 애플이 중국에서는 당국 요구에 굴복해 중국 내 아이폰 고객 데이터를 중국 국영 기업 서버에 옮기고, 사전 검열을 허용했다는 주장을 보도하기도 했습니다.

스노든은 트위터를 통해 “애플이 전 지구적 감시 도구를 도입하려 한다”면서 “이들은 아동 포르노뿐 아니라 모든 콘텐츠를 그 대상으로 할 수 있다”며 경고에 가까운 우려를 보냈습니다.

 

 


 



애플은 이런 정책을 발표한 배후나 배경 등에 대해 “그런 것은 없다. 애플이 직접 생각했다”면서 “이런 시스템을 시도해보고 싶었지만, 지금까지 애플은 사용자 데이터 스캔이 수반되는 솔루션을 배포하는 걸 꺼려했다”고 주장했습니다.

 

 

 



백도어 논란에 대해서도 “불가능하다. 그렇게 활용될 수 있는 특성이라는 걸 이해하기 힘들다”고 못 박았습니다. 애플은 이어 “결코 개인 사생활을 침해하는 일은 발생하지 않을 것이다. 아동 성 착취물 외 분야에 이미지 감지 기술을 적용할 계획은 없다”고 덧붙였습니다.

애플이 논란을 무릅쓰고라도 아동의 성적 학대 콘텐츠에 대한 규제를 하겠다는 취지를 욕할 수는 없습니다. 아동 대상 성범죄를 일으킬 수 있는, 수많은 피해자를 유발할 수 있는 유해성 콘텐츠를 막는다는 명분 또한 설득력을 지닙니다. 문제는 이러한 기술을 손에 쥐게 됐을 때 지금의 원칙을 어디서나, 언제까지나 지킬 수 있느냐는 것입니다.

 




한편 미국과 독일, 인도 등 세계 각국 90여 개 정책·인권단체는 애플에 아동 착취 음란물 근절을 위한 아이클라우드·아이메시지 검색 계획을 당장 중단할 것을 요구하고 나섰습니다.

미국 IT전문매체 ‘더버지'(The Verge)는 20일 미국 시민자유연합(ACLU)과 민주주의·기술센터(CDT) 등을 중심으로 한 세계 90여 개 정책·인권단체가 전날 애플에 “아이폰과 아이패드, 기타 애플 제품에 감시기능을 구축하는 계획을 폐기하라”는 내용의 공개 서한을 내놨다고 전했습니다.

세계 정책·인권 단체들은 이번 공개 서한에서 “이런 기능들은 어린이를 보호하고 아동 성 착취물 확산을 줄이기 위한 것이지만, 오히려 표현을 검열하고 사람들의 프라이버시와 안전을 위협하며 어린이들에게 처참한 결과를 초래하지 않을까 우려된다”고 지적했습니다.

이들은 또 애플의 새 조치에 대한 반발이 기기 검색 기능에 집중되고 있지만, 어린이들의 아이메시지에서 노골적 성적 표현을 검색해 감추려는 계획 역시 어린이들을 위험에 빠뜨릴 가능성이 있으며, 애플이 강조해온 아이메시지의 ‘전 구간'(end-to-end) 암호화 약속을 깨뜨리는 게 될 것이라고 주장했습니다.

 

 

 

기자 김연지 님이 브런치에 게재한 글을 편집한 뒤 모비인사이드에서 한 번 더 소개합니다.