Tech

애플 '아이폰 스캔' 논란 유감

피우미치노 2021. 9. 27. 15:12

애플은 아이폰과 아이패드에서 아동 성학대를 감지하는 자동화 도구 발표가 "매우 엉망이었다"라고 말했다.

8월 5일, 애플은 알려진 불법 이미지가 iCloud 스토리지에 업로드되는 경우 Apple에 경고할 수 있는 새로운 이미지 감지 소프트웨어를 공개했다. 그러자 사생활 보호 단체들은 애플이 자사 소프트웨어에 보안 백도어를 만들었다고 말하는 등 뉴스를 비판했다.

애플은 해당 발표가 "오해"라고 말한다. 애플 소프트웨어 책임자인 크레이그 페더리기(Craig Federighi)는 월스트리트저널(Wall Street Journal)과의 인터뷰에서 "이것이 모두에게 조금 더 명확하게 밝혀졌으면 한다"라고 말했다. 그는 돌이켜 보면 두 가지 기능을 동시에 도입하는 것이 "이런 종류의 혼란을 야기하는 방법"이라고 말했다.

 

그렇다면 애플이 도입한 새로운 도구는 무엇일까?

Apple은 어린이를 보호하기 위해 설계된 두 가지 새로운 도구를 발표했고, 먼저 미국에서 사용될 것이다.

 

1. 이미지 감지.

첫 번째 도구는 사용자가 iCloud 저장소에 사진을 업로드할 때 알려진 CSAM(아동 성 학대 자료)을 식별할 수 있는 기능이다. 미국 국립 실종 착취 아동 센터(NCMEC)는 알려진 불법 아동 학대 이미지 데이터베이스를 유지 관리하는데, 불법 자료의 디지털 "지문"인 해시로 저장한다. Facebook, Google 및 Microsoft와 같은 클라우드 서비스 제공업체는 이미 이러한 해시에 대해 이미지를 확인하여 사람들이 CSAM을 공유하고 있지 않은지 확인한다.

Apple의 소프트웨어 책임자인 Craig Federighi는 메시지가 "뒤죽박죽"이 되었다고 말했다. Apple은 유사한 프로세스를 구현하기로 결정했지만 iCloud에 업로드되기 전에 사용자의 iPhone 또는 iPad에서 이미지 일치를 수행할 것이라고 말했다.

그의 말에 따르면 iPhone이 목욕 중인 자녀의 사진이나 포르노를 찾는 등의 항목을 확인하지 않을 것이라고 말했다.
또한 그는 이 시스템이 알려진 특정 아동 성적 학대 이미지의 "정확한 지문"만 일치시킬 수 있다고 말했다. 사용자가 아동 학대 지문과 일치하는 여러 이미지를 업로드하려고 하면 특정 이미지를 검토할 수 있도록 해당 계정이 Apple에 표시된다. Federighi는 이 기능이 실행되기 전에 사용자가 30개의 일치하는 이미지 영역에 업로드해야 한다고 말했다.

 

2. 메시지 필터링.

iCloud 도구 외에도 Apple은 사용자가 자녀 계정에서 활성화할 수 있는 자녀 보호 기능도 발표했다. 이 기능이 활성화되면 시스템은 Apple의 iMessage 앱을 통해 자녀가 보낸 사진을 확인한다. 기계 학습 시스템이 사진에 과도한 노출이 있다고 판단하면 사진을 가리고 어린이에게 경고한다. 부모는 자녀가 사진을 보기로 선택한 경우 알림을 받도록 선택할 수도 있다.

 

 

비판.

개인 정보 보호 그룹은 권위주의 정부가 이 기술을 확장하여 시민들을 염탐하는 데 사용할 수 있다는 우려를 표시했다. 왓츠앱(WhatsApp)의 책임자인 Will Cathcart는 Apple의 움직임을 "매우 우려스럽다"라고 말했고, 미국 내부 고발자 Edward Snowden은 iPhone을 "spyPhone"이라고 불렀다. Federighi는 발표 이후에 퍼진 "사운드바이트"는 Apple이 iPhone에서 이미지를 스캔하고 있다는 것이라 표명했다. 또한 월스트리트 저널과의 인터뷰에서 "우려하는 그런 일이 일어나지 않고 있다"라고 말했다. 이러한 논란의 새로운 아이폰 도구는 2021년 말 iOS 및 iPadOS의 새 버전에 추가될 예정이다.