Apple будет сканировать фотографии пользователей для выявления жестокого обращения с детьми
По данным Financial Times, Apple планирует сканировать фотографии, хранящиеся на iPhone и iCloud, на предмет жестокого обращения с детьми. Новая система может помочь правоохранительным органам в уголовных расследованиях. Система, получившая название neuralMatch, «проактивно предупредит группу экспертов, если сочтет, что незаконные изображения обнаружены, и затем эксперты свяжутся с правоохранительными органами, если материал нужно будет проверить», – сообщает Financial Times.
Искуственный интеллект neuralMatch, который обучен с использованием 200 000 изображений из Национального центра пропавших без вести и эксплуатируемых детей (The National Center for Missing & Exploited Children), сначала будет запущен в США. Фотографии в телефонах пользователей будут хешированы и сравнены с базой данных известных изображений сексуального насилия над детьми.
Похожая система выявления Child Sexual Abuse Material (CSAM) уже используется CloudFlare и позволяет владельцам веб-сайтов оперативно выявлять размещаемый пользователями запрещенный контент.
«Каждой фотографии, загруженной в iCloud в США, будет выдан «ваучер безопасности», указывающий, является ли фото подозрительным или нет. После того, как определенное количество фотографий будет помечено как подозрительное, Apple позволит расшифровать все подозрительные фотографии и, если они окажутся незаконными и передаст их в соответствующие органы». Financial Times
Apple задействуют систему фильтрации, аналогичную PhotoDNA от MicroSoft, которая считывает хеш изображений и уже успешно работает в интересах Facebook, Twitter, Reddit, Adobe, Discord и Google (с 2008 года) и выявляет не только материалы жестокого обращения с детьми, но и экстремистский и террористический контент.
And if you’re wondering whether Google scans images for child abuse imagery, I answered that in the story I wrote eight years ago: it’s been doing that **SINCE 2008**. Maybe all sit down and put your hats back on. pic.twitter.com/ruJ4Z8SceY
— Charles Arthur (@charlesarthur) August 5, 2021
IT-гигант заранее предусмотрел и внес необходимые изменения в политику конфиденциальности еще в 2019 году.
Информация о системе сканирования фотографий появилась еще полтора года назад в январе 2020 года.
Профессор Университета Джона Хопкинса и криптограф Мэтью Грин выразил обеспокоенность по поводу системы в своем Twitter-аккаунте в среду вечером. «Такой инструмент может быть благом для поиска детской порнографии в телефонах людей», – сказал Грин. «Но представьте, что он может сделать в руках авторитарного правительства?»
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
«Даже если вы считаете, что Apple не позволит злоупотреблять этими инструментами, нам есть о чем беспокоиться», – добавил профессор. «Эти системы полагаются на базу данных «проблемных медиа-хешей», которые вы, как потребитель, не можете просмотреть».
Apple уже проверяет файлы iCloud на известные изображения жестокого обращения с детьми, как и любой другой крупный поставщик облачных услуг. Но описанная здесь система пошла бы дальше, предоставляя централизованный доступ к локальному хранилищу. Вероятно данная система будет использована и для выявления других преступлений, кроме жестокого обращения с детьми, что вызывает особую озабоченность, учитывая обширный бизнес Apple в Китае.
Компания проинформировала об этом некоторых американских ученых на этой неделе, и, как сообщает Financial Times, Apple может рассказать больше о системе «уже на днях».
Apple ранее рекламировала средства защиты конфиденциальности, встроенные в свои устройства, и, как известно, выступила против ФБР, когда агентство хотело, чтобы Apple встроила в iOS бэкдор для доступа к iPhone, который использовался одним из стрелков во время атаки 2015 года в Сан-Бернардино.