Вчера эксперт по безопасности Мэтью Грин сообщил о намерении Apple сканировать фотографии на предмет детского насилия. Сегодня компания запустила сайт, где рассказывает о новых функциях защиты детей, которые пока запланированы к работе только в США.
В iOS 15, iPadOS 15 и macOS 12 будет внедрено машинное обучение, которое будет сканировать фото в iMessage на предмет наличия «обнажёнки» локально на устройстве. Интимные фото будут скрыты для предварительного просмотра в чате, при попытке их открыть система будет настойчиво предлагать отказаться от просмотра. Если устройство подключено к родительскому контролю, родители будут получать уведомления об открытии таких фото.
Также Apple будет бороться с распространением материалов сексуального насилия над детьми (Child Sexual Abuse Material, CSAM). Для этого изображения перед выгрузкой в iCloud Photos будут сравниваться с хешами материалов, предоставленными Национальным центром для пропавших и эксплуатируемых детей (National Center for Missing and Exploited Children, NCMEC). К каждому изображению создаётся «ваучер», который содержит результат соответствия и «дополнительные зашифрованные данные об изображении».
«Ваучеры» не могут быть интерпретированы Apple, если учётная запись iCloud Photos не превышает пороговое значение CSAM-контента. Если пороговое значение будет превышено, технология позволит Apple интерпретировать содержимое «ваучеров». Компания вручную просматривает каждый отчёт и, если подтверждает соответствие, отключает учётную запись, отправляет отчёт в NCMEC. Если пользователь считает, что его учётная запись была отключена ошибочно, он может подать апелляцию на восстановление своей учётной записи.
Apple гарантирует, что вероятность неправильной пометки аккаунта будет меньше одного на триллион в год. Подробнее с технологией можно познакомиться в PDF-файле на английском языке.
Голосовой ассистент Siri расскажет о ресурсах, куда можно обратиться по поводу материалов сексуального насилия над детьми. А при попытке их поиска Siri и Spotlight помешают этому, объяснят, что интерес к этой теме вреден и проблематичен, и предоставят ресурсы для получения помощи.
Apple известна категоричным отношением к порнографии. Например, в App Store запрещены игры, содержащие интимные сцены, и приложения для просмотра порнографического контента. Отвечая на возражения по этому поводу, Стив Джобс предлагал пользоваться Android.
Значит у Apple большая БД этого самого "Child Sexual Abuse Material"...
Think about this
Телефон — это индивидуальная приватная собственность.
И контролировать то, что у человека на смартфоне — это жуть.