adblock check

Apple рассказала подробности о сканировании фото на своих устройствах

Компания объяснила, как будет работать проверка фотографий, загружаемых в iCloud Photos, на предмет детского насилия

Вчера эксперт по безопасности Мэтью Грин сообщил о намерении Apple сканировать фотографии на предмет детского насилия. Сегодня компания запустила сайт, где рассказывает о новых функциях защиты детей, которые пока запланированы к работе только в США.

В iOS 15, iPadOS 15 и macOS 12 будет внедрено машинное обучение, которое будет сканировать фото в iMessage на предмет наличия «обнажёнки» локально на устройстве. Интимные фото будут скрыты для предварительного просмотра в чате, при попытке их открыть система будет настойчиво предлагать отказаться от просмотра. Если устройство подключено к родительскому контролю, родители будут получать уведомления об открытии таких фото.

Apple рассказала подробности о сканировании фото на своих устройствах

Также Apple будет бороться с распространением материалов сексуального насилия над детьми (Child Sexual Abuse Material, CSAM). Для этого изображения перед выгрузкой в iCloud Photos будут сравниваться с хешами материалов, предоставленными Национальным центром для пропавших и эксплуатируемых детей (National Center for Missing and Exploited Children, NCMEC). К каждому изображению создаётся «ваучер», который содержит результат соответствия и «дополнительные зашифрованные данные об изображении».

«Ваучеры» не могут быть интерпретированы Apple, если учётная запись iCloud Photos не превышает пороговое значение CSAM-контента. Если пороговое значение будет превышено, технология позволит Apple интерпретировать содержимое «ваучеров». Компания вручную просматривает каждый отчёт и, если подтверждает соответствие, отключает учётную запись, отправляет отчёт в NCMEC. Если пользователь считает, что его учётная запись была отключена ошибочно, он может подать апелляцию на восстановление своей учётной записи.

Apple гарантирует, что вероятность неправильной пометки аккаунта будет меньше одного на триллион в год. Подробнее с технологией можно познакомиться в PDF-файле на английском языке.

Apple рассказала подробности о сканировании фото на своих устройствах

Голосовой ассистент Siri расскажет о ресурсах, куда можно обратиться по поводу материалов сексуального насилия над детьми. А при попытке их поиска Siri и Spotlight помешают этому, объяснят, что интерес к этой теме вреден и проблематичен, и предоставят ресурсы для получения помощи.

Apple рассказала подробности о сканировании фото на своих устройствах

Apple известна категоричным отношением к порнографии. Например, в App Store запрещены игры, содержащие интимные сцены, и приложения для просмотра порнографического контента. Отвечая на возражения по этому поводу, Стив Джобс предлагал пользоваться Android.

Eaglers
Серебряный автор
Бронзовый комментатор
Apple Apple
5,2K участников
Вступить
7 комментариев по лайкам по дате
Оставьте комментарий...
Оставьте комментарий...
Для того чтобы обнаружить "Child Sexual Abuse Material", надо сначала его просканировать.
Значит у Apple большая БД этого самого "Child Sexual Abuse Material"...
Think about this
будут сравниваться с хешами материалов, предоставленными Национальным центром для пропавших и эксплуатируемых детей
Ни о чем не говорит?
Ну это норм кстати. Ничего криминального, а шумиху развели то
Это нифига не норм, если что.
Телефон — это индивидуальная приватная собственность.
И контролировать то, что у человека на смартфоне — это жуть.
Такими темпами можно у себя в квартире наркоту хранить — моя же собственность.
Не пойман — не вор. ТАк что, никто не запрещает, если втихаря)
Норм до тех пор, пока эпл не начнет сканировать твой телефон на наличие мемов с темнокожими и различным гендерквир персонами