Apple не будет сканировать фотографии владельцев iPhone

Новости
|

Apple временно откажется от внедрения алгоритма сканирования снимков пользователей смартфонов iPhone на предмет сексуального насилия над детьми (CSAM).

iPhone Child

Представитель Apple уточнил, что основываясь на отзывах пользователей своей продукции, компания решила взять дополнительное время, чтобы собрать больше информации для внесения необходимых улучшений.

В корпорации добавили, что всё равно считают алгоритм CSAM необходимым для защиты детей. Поэтому в любом случае стоит ожидать его внедрение, хоть и в неопределённый срок. Кстати, ранее оказалось, что Apple сканирует почту iCloud на наличие насилия над детьми с 2019 года.

Предыстория

В начале августа стало известно, что технология CSAM появится в «яблочных» гаджетах этой осенью с выходом операционных систем iOS 15, iPadOS 15, macOS Monterey и watchOS 8. Алгорит должен был работать следующим образом:

  • Сканировать изображения, отправленные и полученные в приложении «Сообщения». При обнаружении наготы снимок будет автоматически размыт, а пользователь будет предупрежден о том, что фотография может содержать частные части тела.
  • Если ребенок младше 13 лет отправляет или получает подозрительное изображение, «родители получат уведомление», если устройство ребенка подключено к Family Sharing.
  • Siri будет «вмешиваться», когда пользователи попытаются искать темы, связанные с сексуальным насилием над детьми.

Несмотря на утверждение компании о сохранении конфиденциальности, большинство владельцев «яблочных» гаджетов отнеслись к технологии CSAM крайне отрицательно.

Материалы по теме:

Apple может начать проверять фотографии пользователей iPhone
Apple может начать проверять фотографии пользователей iPhone
На iOS 8 перешли 63% пользователей Apple-устройств
На iOS 8 перешли 63% пользователей Apple-устройств
Павел Дуров назвал пользователей iPhone цифровыми рабами Apple
Павел Дуров назвал пользователей iPhone цифровыми рабами Apple