Apple отложила запуск функции обнаружения незаконного контента на устройствах

Apple отложила запуск функции обнаружения незаконного контента на устройствах

Компания Apple перенесла развертывание инструмента для сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM). Об этом пишет 9to5Mac.

В Apple заявили, что отложили запуск средств обнаружения материалов о сексуальном насилии над детьми для «внесения улучшений» после критики. В компании не сообщили о новых сроках релиза инструмента.

«На основании отзывов клиентов, групп защиты интересов, исследователей и других людей мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — сообщили представители компании.

В Apple не поделились деталями возможных улучшений. Ранее корпорация планировала развернуть системы обнаружения CSAM с обновлениями iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, которые выйдут в ближайшие недели.

Apple также планировала запустить систему сканирования контента в «Сообщениях», чтобы оградить детей от непристойных изображений, присланных незнакомцами. С помощью машинного обучения приложение может анализировать прикрепленные фотографии и определять, являются ли они сексуально откровенными. В Apple утверждают, что не получат доступ к сообщениям, а алгоритм будет обрабатывать изображения непосредственно на устройстве.

Также голосовой помощник Siri и встроенные функции поиска в iOS и macOS будут направлять пользователей к соответствующим ресурсам, когда кто-то спрашивает, как сообщить о CSAM, или пытается выполнить поиск незаконного контента.

Напомним, 6 августа Apple рассказала об инструменте для сканирования фотографий пользователей на предмет жестокого обращения с детьми.

Спустя четыре дня корпорация опубликовала шестистраничный документ с ответами на вопросы о работе технологии, а также пообещала не превращать его в инструмент слежки.

В августе более 90 правозащитных групп со всего мира призвали Apple не использовать функцию массового сканирования фотографий.

В середине августа исследователь нашел уязвимость в спорном инструменте, а также обнаружил наличие кода функции обнаружения незаконного контента в iOS 14.3.

Source