Loading...
Лента добра деактивирована. Добро пожаловать в реальный мир.
Вводная картинка

Apple не будет сканировать фотографии пользователей

WSJ: Apple отказалась от функции сканирования фотографий пользователей

Apple закрыла программу сканирования фотографий пользователей на предмет жестокого обращения с детьми. Об этом сообщает издание The Wall Street Journal.

В разговоре с корреспондентом WSJ Джоанной Штерн старший вице-президент Apple Крейг Федериги подтвердил, что IT-корпорация не будет сканировать фотографии пользователей из iCloud. Отказ от проекта косвенно связан с введением сквозного шифрования данных на iCloud, из-за которого изучение сохраненных в облачном хранилище изображений окажется технически невозможным.

Функция сканирования CSAM была анонсирована осенью 2021 года. В Apple отмечали, что данная технология позволит выявлять случаи жестокого обращения и сексуального насилия над детьми. В компании объяснили, что CSAM позволяет анализировать фотографии, изучая хэш-данные изображений.

«Сексуальное насилие над детьми можно предотвратить до того, как оно произойдет… Вот на что мы направляем нашу энергию», — заявил Крейг Федериги. В разговоре с журналистом издания топ-менеджер Apple подчеркнул, что обеспечение безопасности данных пользователей имеет решающее значение.

В августе стало известно, что Apple перестала комментировать ситуацию с программой по изучению фотографий пользователей iPhone на предмет жестокого обращения с детьми. Журналисты обратили внимание, что IT-компания удалила со своего сайта всю информацию о данной программе.

Комментарии к материалу закрыты в связи с истечением срока его актуальности
Бонусы за ваши реакции на Lenta.ru
Читайте
Оценивайте
Получайте бонусы
Узнать больше