06 августа 2021Технологии
Обновлено 06.08.2021

Apple будет проверять iPhone и iPad на детскую порнографию с помощью нейросетей


По информации Financial Times, Apple собирается добавить в iOS и iPadOS функцию neuralMatch для «умного» локального сканирования фотографий на айфонах и айпадах.

Компания утверждает, что нейросеть поможет находить снимки с сексуальным насилием над детьми, блокировать их и не давать распространяться.

При этом Apple обещает не нарушать конфиденциальность своих пользователей, а neuralMatc не «разглядывает» сами фотографии, а сравнивает их цифровой отпечаток с отпечатками своей базы данных.

Apple будет проверять iPhone и iPad на детскую порнографию с помощью нейросетей - фото 1

С введением новой функции, каждое загруженное в iCloud фото будет автоматически сканироваться и получать метку положительной или отрицательной подозрительности. Если на устройстве пользователя будет много подозрительных снимков, Apple снимет инкогнито и отправит их в полицию.

Профессор Университета Джона Хопкинса и криптограф Мэтью Грин считает, что как бы ни была полезна новая нейронная сеть Apple, она может ошибаться, а значит разоблачать невиновных людей. Помимо этого, ее могут украсть или скопировать мошенники, применять в своих целях для шантажа и других преступлений.

При этом Apple уже год сканирует фото в iCloud для выявления детской порнографии, но неизвестно, какая технология для этого применяется. Источник сообщает, что компания официально объявит о внедрении neuralMatch в самое ближайшее время и это пока будет работать только для США.

Фото: The Verge

Комментарии
Чтобы оставить комментарий, Войдите или Зарегистрируйтесь