Apple будет проверять iPhone и iPad на детскую порнографию с помощью нейросетей
По информации Financial Times, Apple собирается добавить в iOS и iPadOS функцию neuralMatch для «умного» локального сканирования фотографий на айфонах и айпадах.
Компания утверждает, что нейросеть поможет находить снимки с сексуальным насилием над детьми, блокировать их и не давать распространяться.
При этом Apple обещает не нарушать конфиденциальность своих пользователей, а neuralMatc не «разглядывает» сами фотографии, а сравнивает их цифровой отпечаток с отпечатками своей базы данных.
С введением новой функции, каждое загруженное в iCloud фото будет автоматически сканироваться и получать метку положительной или отрицательной подозрительности. Если на устройстве пользователя будет много подозрительных снимков, Apple снимет инкогнито и отправит их в полицию.
Профессор Университета Джона Хопкинса и криптограф Мэтью Грин считает, что как бы ни была полезна новая нейронная сеть Apple, она может ошибаться, а значит разоблачать невиновных людей. Помимо этого, ее могут украсть или скопировать мошенники, применять в своих целях для шантажа и других преступлений.
При этом Apple уже год сканирует фото в iCloud для выявления детской порнографии, но неизвестно, какая технология для этого применяется. Источник сообщает, что компания официально объявит о внедрении neuralMatch в самое ближайшее время и это пока будет работать только для США.
- Apple готовит к выходу MacBook Pro с чипом Silicon M1X — в РФ их уже зарегистрировали
- Apple удалила приложение для знакомств среди невакцинированных людей из AppStore
Фото: The Verge