Apple собирается реализовать функцию сканирования локальных медиатек владельцев iPhone. Функция появится с обновлением iOS 15. Искать будут незаконный контент. В частности, речь идет про фотографии с жестоким обращением с детьми. Об этом рассказывает в Financial Times специалист по криптографии.
Система neuralMatch будет выявлять подобные фотографии и предупреждать группу экспертов в Apple. После того как несколько загруженных в iCloud снимков будут помечены как подозрительные, Apple позволит расшифровать все фотографии. Если они окажутся незаконными, их передадут в соответствующие органы.
Apple уже проверяет некоторые снимки в iCloud на предмет жесткого обращения с детьми. Но система neuralMatch пойдет дальше и получит доступ к локальным хранилищам снимков пользователей.
neuralMatch обучили на 200 000 снимков из Национального центра пропавших без вести и эксплуатируемых детей. Сперва система заработает в США.
Apple подтвердила, что в приложении Messages появится новый инструмент, который будет предупреждать детей и их родителей, когда телефон несовершеннолетнего будет получать или отправлять снимки сексуального характера.
Также Apple пояснила, что проверка снимков будет приватной на основе их хэшей, которые будут сравниваться с базой данных Apple.
Наш канал в Telegram. Присоединяйтесь!
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро