На першому етапі нововведення буде поширено тільки на жителів США.
Деталі
Нова система Apple має назву neuralMatch. Як повідомляється, програмний інструмент вже був представлений на зустрічі деяким вченим, а про свої плани корпорація може оголосити вже на цьому тижні. Алгоритм neuralMatch був навчений на 200 000 зображеннях сексуального насильства, зібраних Національним центром зниклих безвісти і дітей, що пережили експлаутацію. Система буде безперервно сканувати фотографії та відео користувачів iPhone і порівнювати їх з наявною базою. Завдяки новій системі, кожній фотографії буде присвоюватися “ваучер безпеки”, на якому буде позначено, чи є зображення підозрілим. Як тільки певна кількість знімків буде отримувати позначку підозрілих, Apple дозволить розшифрувати всі з них. Як відомо, при виявлені незаконних фото або відео, відомості про це будуть передаватися відповідним органам.
Таким чином, Apple намагається знайти компроміс між захистом приватного життя своїх користувачів і вимогами влади захистити дітей від зловмисників.
Проте експерти не розділяють цієї ініціативи корпорації.
“Це абсолютно жахлива ідея, тому що вона призведе до масового стеження за нашими телефонами та ноутбуками”, — заявив професор інженерної безпеки Кембріджського університету Росс Андерсон.
Додамо
У повідомленні зазначено, що наразі neuralMatch вміє розпізнавати сексуальне насильство над дітьми, проте згодом її можна адаптувати для сканування будь-яких інших зображень і тексту.