Apple перевірить фото на iPhone у американських користувачів: компанія планує знайти зображення насильства над дітьми

Apple перевірить фото на iPhone у американських користувачів: компанія планує знайти зображення насильства над дітьми

Київ  •  УНН

 • 20306 перегляди

​​КИЇВ. 6 серпня. УНН. Американська компанія Apple планує встановлювати на iPhone програмне забезпечення по виявленню зображень жорстокого поводження з дітьми та порнографії. Про це УНН повідомляє з посиланням на Financial Times.

На першому етапі нововведення буде поширено тільки на жителів США.

Деталі

Нова система Apple має назву neuralMatch. Як повідомляється, програмний інструмент вже був представлений на зустрічі деяким вченим, а про свої плани корпорація може оголосити вже на цьому тижні. Алгоритм neuralMatch був навчений на 200 000 зображеннях сексуального насильства, зібраних Національним центром зниклих безвісти і дітей, що пережили експлаутацію. Система буде безперервно сканувати фотографії та відео користувачів iPhone і порівнювати їх з наявною базою. Завдяки новій системі, кожній фотографії буде присвоюватися “ваучер безпеки”, на якому буде позначено, чи є зображення підозрілим. Як тільки певна кількість знімків буде отримувати позначку підозрілих, Apple дозволить розшифрувати всі з них. Як відомо, при виявлені незаконних фото або відео, відомості про це будуть передаватися відповідним органам.

Таким чином, Apple намагається знайти компроміс між захистом приватного життя своїх користувачів і вимогами влади захистити дітей від зловмисників.

Проте експерти не розділяють цієї ініціативи корпорації.

“Це абсолютно жахлива ідея, тому що вона призведе до масового стеження за нашими телефонами та ноутбуками”, — заявив професор інженерної безпеки Кембріджського університету Росс Андерсон.

Додамо

У повідомленні зазначено, що наразі neuralMatch вміє розпізнавати сексуальне насильство над дітьми, проте згодом її можна адаптувати для сканування будь-яких інших зображень і тексту.