FOLLOW US ON SOCIAL

Posted On

15
Серпень
2021

Apple шкодує про плутанину, пов’язану зі скануванням iPhone

Apple заявляє, що її оголошення про автоматичні інструменти для виявлення сексуального насильства над дітьми на iPhone і iPad було «досить заплутаним».

5 серпня компанія представила нове програмне забезпечення для виявлення зображень, яке може попереджати Apple, якщо в її сховище iCloud завантажені відомі незаконні зображення.

Групи по конфіденційності розкритикували цю новину, а деякі заявили, що Apple створила бекдор безпеки в своєму програмному забезпеченні.

Компанія заявляє, що її оголошення було “неправильно зрозумілим”.

«Ми хотіли б, щоб це стало зрозуміліше для всіх», – сказав глава програмного забезпечення Apple Крейг Федеріго в інтерв’ю Wall Street Journal.

Озираючись назад, він сказав, що одночасне введення двох функцій було «рецептом для такого роду плутанини».

Apple анонсувала два нові інструменти, призначені для захисту дітей. Спочатку вони будуть розгорнуті в США.

Виявлення зображення

Перший інструмент може ідентифікувати відомі матеріали про сексуальне насильство над дітьми (CSAM), коли користувач завантажує фотографії в сховище iCloud.

Національний центр США по справах зниклих і експлуатованих дітей (NCMEC) веде базу даних відомих незаконних зображень жорстокого поводження з дітьми. Він зберігає їх у вигляді хеш – цифрових «відбитків пальців» нелегального матеріалу.

Постачальники хмарних послуг, такі як Facebook, Google і Microsoft, вже звіряють зображення з цими хешами, щоб переконатися, що люди залишають поза передачею CSAM.

Apple вирішила реалізувати аналогічний процес, але заявила, що буде виконувати зіставлення зображень на iPhone або iPad користувача, перш ніж воно буде завантажено в iCloud.

Пан Федеріго сказав, що iPhone не перевірятиме такі речі, як фотографії ваших дітей у ванній або порнографію.

За його словами, система може зіставити тільки «точні відбитки пальців» певних відомих зображень сексуального насильства над дітьми.

Якщо користувач намагається завантажити кілька зображень, які відповідають відбиткам пальців жорстокого поводження з дітьми, його обліковий запис буде позначений Apple, щоб можна було переглянути конкретні зображення.

Пан Федеріго сказав, що користувач повинен буде завантажити близько 30 співпадаючих зображень, перш ніж ця функція буде активована.

Фільтрація повідомлень

На додаток до інструменту iCloud Apple також оголосила про батьківський контроль, який користувачі можуть активувати в облікових записах своїх дітей.

Якщо ця функція активована, система буде перевіряти фотографії, надіслані дитиною або дитині, через додаток Apple iMessage.

Якщо система машинного навчання вирішить, що фотографія містить наготу, вона закриє фотографію і попередить дитину.

Батьки також можуть вибрати отримання оповіщення, якщо дитина вирішить переглянути фотографію.

Групи конфіденційності розділяють побоювання, що технологія може бути розширена і використана авторитарними урядами для стеження за своїми громадянами.

Глава WhatsApp Уїлл Кеткарт назвав крок Apple «дуже тривожним», а американський інформатор Едвард Сноуден назвав iPhone «шпигунським телефоном».

Пан Федеріго сказав, що «звуковий байт», що поширився після оголошення, полягав в тому, що Apple сканує iPhone в пошуках зображень.

«Ми дуже позитивно і рішуче ставимося до того, що ми робимо, і ми бачимо, що це широко неправильно розуміється».

Ці інструменти повинні бути додані в нові версії iOS і iPadOS пізніше в цьому році.