Недавні записи
- У Києві відкрили Вищу школу лобізму − перший центр підготовки лобістів міжнародного рівня 10.11.2025
- 3-4 листопада бізнес-фестиваль “Мрія готеляра” 10.11.2025
- 24 жовтня 2025 року у Києві відбувся 7-й щорічний з’їзд професіоналів будівельної галузі — SUMMIT 7 2025. 03.11.2025
- Оголошено архітектурний конкурс на проєкт стели пам’яті загиблих військовослужбовців 31.10.2025
- 27 жовтня о 13:30 відбудеться круглий стіл на тему:«Імплементація EPBD в Україні. BIM-технології та nZEB. Бар’єри та здобутки». 27.10.2025
Apple буде сканувати iPhone на предмет зображень насильства над дітьми
Apple оголосила подробиці про систему пошуку матеріалів про сексуальне насильство над дітьми (CSAM) на пристроях клієнтів з США.
Перш ніж зображення буде збережено в iCloud Photos, технологія виконає пошук збігів з уже відомим CSAM.
Apple заявила, що якщо збіг буде знайдено, рецензент оцінить користувача і повідомить про нього в правоохоронні органи.
Однак є побоювання з приводу конфіденційності, що технологія може бути розширена для сканування телефонів на предмет забороненого контенту або навіть політичних висловлювань.
Експерти побоюються, що цю технологію можуть використовувати авторитарні уряди для стеження за своїми громадянами.
Apple заявила, що в нових версіях iOS і iPadOS, які повинні бути випущені в кінці цього року, будуть «нові додатки криптографії, які допоможуть обмежити поширення CSAM в Інтернеті, при цьому забезпечуючи конфіденційність користувачів».
Система працює шляхом порівняння зображень з базою даних відомих зображень сексуального насильства над дітьми, складеною Національним центром США по зниклим і експлуатованим дітям (NCMEC) і іншими безпековими організаціями дітей.
Ці зображення переводяться в «хеші», числові коди, які можна «зіставити» з зображенням на пристрої Apple.
Apple заявляє, що технологія також буде вловлювати відредаговані, але схожі версії вихідних зображень.
«Перш ніж зображення буде збережено в iCloud Photos, на пристрої виконується процес зіставлення цього зображення з відомими хешамі CSAM», – повідомила Apple.
Компанія заявила, що система має «надзвичайно високий рівень точності і гарантує менше одного випадку на один трильйон на рік неправильної позначки цього облікового запису».
Apple заявляє, що буде вручну перевіряти кожен звіт, щоб підтвердити збіг. Потім він може зробити кроки, щоб відключити обліковий запис користувача і повідомити в правоохоронні органи.
Компанія заявляє, що нова технологія пропонує «значні» переваги конфіденційності в порівнянні з існуючими методами – оскільки Apple дізнається про фотографії користувачів тільки в тому випадку, якщо у них є колекція відомих CSAM в своєму обліковому записі iCloud Photos.
Однак деякі експерти по конфіденційності висловили стурбованість.
«Незалежно від довгострокових планів Apple, вони послали дуже чіткий сигнал. За їх (дуже впливовою) думкою, необхідно безпечно створювати системи, які сканують телефони користувачів на предмет забороненого контенту», – сказав Метью Грін, дослідник безпеки.
«Праві вони чи ні в цьому питанні – не має значення. Це зламає дамбу – уряд зажадає цього від усіх».