Приватні фото не переглядатимуть: в Apple пояснили, як працюватимуть нові функції щодо безпеки дітей

Американський техногігант Apple дійсно розробляє функцію посилення захисту дітей від насильства. Однак ніхто не переглядатиме приватні фото користувачів на наявність дитячої порнографії.

Неділя, 15 серпня 2021, 20:24

Про це заявив старший віцепрезидент Apple з розробки програмного забезпечення Крейг Федерігі в інтерв’ю Wall Street Journal.

За його словами, плутанина виникла через анонс введення двох окремих нових функцій.

Компанія готується до запровадження двох інструментів: 

  • функції визначення контенту із сексуальним насильством над дітьми у хмарному сховищі iCloud;
  • функції, яка відповідає за сповіщення батьків про отримання та надсилання фотографій сексуального характеру з пристрою дитини.

Перший інструмент покликаний ідентифікувати вже відомі матеріали про сексуальне насильство над дітьми (CSAM). Функція працюватиме із зображеннями, які завантажуються в iCloud. Якщо власник iPhone відключає завантаження фото у хмарне сховище, захисна функція автоматично вимикається.

Функція здатна перевіряти фото на збіг “відбитків” нелегальних фото. Зокрема, національний центр США у справах безвісти зниклих та експлуатованих дітей (NCMEC) веде базу даних відомих незаконних зображень жорстокого поводження з дітьми. Apple перевірятиме світлини на наявність таких “відбитків”.

Сьогодні Facebook, Google та Microsoft вже перевіряють зображення на наявність матеріалів про сексуальне насильство над дітьми. Федерігі наголосив, що Apple хоче долучитися до цієї ініціативи, але спершу зробить відповідність зображень на iPhone або iPad користувача, перш ніж завантажити його в iCloud.

Представник Apple запевнив, що компанія не буде перевіряти в iPhone фотографії користувачів та шукати порнографію. Метою системи саме відповідність із цифровими “відбитками”. Якщо їх виявлять – акаунт користувача позначать для проведення дослідження конкретних зображень на пристрої. Перед тим, як позначити акаунт, користувач має завантажити приблизно 30 фото з “відбитком”.

Друга функція, яку вводить Apple, стосується фільтрації повідомлень. Йдеться про так зване розширення функцій “батьківського контролю”.

Це нововведення дозволить батькам перевіряти світлини, надіслані дитиною або дитині, через застосунок Apple iMessage. Якщо на фото у повідомленні буде розпізнано голе тіло, його автоматично цензурують, а користувач отримає попередження про небажаний вміст. Якщо дитина натисне “переглянути” таке фото, батьки отримають сповіщення про це.

Минулого тижня в Apple оголосили про нові можливості для захисту безпеки дітей під час користування iPhone, iPad та Mac.

  • Apple пообіцяла, що не отримуватиме доступу до листувань користувачів через запровадження нових функцій, спрямованих на підвищення безпеки дітей під час користування iPhone, iPad та Mac.
  • У компанії Apple розповіли про нову систему, яка скануватиме телефони на предмет пошуку матеріалів щодо сексуального насилля над дітьми та власного дитячого порно (CSAM). Пояснення опублікували після того, як виникла негативна реакція з боку клієнтів та захисників правил конфіденційності.
Теги: Apple, захист дітей, порнографія

Межа у Telegram

Підписатись