След много отпори от страна на критици и потребители, Apple отлага мерките срещу малтретирането на деца.
През август технологичният гигант първоначално обяви нова политика, която използва технология за откриване на потенциални изображения на насилие над деца в iCloud и Messages, но опасенията я последваха. Експертите предупредиха, че въпреки че Apple обеща поверителност на потребителите, технологията в крайна сметка ще изложи всички потребители на Apple на риск.
В петък Apple каза, че ще забави изцяло пускането на технологията, за да направи подобрения и напълно да гарантира поверителността на потребителите.
„Въз основа на обратна връзка от клиенти, групи за застъпничество, изследователи и други, ние решихме да отделим допълнително време през следващите месеци, за да съберем информация и да направим подобрения, преди да пуснем тези критично важни функции за безопасност на децата“, каза Apple в актуализирано изявление на своя уебсайт.
Технологията за откриване на материали за сексуално малтретиране на деца трябваше да стане достъпна по-късно тази година при пускането на iOS 15, но сега не е ясно кога и дали функцията ще дебютира.
Новата технология ще работи по два начина: първо, чрез сканиране на изображение, преди да бъде архивирано в iCloud. Ако това изображение отговаря на критериите за CSAM, Apple ще получи тези данни. Другата част от технологията използва машинно обучение за идентифициране и замъгляване на изображения с явен сексуален характер, които децата получават чрез Съобщения.
Въпреки това, след като новата политика беше обявена, защитниците на поверителността и групите казаха, че Apple по същество отваря задна врата, която лошите актьори могат да използват злоупотреба.
За да отговори на тези опасения, Apple пусна страница с често задавани въпроси малко след обявяването на технологията CSAM. Apple обясни, че технологията няма да сканира всички снимки, съхранени на устройство, да нарушава криптирането от край до край в съобщенията и да не маркира фалшиво невинни хора пред правоприлагащите органи.