Ключови изводи
- Новата политика на Apple срещу материали със сексуално малтретиране на деца предизвика противоречия сред потребителите и експертите по поверителността.
- Технологията работи, като сканира изображения в iCloud за CSAM и използва машинно обучение за идентифициране на нецензурни снимки в Messages.
- Експертите казват, че колкото и частна да е Apple технологията за сканиране, тя в крайна сметка позволява да бъде отворена задна врата, където може да се случи всичко.
Apple наскоро представи нова технология за откриване на материали със сексуално насилие над деца (CSAM), но получава повече критики, отколкото похвали от общността за поверителност.
Въпреки че Apple преди беше приветствана като една от малкото големи технологични компании, които наистина се грижат за поверителността на потребителите, новата технология за CSAM-сканиране, представена миналата седмица, внася голямо значение в това. Експертите казват, че въпреки че Apple обещава поверителност на потребителите, технологията в крайна сметка ще изложи на риск всички потребители на Apple.
„Apple прави крачка надолу по много хлъзгав наклон; те създадоха инструмент, който е изложен на риск за задните врати на правителството и злоупотребата му от лоши актьори“, каза Фара Сатар, основател и изследовател по сигурността в DCRYPTD до Lifewire в интервю по имейл.
Планът на Apple не е частен
Новата технология работи по два начина: първо, чрез сканиране на изображение, преди да бъде архивирано в iCloud - ако изображение отговаря на критериите на CSAM, Apple получава данните от криптографския ваучер. Другата част използва машинно обучение на устройството за идентифициране и замъгляване на сексуално явни изображения, които децата получават чрез съобщения.
Apple прави крачка надолу по много хлъзгав наклон; те са разработили инструмент, който е изложен на риск за задни врати на правителството и злоупотреба от лоши актьори.
Експертите се притесняват от функцията Messages, тъй като тя ефективно ще сложи край на криптирането от край до край (E2EE), което Apple подкрепя.
"Въвеждането на сканиране от страна на клиента от Apple е нахлуване в поверителността, тъй като това на практика нарушава E2EE", каза Сатар.
"Целта на E2EE е да направи съобщение нечетливо за всяка страна, с изключение на подателя и получателя, но сканирането от страна на клиента ще позволи на трети страни да имат достъп до съдържание в случай на съвпадение. Това създава прецедента, че вашето данните са E2EE…докато не станат."
Въпреки че Apple каза в наскоро публикувана страница с често задавани въпроси, адресираща притесненията на хората относно новата си политика, че няма да промени гаранциите за поверителност на Messages и няма да получи достъп до комуникации, организациите все още са предпазливи по отношение на обещанията на Apple.
"Тъй като откриването на "сексуално явен образ" ще използва машинно обучение на устройството за сканиране на съдържанието на съобщенията, Apple вече няма да може честно да нарича iMessage "криптиран от край до край, " Electronic Frontier Foundation (EFF) написа в отговор на политиката на Apple.
"Apple и нейните поддръжници може да твърдят, че сканирането преди или след като съобщението е криптирано или декриптирано запазва обещанието "от край до край" непокътнато, но това би било семантично маневриране за прикриване на тектонична промяна в компанията позиция към силно криптиране."
Потенциал за злоупотреба
Основното безпокойство на много експерти е съществуването на задна вратичка, която, независимо какво може да твърди Apple, все още е отворена за потенциална злоупотреба.
"Въпреки че тази политика е предназначена да бъде приложима само за потребители под 13 години, този инструмент също е готов за злоупотреба, тъй като няма гаранция, че потребителят действително е под 13 години. Подобна инициатива представлява риск за ЛГБТК+ младежите и хората в насилствени връзки, тъй като може да съществува като форма на софтуер за преследване, " каза Сатар.
EFF каза, че и най-малкият външен натиск (особено от страна на правителството) би отворил вратата за злоупотреба и посочи случаи, в които това вече се случва. Например, EFF каза, че технологиите, създадени първоначално за сканиране и хеширане на CSAM, са преназначени, за да създадат база данни с „терористично“съдържание, към което компаниите могат да допринесат и имат достъп, за да забранят такова съдържание.
"Всичко, което е необходимо за разширяване на тясната задна врата, която Apple изгражда, е разширяване на параметрите за машинно обучение, за да се търсят допълнителни типове съдържание, или настройка на флаговете за конфигурация за сканиране, не само на деца, но нечии акаунти, " каза EFF.
Едуард Сноудън дори осъди новата технология на Apple като "проблем на националната сигурност" и "катастрофална", а неговата организация, Freedom of the Press Foundation, е една от многото, които са подписали ново писмо, призоваващо Apple да прекрати това политика, преди дори да започне.
Писмото е подписано от повече от 7 400 организации и експерти по сигурността и поверителността, призовавайки Apple незабавно да спре тази технология и да издаде изявление, потвърждаващо ангажимента на компанията към криптиране от край до край и поверителност на потребителите.
„Текущият път на Apple заплашва да подкопае десетилетия работа на технолози, академици и защитници на политиката към силни мерки за запазване на поверителността, които са норма в повечето потребителски електронни устройства и случаи на употреба“, се казва в писмото.
Времето ще покаже как Apple планира да внедри тази технология въпреки огромните противоречия около нея, но твърденията на компанията за приоритизиране на поверителността със сигурност никога няма да бъдат същите.