Ключови изводи
- Софтуерът, който използва изкуствен интелект за профилиране на хора, поражда опасения относно поверителността.
- Cryfe съчетава техники за поведенчески анализ с изкуствен интелект.
- Китайската компания Alibaba наскоро беше критикувана, след като съобщи, че нейният софтуер може да открива уйгури и други етнически малцинства.
Нов софтуер, задвижван от изкуствен интелект, който е предназначен за работодателите да профилират своите служители, поражда опасения за поверителността.
Една нова софтуерна платформа, наречена Cryfe, съчетава техники за анализ на поведението с изкуствен интелект. Разработчикът твърди, че като анализира малки улики, софтуерът може да разкрие намеренията на хората по време на интервюта. Но някои наблюдатели казват, че Cryfe и други видове софтуер, който анализира поведението, могат да нарушат поверителността.
"Компаниите все повече разчитат на AI за профилиране", каза експертът по AI Vaclav Vincale в интервю по имейл. „Но дори хората, които кодират тези алгоритми, още по-малко човекът за поддръжка на клиенти, с когото се обаждате по телефона, не могат да ви кажат защо правят дадена препоръка.“
Повече от думи
Cryfe е разработен от швейцарска компания, чиито служители са били обучени от ФБР в техники за профилиране. „В цялата си междуличностна комуникация Cryfe не се вслушва само в думите, но идентифицира други сигнали, излъчвани от човека, като емоции, микроизражения и всички жестове“, каза Каролин Матеучи, основателят на Cryfe, в интервю по имейл.
"По време на набирането например това ни позволява да отидем и да потърсим истинската личност на нашия събеседник."
Matteucci каза, че поверителността на потребителите е защитена, защото компанията е прозрачна за това как работи нейният софтуер. „Потребителят, преди да може да използва платформата, трябва да приеме общите условия“, каза тя.
"Там е посочено, че потребителят в никакъв случай не може да предоставя интервю за анализ, без да е получил писменото съгласие на събеседника."
Cryfe не е единственият базиран на AI софтуер, който има за цел да анализира човешкото поведение. Има и Humantic, който твърди, че анализира поведението на потребителите. „Пътеводителската технология на Humantic предвижда поведението на всеки, без той изобщо да се налага да прави личен тест“, според уебсайта на компанията.
Компанията твърди, че използва AI за създаване на психологически профили на кандидатите въз основа на думите, които използват в автобиографии, мотивационни писма, профили в LinkedIn и всеки друг текст, който изпращат.
Поведенческият софтуер се е сблъсквал с правни предизвикателства в миналото. През 2019 г. Bloomberg Law съобщи, че Комисията за равни възможности за заетост (EEOC) е разгледала случаи на предполагаема незаконна дискриминация, дължаща се на подпомогнати от алгоритъм решения, свързани с човешките ресурси.
„Всичко това ще трябва да се обработи, защото бъдещето на набирането на персонал е AI“, каза адвокатът Брадфорд Нюман пред Bloomberg.
Някои наблюдатели се противопоставят на компаниите, които използват софтуер за проследяване на поведението, защото не е достатъчно точен. В интервю Найджъл Дъфи, глобален лидер в областта на изкуствения интелект във фирмата за професионални услуги EY, каза пред InformationWeek, че е обезпокоен от софтуер, който използва викторини в социалните медии и влияе върху откриването.
"Мисля, че има наистина завладяваща литература за потенциала за откриване на афекти, но разбирам, че начинът, по който се прилага, често е доста наивен", каза той.
"Хората си правят изводи, че науката всъщност не подкрепя [като например] да решат, че някой е потенциално добър служител, защото се усмихва много, или да решат, че някой харесва вашите продукти, защото се усмихва много."
Китайски компании според съобщенията профилират малцинства
Проследяването на поведението може да има и по-зловещи цели, казват някои правозащитни групи. В Китай гигантът на онлайн пазара Alibaba наскоро вдигна вълнение, след като се твърди, че неговият софтуер може да открива уйгури и други етнически малцинства.
Ню Йорк Таймс съобщи, че облачните изчисления на компанията имат софтуер, който сканира изображения и видеоклипове.
Но дори хората, които кодират тези алгоритми… не могат да ви кажат защо дават някаква препоръка.
The Washington Post също наскоро съобщи, че Huawei, друга китайска технологична компания, е тествала софтуер, който може да предупреди органите на реда, когато нейните камери за наблюдение открият лица на уйгури.
Заявка за патент от 2018 г. от Huawei твърди, че „идентифицирането на атрибутите на пешеходците е много важно“в технологията за лицево разпознаване.„Атрибутите на целевия обект могат да бъдат пол (мъж, жена), възраст (като тийнейджъри, на средна възраст, възрастни) [или] раса (хан, уйгур)“, се казва в приложението.
Говорител на Huawei каза пред CNN Business, че функцията за идентифициране на етническа принадлежност "никога не е трябвало да става част от приложението."
Разрастващото се използване на изкуствен интелект за сортиране на огромни количества данни неминуемо ще предизвика опасения за поверителността. Може никога да не разберете кой или какво ви анализира следващия път, когато отидете на интервю за работа.