Ключови изводи
- Съобщава се, че Zoom каза, че ще използва AI, за да оцени настроенията или нивото на ангажираност на потребителя.
- Групите за защита на човешките права молят Zoom да преосмисли плана си поради опасения за поверителността и сигурността на данните.
- Някои компании също използват софтуер за откриване на емоции по време на интервюта, за да преценят дали потребителят обръща внимание.
Нарастващото използване на изкуствен интелект (AI) за наблюдение на човешките емоции поражда опасения за поверителността.
Организациите за защита на човешките права молят Zoom да забави плана си за въвеждане на AI, анализиращ емоциите, в своя софтуер за видеоконференции. Съобщава се, че компанията е казала, че ще използва AI, за да оцени настроенията или нивото на ангажираност на потребителя.
"Експертите признават, че анализът на емоциите не работи", пише консорциумът от правозащитни групи, включително ACLU, в писмо до Zoom. „Изражението на лицето често не е свързано с емоциите отдолу и изследванията са установили, че дори хората не могат точно да разчетат или измерят емоциите на другите през някои времена. Разработването на този инструмент добавя доверие към псевдонауката и поставя вашата репутация на карта.“
Zoom не отговори веднага на искане от Lifewire за коментар.
Следете емоциите си
Според статията за протокола, системата за наблюдение на Zoom, наречена Q for Sales, ще проверява съотношението на времето за разговор на потребителите, забавянето на времето за реакция и честите смени на говорещите, за да проследи колко е ангажиран човекът. Zoom ще използва тези данни, за да присвои резултати между нула и 100, като по-високите резултати показват по-голяма ангажираност или настроение.
Правозащитните групи твърдят, че софтуерът може да дискриминира хората с увреждания или определени етноси, като приема, че всички използват едни и същи изражения на лицето, гласови модели и език на тялото, за да комуникират. Групите също предполагат, че софтуерът може да представлява риск за сигурността на данните.
„Събирането на дълбоко лични данни може да направи всяко образувание, което внедрява тази технология, мишена за подслушване на държавни органи и злонамерени хакери,“според писмото.
Джулия Стоянович, професор по компютърни науки и инженерство в Нюйоркския университет, каза пред Lifewire в интервю по имейл, че е скептична относно твърденията зад откриването на емоции.
"Не виждам как такава технология може да работи - емоционалното изразяване на хората е много индивидуално, много зависимо от културата и много специфично за контекста", каза Стоянович.„Но може би още по-важното е, че не виждам защо бихме искали тези инструменти да работят. С други думи, щяхме да сме в още по-големи проблеми, ако работеха добре. Но може би дори преди да помислим за рисковете, трябва попитайте - какви са потенциалните ползи от такава технология?"
Zoom не е единствената компания, която използва софтуер за откриване на емоции. Тео Уилс, старши директор по поверителността в Kuma LLC, консултантска компания за поверителност и сигурност, каза пред Lifewire по имейл, че по време на интервютата се използва софтуер за откриване на емоции, за да се прецени дали потребителят обръща внимание. Също така се пилотира в транспортната индустрия, за да се следи дали шофьорите изглеждат сънливи, във видео платформи, за да се прецени интересът и да се персонализират препоръки, и в образователни ръководства, за да се определи дали даден метод на преподаване е ангажиращ.
Уилс твърди, че спорът около софтуера за наблюдение на емоциите е по-скоро въпрос на етика на данните, отколкото на поверителност. Тя каза, че става въпрос за системата, която взема решения в реалния свят въз основа на предчувствия.
"С тази технология вече предполагате причината, поради която имам определено изражение на лицето си, но импулсът зад изражението варира значително поради неща като социално или културно възпитание, семейно поведение, минали преживявания или нервност в момента", добави Уилс. „Базирането на алгоритъма на предположение е по своята същност погрешно и потенциално дискриминационно. Много популации не са представени в популацията, на която се основават алгоритмите, и трябва да се даде приоритет на подходящото представяне, преди това да се използва.“
Практически съображения
Проблемите, породени от софтуера за проследяване на емоции, могат да бъдат както практически, така и теоретични. Мат Хейзи, съоснователят на Ferret.ai, управлявано от изкуствен интелект приложение, което предоставя информация за взаимоотношенията, каза на Lifewire в имейл, че потребителите трябва да попитат къде се извършва анализът на лицата и какви данни се съхраняват. Дали проучването се прави върху записи на разговори, обработвани в облака или на локално устройство?
Също така, Heisie попита, докато алгоритъмът се учи, какви данни събира за лицето или движенията на човек, които потенциално биха могли да бъдат отделени от алгоритъма и използвани за пресъздаване на нечии биометрични данни? Компанията съхранява ли моментни снимки, за да провери или потвърди наученото от алгоритъма и дали потребителят е уведомен за тези нови производни данни или съхранени изображения, които потенциално се събират от техните обаждания?
„Това са всички проблеми, които много компании са решили, но има и компании, които са били разтърсени от скандал, когато се окаже, че не са направили това правилно“, каза Хейси. „Facebook е най-значимият случай на компания, която отмени своята платформа за лицево разпознаване поради опасения относно поверителността на потребителите. Компанията майка Meta сега изтегля AR функции от Instagram в някои юрисдикции като Илинойс и Тексас заради законите за поверителност около биометричните данни.“