Как алгоритмичното отклонение може да навреди на тийнейджърите

Съдържание:

Как алгоритмичното отклонение може да навреди на тийнейджърите
Как алгоритмичното отклонение може да навреди на тийнейджърите
Anonim

Ключови изводи

  • Алгоритмичното отклонение е вредно за тийнейджърите, които прекарват много време в интернет, казват експерти.
  • Потребителите на Twitter наскоро се натъкнаха на проблем, при който черните лица бяха избрани в полза на белите.
  • Развиващият се мозък на тийнейджърите може да е особено податлив на вредните ефекти на алгоритмичните пристрастия, казват изследователите.
Image
Image

Предразсъдъците, вградени в някои технологии, известни като алгоритмични пристрастия, могат да бъдат вредни за много групи, но експертите казват, че са особено вредни за тийнейджърите.

Алгоритмичното отклонение, когато компютърните системи показват предубедени резултати, е нарастващ проблем. Потребителите на Twitter наскоро откриха пример за пристрастие в платформата, когато алгоритъм за откриване на изображения, който изрязва снимки, изрязваше черни лица в полза на бели. Компанията се извини за проблема, но все още не е пуснала корекция. Това е пример за пристрастията, с които се сблъскват тийнейджърите, когато влизат онлайн, което правят повече от всяка друга възрастова група, казват експерти.

„Повечето тийнейджъри не знаят, че компаниите за социални медии ги разполагат, за да популяризират конкретно съдържание, което смятат, че потребителите ще харесат [с цел] да ги накарат да останат възможно най-дълго в платформата,“д-р Май- Ли Нгуен Стиърс, асистент в Училището по медицински сестри към университета Дюкен, който изучава използването на социални медии сред юноши/студенти, каза в интервю по имейл.

"Дори ако има известно ниво на съзнание за алгоритъма, ефектът от липсата на достатъчно харесвания и коментари е все още мощен и може да повлияе на самочувствието на тийнейджърите", добави Стиърс.

Развитие на мозъка

Алгоритмичното отклонение може да засегне тийнейджърите по непредвидени начини, тъй като техният префронтален кортекс все още се развива, обясни в интервю по имейл Микаела Пизани, главен специалист по данни в Rootstrap.

Ефектът от липсата на достатъчно харесвания и коментари все още е силен и може да повлияе на самочувствието на тийнейджърите.

„Тийнейджърите са особено уязвими към феномена на „Социалната фабрика“, където алгоритмите създават социални клъстери в онлайн платформи, което води до безпокойство и депресия, ако нуждите на тийнейджъра от социално одобрение не са удовлетворени“, каза Пизани. „Алгоритмите се опростяват въз основа на предишни несъвършени данни, което води до свръхпредставяне на стереотипи за сметка на по-нюансирани подходи към формирането на идентичност.

"Вземайки по-широка гледна точка, ние също сме оставени да се запитаме, като общество, дали искаме алгоритми, оформящи пътуването на нашите тийнейджъри в зряла възраст, и дали тази система дори подкрепя, а не задушава индивидуалното личностно израстване?"

Поради тези проблеми има нарастваща нужда да се имат предвид тийнейджърите, когато се проектират алгоритми, казват експерти.

„Въз основа на приноса на специалисти по развитие, учени по данни и защитници на младежта, политиките на 21-ви век относно поверителността на данните и алгоритмичния дизайн също могат да бъдат изградени с оглед на конкретните нужди на подрастващите“, Авриел Епс-Дарлинг, докторант студент в Харвард, написа наскоро. „Ако вместо това продължим да омаловажаваме или игнорираме начините, по които тийнейджърите са уязвими към алгоритмичен расизъм, вредите вероятно ще отекнат през следващите поколения.“

Борба с пристрастията

Докато няма решение, някои изследователи се опитват да намерят начини да намалят щетите, нанесени на младите хора от предубедени алгоритми.

„Интервенциите са фокусирани върху това да накарат тийнейджърите да признаят, че моделите им в социалните медии оказват негативно влияние върху психичното им здраве и да се опитат да измислят стратегии за смекчаване на това (напр. намалено използване на социални медии),“каза Стиърс.йени

„Някои от студентите, които интервюирахме, посочиха, че се чувстват принудени да генерират съдържание, за да останат „уместни“, дори ако не искат да излизат или да публикуват“, продължи тя. „Те обаче смятат, че трябва да генерират съдържание, за да поддържат връзките си със своите последователи или приятели.“

Окончателният отговор може да бъде премахването на човешките пристрастия от компютрите. Но тъй като програмистите са само хора, това е трудно предизвикателство, казват експерти.

Едно възможно решение е да се разработят компютри, които са децентрализирани и програмирани да забравят неща, които са научили, казва Джон Суит, главен технологичен директор във фирмата за роботика KODA.

„Чрез децентрализирана мрежа данните и анализите на тези данни се събират и анализират от множество точки“, каза Суит в интервю по имейл. „Данните се събират и обработват не от един AI ум, обработващ в границите на неговия алгоритъм, а стотици или дори хиляди.

"Докато тези данни се събират и анализират, старите „заключения" или излишните данни се забравят. Чрез тази система алгоритъм, който може да е започнал с отклонение, в крайна сметка ще коригира и замени това отклонение, ако се окаже грешно."

Въпреки че предубеждението може да е отдавнашен проблем, може да има начини за борба с него, поне онлайн. Първата стъпка е проектирането на компютри, които премахват нашите предразсъдъци.

Препоръчано: