Расовото пристрастие на алгоритъма на Twitter сочи към по-голям технически проблем

Съдържание:

Расовото пристрастие на алгоритъма на Twitter сочи към по-голям технически проблем
Расовото пристрастие на алгоритъма на Twitter сочи към по-голям технически проблем
Anonim

Ключови изводи

  • Twitter се надява да поправи това, което потребителите наричат расови пристрастия в техния софтуер за преглед на изображения.
  • Призивът на технологичния гигант може да е културното съобразяване, от което индустрията се нуждае, за да се справи с проблемите на многообразието.
  • Липсата на разнообразие в технологиите вреди на ефикасността на техния технологичен напредък.
Image
Image

Twitter е готов да започне разследване на своя алгоритъм за изрязване на картини, след като се превърна в актуална тема, която предизвика по-голям разговор по проблемите на разнообразието в технологичната индустрия.

Мощникът на социалните медии нашумя в новините, след като потребителите откриха очевидни расови пристрастия в алгоритъма му за преглед на изображения. Откритието се случи, след като потребителят на Twitter Колин Мадланд използва платформата, за да извика неуспеха на Zoom да разпознае чернокожите си колеги, които са използвали технологията на зеления екран, но в голяма ирония той откри, че алгоритъмът за изрязване на изображения на Twitter се държи по подобен начин и деприоритизира черните лица.

Разбира се, това е огромен проблем за всяко малцинство, но мисля, че има и много по-широк проблем.

Други потребители се включиха в тенденцията, предизвиквайки поредица от вирусни туитове, показващи, че алгоритъмът последователно приоритизира бели лица и лица с по-светла кожа, вариращи от хора до анимационни герои и дори кучета. Този провал е показателен за по-голямо културно движение в технологичната индустрия, което последователно не успява да отчете малцинствените групи, което се е прехвърлило в техническата страна.

"Това кара малцинствата да се чувстват ужасно, сякаш не са важни, и може да се използва за други неща, които могат да причинят по-сериозна вреда надолу по линията", Ерик Леърд-Милър, професор по компютърни науки в университета от Масачузетс, каза в телефонно интервю.„След като решите за какво може да се използва даден софтуер и всички вреди, които могат да възникнат, тогава започваме да говорим за начините за минимизиране на шанса те да се случат.“

Канарче на хронологията

Twitter използва невронни мрежи за автоматично изрязване на изображения, вградени в туитове. Предполага се, че алгоритъмът открива лица за предварителен преглед, но изглежда има забележимо бяло отклонение. Говорителката на компанията Лиз Кели туитна отговор на всички опасения.

Кели туитира, „благодаря на всички, които повдигнаха това. Тествахме за пристрастия преди да изпратим модела и не открихме доказателства за расови или полови пристрастия при нашите тестове, но е ясно, че имаме повече анализи направете. ще отворим кода на нашата работа, така че другите да могат да преглеждат и копират."

Съавтор на бялата книга „Технологии за лицево разпознаване в дивата природа: призив за федерална служба“, Леърд-Милър е водещ изследовател на ексцесиите на базирания на лица софтуер за обучение с ИИ. Той обсъжда потенциалното отрицателно въздействие на софтуера за обучение на изображения от години и говори за важността на създаването на реалност, в която тези пристрастия са смекчени по най-добрия възможен начин.

Много алгоритми за технология за лицево разпознаване използват референтни набори за данни, често известни като набори за обучение, които са колекция от изображения, използвани за фина настройка на поведението на софтуера за обучение на изображения. В крайна сметка това позволява на AI лесно да разпознава широк набор от лица. Тези референтни комплекти обаче може да нямат разнообразен набор, което води до проблеми като тези, с които се сблъсква екипът на Twitter.

„Разбира се, това е огромен проблем за всяко малцинство, но мисля, че има и много по-широк проблем“, каза Леърд-Милър. „Това е свързано с липсата на разнообразие в технологичния сектор и необходимостта от централизирана регулаторна сила, която да показва правилното използване на този вид мощен софтуер, склонен към злоупотреба и злоупотреба.“

Технология, лишена от разнообразие

Twitter може да е най-новата технологична компания на пазара, но това далеч не е нов проблем. Технологичното поле остава преобладаващо бяло, вечно доминирано от мъже поле и изследователите са открили, че липсата на разнообразие причинява възпроизвеждане на системни, исторически дисбаланси в разработения софтуер.

В доклад от 2019 г. на Института AI Now към Нюйоркския университет, изследователи установиха, че чернокожите съставляват по-малко от 6 процента от работната сила в най-добрите технологични фирми в страната. По същия начин, жените представляват само 26 процента от работниците на полето - статистика по-ниска от техния дял през 1960 г.

Това кара малцинствата да се чувстват ужасно, сякаш не са важни, и може да се използва за други неща, които могат да причинят по-сериозна вреда надолу по линията.

На пръв поглед тези проблеми с представителството може да изглеждат светски, но на практика причинената вреда може да бъде дълбока. Изследователи в доклада на AI Now Institute предполагат, че това е причинно свързано с проблеми със софтуера, който често не отчита небелите и не-мъжките популации. Независимо дали става въпрос за инфрачервени дозатори за сапун, които не успяват да открият по-тъмна кожа или софтуерът на Amazon с изкуствен интелект, който не успява да разграничи женските лица от тези на техните мъжки двойници, неспособността да се обърне внимание на разнообразието в технологичната индустрия води до неуспех на технологията да се справи с един разнообразен свят.

„Има много хора, които не са обмислили проблемите и наистина не осъзнават как тези неща могат да причинят вреда и колко значителни са тези вреди“, предположи Леърд-Милър относно обучението по изображения с изкуствен интелект. „Да се надяваме, че този брой хора намалява!“

Препоръчано: