Как AI може да манипулира вашите избори

Съдържание:

Как AI може да манипулира вашите избори
Как AI може да манипулира вашите избори
Anonim

Ключови изводи

  • Алгоритмите за изкуствен интелект и машинно обучение наблюдават човешкото поведение и могат да се научат да го манипулират, казват експерти.
  • Изследователите наскоро създадоха начин за намиране и използване на уязвимости в начините, по които хората правят избор, използвайки AI.
  • Най-сложният алгоритъм за социални медии в момента е TikTok, казва един наблюдател.
Image
Image

Изкуственият интелект (AI) и алгоритмите за машинно обучение все повече се учат как да влияят на поведението на потребителите, казват експерти.

Изследователи от Националната научна агенция на Австралия наскоро създадоха начин за намиране и използване на уязвимости в начините, по които хората правят избор, използвайки AI. Последното изследване е само едно от вълната управлявани от AI системи, предназначени да манипулират вземането на човешки решения.

„Няма край на многото начини, по които изкуственият интелект вече влияе върху поведението“, Кентаро Тояма, професор в Училището по информация на Мичиганския университет и автор на Geek Heresy: Rescuing Social Change from the Cult of Technology, каза в интервю по имейл.

"Всъщност, ако някога сте търсили в Google и сте проследявали връзка, сте били повлияни от AI система, която е отгатнала вашите интереси и е върнала резултати, които е смятала за най-подходящи за вас."

AI срещу хората

В австралийско изследване, публикувано в неотдавнашен документ, човешки участници са играли игри срещу компютър в различни експерименти. Първият експеримент накара участниците да кликнат върху червени или сини полета, за да спечелят пари.

ИИ беше успешен в около 70% от времето, научавайки моделите на избор на участниците и ги насочваше към конкретен избор.

В друг експеримент участниците гледаха екран и натискаха бутон, когато им беше показан определен символ, или не го натискаха, когато им беше предложен друг. AI се научи да пренарежда символите, така че участниците направиха повече грешки.

Image
Image

Резултатът от експериментите, заключиха изследователите, е, че AI се учи от отговорите на участниците. След това машината идентифицира и насочи уязвимостите при вземането на решения от хората. На практика AI може да манипулира участниците да извършват определени действия.

Фактът, че AI или машинното обучение могат да манипулират хората, не трябва да е изненада, казват наблюдатели.

"ИИ влияе на поведението ни всеки ден", каза Тамара Шварц, асистент по киберсигурност и бизнес администрация в York College of Pennsylvania, в интервю по имейл.

"През цялото време слушаме за алгоритмите в приложенията за социални медии като Facebook или Twitter. Тези алгоритми насочват вниманието ни към свързано съдържание и създават ефекта на "ехо камерата", който от своя страна влияе върху поведението ни."

TikTok гледа

Най-сложният алгоритъм за социални медии в момента е TikTok, каза Шварц. Приложението анализира какво ви интересува, колко дълго гледате нещо и колко бързо пропускате нещо, след което прецизира предложенията си, за да продължите да гледате.

„TikTok е много по-пристрастяващ от другите платформи поради този AI алгоритъм, който разбира какво харесвате, как учите и как избирате информация“, добави тя. „Знаем това, защото средното време, което потребителите прекарват в TikTok, е 52 минути.“

Манипулирането на човешкото поведение от изкуствения интелект може да има положителни приложения, твърди Крис Никълсън, главен изпълнителен директор на компанията за изкуствен интелект Pathmind, в интервю по имейл. Агенциите за обществено здраве например биха могли да използват AI, за да насърчат хората да вземат по-добри решения.

Image
Image

"Въпреки това социалните медии, производителите на видеоигри, рекламодателите и авторитарните режими търсят начини да насърчат хората да вземат решения, които не са в техен най-добър интерес, и това ще им даде нови инструменти за това, " добави той.

Етичните проблеми с изкуствения интелект, който влияе на поведението, често са от степен, каза Тояма. AI позволява фокусирано рекламиране, в което могат да се използват индивидуалните предпочитания и слабости.

"Възможно е, например, AI система да идентифицира хора, които се опитват да откажат цигарите и да ги засипе с примамливи реклами на цигари", добави той.

Не всички са съгласни, че AI манипулирането на човешкото поведение е проблематично. Както класическата психология, така и ИИ наблюдават данни, посочи Джейсън Дж. Корсо, директор на Института за изкуствен интелект Стивънс, в интервю по имейл.

„Учените вероятно са по-добри в обобщаването на наблюденията и дестилирането на теории за човешкото поведение, които може да са по-широко приложими, докато моделите на ИИ биха били по-податливи на идентифициране на специфични за проблема нюанси“, каза Корсо.

"От етична гледна точка не виждам разлика между тези."

Препоръчано: