Защо имаме нужда от ИИ, който се обяснява

Съдържание:

Защо имаме нужда от ИИ, който се обяснява
Защо имаме нужда от ИИ, който се обяснява
Anonim

Ключови изводи

  • Компаниите все повече използват AI, който обяснява как постига резултати.
  • LinkedIn наскоро увеличи приходите си от абонаменти, след като използва AI, който прогнозира клиенти, изложени на риск от анулиране, и описва как е стигнал до заключенията си.
  • Федералната търговска комисия каза, че ИИ, който не е обясним, може да бъде разследван.
Image
Image

Една от най-горещите нови тенденции в софтуера може да бъде изкуственият интелект (AI), който обяснява как постига своите резултати.

Обяснимият AI се отплаща, тъй като софтуерните компании се опитват да направят AI по-разбираем. LinkedIn наскоро увеличи приходите си от абонаменти, след като използва AI, който прогнозира клиенти, изложени на риск от анулиране, и описва как е стигнал до заключенията си.

„Обяснимият AI означава да можеш да се довериш на изхода, както и да разбереш как машината е стигнала до там,“Травис Никсън, главен изпълнителен директор на SynerAI и главен отдел Data Science, Financial Services в Microsoft, каза пред Lifewire в имейл интервю.

""Как?" е въпрос, поставен пред много AI системи, особено когато се вземат решения или се произвеждат резултати, които не са идеални“, добави Никсън. „От несправедливото третиране на различни раси до погрешното приемане на плешива глава за футболна топка, ние трябва да знаем защо AI системите дават своите резултати. След като разберем „как“, това кара компаниите и хората да отговорят „какво следва?“

Запознаване с AI

AI се оказа точен и прави много видове прогнози. Но AI често е в състояние да обясни как е стигнал до заключенията си.

И регулаторите обръщат внимание на проблема с обяснимостта на ИИ. Федералната търговска комисия каза, че ИИ, който не може да бъде обяснен, може да бъде разследван. ЕС обмисля приемането на Закона за изкуствения интелект, който включва изисквания потребителите да могат да интерпретират AI прогнози.

Linkedin е сред компаниите, които смятат, че обяснимият AI може да помогне за увеличаване на печалбите. Преди търговците на LinkedIn разчитаха на знанията си и прекарваха огромни количества време в пресяване на офлайн данни, за да идентифицират кои акаунти е вероятно да продължат да правят бизнес и от какви продукти може да се интересуват по време на следващото подновяване на договора. За да разреши проблема, LinkedIn стартира програма, наречена CrystalCandle, която забелязва тенденциите и помага на търговците.

В друг пример, Никсън каза, че по време на създаването на модел за определяне на квотите за търговския персонал на компанията, неговата компания е успяла да включи обясним AI, за да идентифицира какви характеристики сочат към успешно наемане на нови продажби.

"С този резултат ръководството на тази компания успя да разпознае кои продавачи да насочи към "бързата писта" и кои се нуждаят от обучение, всичко това преди да възникнат големи проблеми", добави той.

Много приложения за обясним AI

Обяснимият изкуствен интелект в момента се използва като интуитивна проверка за повечето специалисти по данни, каза Никсън. Изследователите пускат модела си чрез прости методи, уверяват се, че няма нищо напълно объркано, след което изпращат модела.

„Това е отчасти защото много организации за наука за данни са оптимизирали системите си около „време над стойността“като KPI, което води до прибързани процеси и непълни модели,“добави Никсън.

Притеснявам се, че обратният удар от безотговорни модели може сериозно да върне AI индустрията назад.

Хората често не са убедени от резултатите, които AI не може да обясни. Радж Гупта, главен инженерен директор в Cogito, каза в имейл, че неговата компания е анкетирала клиенти и е установила, че почти половината от потребителите (43%) биха имали по-положително възприятие за компания и AI, ако компаниите бяха по-категорични относно използването им на технологията.

И не само финансовите данни получават помощ от обясним AI. Една област, която се възползва от новия подход, са данните за изображения, където е лесно да се посочи кои части от изображението алгоритъмът смята за съществени и където е лесно за човека да разбере дали тази информация има смисъл, Саманта Клайнбърг, доцент в Stevens Технологичен институт и експерт по обясним AI, каза Lifewire по имейл.

"Много по-трудно е да се направи това с ЕКГ или данни от непрекъснат глюкозен монитор", добави Клайнбърг.

Никсън прогнозира, че обяснимият AI ще бъде в основата на всяка AI система в бъдеще. И без обясним AI, резултатите могат да бъдат ужасни, каза той.

"Надявам се да напреднем на този фронт достатъчно, за да приемем обяснимия AI за даденост след години и че днес ще погледнем назад към това време изненадани, че някой би бил достатъчно луд, за да внедри модели, които не разбира, " той добави.„Ако не посрещнем бъдещето по този начин, притеснявам се, че обратният удар от безотговорни модели може сериозно да върне AI индустрията назад.“

Препоръчано: