Прогнозирането на престъпления с изкуствен интелект може да обвини грешните хора

Съдържание:

Прогнозирането на престъпления с изкуствен интелект може да обвини грешните хора
Прогнозирането на престъпления с изкуствен интелект може да обвини грешните хора
Anonim

Ключови изводи

  • Съобщава се, че софтуерна компания събира информация от социалните медии, за да създаде профили, които могат да се използват за идентифициране на хора, които представляват риск за сигурността.
  • Voyager Labs сключи значителна сделка с японска правителствена агенция.
  • Но експертите предупреждават, че софтуерът за прогнозиране с изкуствен интелект може да бъде измамен.
Image
Image

Вашата онлайн информация може да се използва за прогнозиране дали може да извършите престъпление.

Съобщава се, че Voyager Labs събира информация от социалните медии, за да създаде профили, които могат да се използват за идентифициране на хора, които представляват риск за сигурността. Това е част от нарастващите усилия за използване на изкуствен интелект (AI) за разследване на потенциални престъпници. Но някои експерти казват, че движението е пълно с потенциални проблеми.

„Много е трудно да се предвиди човешкото поведение“, каза Матю Кар, изследовател по сигурността в Atumcell Group, в интервю за Lifewire по имейл. „Ние дори не сме в състояние да предвидим собственото си поведение, да не говорим за поведението на някой друг. Мисля, че е възможно изкуственият интелект да бъде използван в бъдеще за тази цел, но сме далеч от възможността да го направим в момента."

Създаване на профили

Както The Guardian наскоро съобщи, t полицейското управление в Лос Анджелис проучи използването на софтуера за прогнозиране на престъпления на Voyager Lab. Компанията също така обяви, че е сключила значителна сделка с японска правителствена агенция.

Японското споразумение предоставя на правителствената агенция платформа за разследване, базирана на изкуствен интелект, която анализира огромни количества информация от всякакъв източник, включително отворени и дълбоки данни.

"Радвам се, че си сътрудничим в борбата срещу терора и престъпността," каза Дивия Хангарот, управляващ директор за Азиатско-тихоокеанския регион във Voyager Labs, в съобщението за новините. „Използвайки авангардни решения за разузнаване на Voyager Lab, нашите клиенти получават уникални възможности за проактивно идентифициране и прекъсване на потенциални заплахи. Ние предоставяме допълнителни слоеве от задълбочени прозрения за разследване, използвайки комбинация от AI, Machine Learning и OSINT, за да разкрием скрити следи, нарушена информация, и лоши актьори."

Не сте толкова умни?

Но в интервю по имейл Мат Хейзи, съоснователят на Ferret.ai, който също използва AI за предсказване на нарушителите, постави под съмнение някои от твърденията на Voyager Labs.

"Има ли толкова ясна връзка между, да речем, досие за задържане и бъдещо престъпно поведение, колкото има черно петно върху теста и развитието на тумор?" той каза. „Помислете за всички потенциални обърквания, които влязоха в този арест – в кой квартал е живял човекът, количеството и качеството, дори пристрастията, на полицията в този район. Възрастта на лицето, неговият пол, физическият му външен вид, всички те имат пресичащи се въздействия върху вероятността това лице да има досие за задържане, напълно отделено от действителната му склонност да извърши престъплението, което се опитваме да предвидим."

Обвиняемите с по-добри адвокати е по-вероятно да успеят да потиснат записите да не станат публично достъпни, каза Хейси. Някои юрисдикции ограничават оповестяването на снимки или записи на арести, за да защитят обвиняемия.

"Компютърът ще се учи въз основа на данните, които му предоставяте, и ще включи всички отклонения, които са влезли в това събиране на данни…"

"Всичко това добавя допълнителни пристрастия към алгоритмите", добави той. „Компютърът ще се учи въз основа на данните, които му предоставяте, и ще включи всички пристрастия, които са влезли в това събиране на данни, в обучението и интерпретацията.“

Има няколко опита за създаване на AI, предсказващи престъпления, и често със скандални резултати, каза Хейси.

COMPAS, алгоритъм, използван от правоприлагащите органи за прогнозиране на повторно престъпление, често се използва при определяне на присъда и освобождаване под гаранция. Той беше изправен пред скандал, датиращ от 2016 г. за расови пристрастия, прогнозирайки, че чернокожите обвиняеми представляват по-висок риск от рецидив, отколкото в действителност, и обратното за белите обвиняеми.

Над 1000 технолози и учени, включително академици и експерти по изкуствен интелект от Харвард, Масачузетския технологичен институт, Google и Microsoft, се обявиха през 2020 г. срещу документ, в който се твърди, че изследователите са разработили алгоритъм, който може да предскаже престъпността въз основа единствено на лицето на човек, казвайки, че публикуването на такива проучвания засилва съществуващите расови пристрастия в системата на наказателното правосъдие, отбеляза Хейси.

Image
Image

Китай е най-големият и най-бързо развиващ се пазар за този тип технология, главно поради широко разпространения достъп до частни данни, с повече от 200 милиона камери за наблюдение и напреднали изследвания на AI, фокусирани върху този проблем в продължение на много години, каза Heisie. Системи като Police Cloud на CloudWalk вече се използват за предсказване и проследяване на престъпници и определяне на органите на реда.

"Въпреки това, там също се съобщава за значителни пристрастия", каза Хейси.

Heisie добави, че неговата компания внимателно подбира данните, които влизат и не използва снимки на кражби или записи на арести, „вместо това се фокусира върху по-обективни критерии.“

„Нашият AI се учи от подбраните данни, но по-важното е, че той се учи и от хора, които сами анализират, подготвят и оценяват записи и ни разказват за своите взаимодействия с другите“, добави той. „Ние също така поддържаме пълна прозрачност и безплатен и публичен достъп до нашето приложение (колкото бързо можем да ги пуснем в бета версия) и приветстваме поглед върху нашите процеси и процедури.“

Препоръчано: