Как AI може да наблюдава своето опасно потомство

Съдържание:

Как AI може да наблюдава своето опасно потомство
Как AI може да наблюдава своето опасно потомство
Anonim

Ключови изводи

  • Нов документ твърди, че изкуственият интелект може да определи кои изследователски проекти може да се нуждаят от повече регулиране от други.
  • Това е част от нарастващите усилия да се открие какъв вид изкуствен интелект може да бъде опасен.
  • Един експерт казва, че истинската опасност от ИИ е, че може да направи хората тъпи.

Image
Image

Изкуственият интелект (AI) предлага много предимства, но също така и някои потенциални опасности. И сега изследователите предложиха метод за наблюдение на техните компютъризирани творения.

Международен екип казва в нов документ, че изкуственият интелект може да определи кои типове изследователски проекти може да се нуждаят от повече регулиране от други. Учените са използвали модел, който съчетава концепции от биологията и математиката и е част от нарастващите усилия да открият какъв вид ИИ може да бъде опасен.

„Разбира се, макар че „научно-фантастичното“опасно използване на AI може да възникне, ако решим така […], това, което прави AI опасен, не е самият AI, а [начинът, по който го използваме],“Thierry Rayna, председателят на Технологии за промяна в École Polytechnique във Франция, каза пред Lifewire в интервю по имейл. „Внедряването на AI може или да повиши компетентността (например, засилва уместността на уменията и знанията на човека/работника) или да унищожи компетентността, т.е. AI прави съществуващите умения и знания по-малко полезни или остарели.“

Спазване на раздели

Авторите на неотдавнашната статия написаха в публикация, че са създали модел за симулиране на хипотетични състезания с ИИ. Те проведоха симулацията стотици пъти, за да се опитат да предскажат как могат да се развият състезанията с изкуствен интелект в реалния свят.

„Променливата, която намерихме за особено важна, беше „дължината“на състезанието – времето, необходимо на нашите симулирани състезания, за да постигнат целта си (функционален AI продукт),“пишат учените. „Когато AI състезанията постигнаха целта си бързо, открихме, че състезателите, които сме кодирали винаги да пренебрегват предпазните мерки за безопасност, винаги печелят.“

За разлика от това, изследователите откриха, че дългосрочните AI проекти не са толкова опасни, защото победителите не винаги са били тези, които пренебрегват безопасността. „Като се имат предвид тези констатации, ще бъде важно за регулаторите да установят колко дълго е вероятно да продължат различните състезания с изкуствен интелект, прилагайки различни регулации въз основа на техните очаквани срокове“, пишат те. „Нашите открития показват, че едно правило за всички състезания с изкуствен интелект – от спринтове до маратони – ще доведе до някои резултати, които са далеч от идеалните.“

Дейвид Джао, управляващ директор на Coda Strategy, компания, която консултира AI, каза в имейл интервю с Lifewire, че идентифицирането на опасен AI може да бъде трудно. Предизвикателствата се крият във факта, че съвременните подходи към ИИ възприемат подход на задълбочено обучение.

„Ние знаем, че задълбоченото обучение дава по-добри резултати в многобройни случаи на употреба, като откриване на изображения или разпознаване на реч“, каза Джао. „Невъзможно е обаче хората да разберат как работи един алгоритъм за задълбочено обучение и как произвежда резултата си. Следователно е трудно да се каже дали ИИ, който дава добри резултати, е опасен, защото е невъзможно хората да разберат какво се случва."

Софтуерът може да бъде „опасен“, когато се използва в критични системи, които имат уязвимости, които могат да бъдат експлоатирани от лоши участници или да доведат до неправилни резултати, каза Мат Шей, директор по стратегията във фирмата за изкуствен интелект MixMode, по имейл. Той добави, че опасният AI може също да доведе до неправилна класификация на резултатите, загуба на данни, икономическо въздействие или физически щети.

"С традиционния софтуер разработчиците кодират алгоритми, които могат да бъдат изследвани от човек, за да разберат как да запушат уязвимост или да поправят грешка, като погледнат изходния код", каза Шей.„С изкуствения интелект обаче голяма част от логиката се създава от самите данни, кодирани в структури от данни като невронни мрежи и други подобни. Това води до системи, които са „черни кутии“, които не могат да бъдат изследвани за намиране и отстраняване на уязвимости. като нормален софтуер."

Предстоят ли опасности?

Докато изкуственият интелект е представян във филми като Терминаторът като зла сила, която възнамерява да унищожи човечеството, истинските опасности може да са по-прозаични, казват експерти. Rayna, например, предполага, че AI може да ни направи по-глупави.

„Това може да лиши хората от обучение на мозъците им и развиване на опит“, каза той. „Как можете да станете експерт по рисков капитал, ако не прекарвате по-голямата част от времето си в четене на приложения за стартиращи компании? Още по-лошо, AI е известен като „черна кутия“и малко обясним. Ако не знаете защо е взето конкретно решение на AI, това означава, че няма да можете да научите много от него, точно както не можете да станете опитен бегач, като карате около стадиона със Segway.”

Трудно е да се каже дали AI, който дава добри резултати, е опасен, защото е невъзможно хората да разберат какво се случва.

Може би най-непосредствената заплаха от ИИ е възможността той да предостави пристрастни резултати, каза Лайл Соломон, адвокат, който пише за правните последици от ИИ, в интервю по имейл.

"ИИ може да помогне за задълбочаване на обществените разделения. ИИ е основно изграден от данни, събрани от човешки същества", добави Соломон. „[Но] въпреки огромните данни, те съдържат минимални подмножества и няма да включват това, което всеки мисли. По този начин данните, събрани от коментари, публични съобщения, рецензии и т.н., с присъщи пристрастия, ще накарат AI да засили дискриминацията и омразата.“

Препоръчано: