Не се доверявайте на нищо, което виждате в мрежата, казват експерти

Съдържание:

Не се доверявайте на нищо, което виждате в мрежата, казват експерти
Не се доверявайте на нищо, което виждате в мрежата, казват експерти
Anonim

Ключови изводи

  • Ново изследване разкрива, че хората не могат да отделят генерираните от AI изображения от реалните.
  • Участниците оцениха генерираните от AI изображения като по-надеждни.
  • Експертите смятат, че хората трябва да спрат да се доверяват на всичко, което виждат в интернет.
Image
Image

Поговорката „да видиш, значи да повярваш“вече не е актуална, когато става въпрос за интернет, и експертите казват, че няма да се подобри скоро.

Неотдавнашно проучване установи, че изображенията на лица, генерирани от изкуствен интелект (AI), са не само силно фотореалистични, но също така изглеждат по-добродетелни от истинските лица.

"Нашата оценка на фотореализма на синтезирани от AI лица показва, че двигателите за синтез са преминали през тайнствената долина и са способни да създават лица, които са неразличими и по-надеждни от реалните лица", отбелязват изследователите.

Това лице не съществува

Изследователите, д-р Софи Найтингейл от университета Ланкастър и професор Хани Фарид от университета на Калифорния, Бъркли, проведоха експериментите, след като признаха добре разгласените заплахи от дълбоки фалшификати, вариращи от всички видове онлайн измами до ободряващи кампании за дезинформация.

"Може би най-пагубното е следствието, че в дигитален свят, в който всяко изображение или видео може да бъде фалшифицирано, автентичността на всеки неудобен или нежелан запис може да бъде поставена под съмнение", твърдят изследователите.йени

Те твърдяха, че макар да има напредък в разработването на автоматични техники за откриване на дълбоко фалшиво съдържание, настоящите техники не са достатъчно ефективни и точни, за да се справят с постоянния поток от ново съдържание, което се качва онлайн. Това означава, че потребителите на онлайн съдържание трябва да различат истинското от фалшивото, предполага дуото.

Jelle Wieringa, защитник на осведомеността за сигурността в KnowBe4, се съгласи. Той каза на Lifewire по имейл, че борбата с действителните дълбоки фалшификати е изключително трудна без специализирана технология. „[Технологиите за смекчаване] могат да бъдат скъпи и трудни за внедряване в процеси в реално време, често откривайки deepfake само след факта.“

С това предположение изследователите проведоха серия от експерименти, за да определят дали човешките участници могат да разграничат най-съвременните синтезирани лица от истински лица. В своите тестове те установиха, че въпреки обучението за разпознаване на фалшификати, степента на точност се е подобрила само до 59%, спрямо 48% без обучение.

Това накара изследователите да тестват дали възприятията за надеждност могат да помогнат на хората да идентифицират изкуствени изображения. В трето проучване те помолиха участниците да оценят надеждността на лицата, само за да открият, че средната оценка за синтетичните лица е 7.7% по-надеждни от средната оценка за истински лица. Числото може да не звучи много, но изследователите твърдят, че е статистически значимо.

Deeper Fakes

Дълбоките фалшификати вече бяха сериозна загриженост и сега водите са замъглени още повече от това проучване, което предполага, че такива висококачествени фалшиви изображения могат да добавят изцяло ново измерение към онлайн измамите, например като помогнат за създаването на повече убедителни онлайн фалшиви профили.

„Единственото нещо, което движи киберсигурността, е доверието, което хората имат в технологиите, процесите и хората, които се опитват да ги запазят в безопасност“, сподели Wieringa. „Дълбоките фалшификати, особено когато станат фотореалистични, подкопават това доверие и следователно възприемането и приемането на киберсигурността. Това може да доведе до недоверие на хората към всичко, което възприемат.“

Image
Image

Крис Хоук, защитник на поверителността на потребителите в Pixel Privacy, се съгласи. В кратка размяна на имейл той каза на Lifewire, че фотореалистичното дълбоко фалшифициране може да причини „хаос“онлайн, особено в наши дни, когато всички видове акаунти могат да бъдат достъпни с помощта на технология за идентификация на снимки.

Коригиращо действие

За щастие, Грег Кун, директор на IoT, Prosegur Security, казва, че има процеси, които могат да избегнат такова измамно удостоверяване. Той каза на Lifewire по имейл, че системите за идентификация, базирани на изкуствен интелект, съпоставят проверено лице със списък, но много от тях имат вградени предпазни мерки, за да проверят за „живост“.

"Тези типове системи могат да изискват и насочват потребителя да изпълнява определени задачи, като например усмивка или завъртане на главата ви наляво, след това надясно. Това са неща, които статично генерираните лица не могат да изпълнят", сподели Кун.

Изследователите са предложили насоки за регулиране на тяхното създаване и разпространение, за да предпазят обществеността от синтетични изображения. За начало те предлагат включване на дълбоко вкоренени водни знаци в самите мрежи за синтез на изображения и видео, за да се гарантира, че всички синтетични медии могат да бъдат надеждно идентифицирани.

Дотогава Пол Бишоф, защитник на неприкосновеността на личния живот и редактор на изследванията на информационната сигурност в Comparitech, казва, че хората са сами.„Хората ще трябва да се научат да не се доверяват на лица онлайн, точно както всички (надявам се) сме се научили да не вярваме на показваните имена в имейлите си“, каза Бишоф пред Lifewire по имейл.

Препоръчано: