Deepfake технологията на Facebook няма да ни спаси, казват експерти

Съдържание:

Deepfake технологията на Facebook няма да ни спаси, казват експерти
Deepfake технологията на Facebook няма да ни спаси, казват експерти
Anonim

Ключови изводи

  • Тъй като дълбоките фалшификати стават по-лесни за правене, новите и подобрени начини за забелязването им се превърнаха в приоритет.
  • Технологията на Facebook за откриване на дълбоки фалшификати използва обратно машинно обучение, за да разкрие дали видеоклипът е дълбок фалшив или не.
  • Експертите казват, че използването на блокчейн технология би било най-добрият начин да видите дали дадено видео е реално или не, тъй като методът разчита на контекстни данни.
Image
Image

Facebook е уверен в своя модел на машинно обучение за борба с deepfakes, но експертите казват, че машинното обучение само по себе си няма да ни спаси от измама от deepfakes.

Компании като Facebook, Microsoft и Google работят за борба с разпространението на дълбоки фалшификати в мрежата и социалните мрежи. Въпреки че методите се различават, има един потенциално надежден метод за откриване на тези фалшиви видеоклипове: блокови вериги.

“[Блоковите вериги] просто ви дават много потенциал за валидиране на deepfake по начин, който е най-добрата форма на валидиране, която виждам,” Стивън Волфрам, основател и главен изпълнителен директор на Wolfram Research и автор на A New Kind of Наука, каза Lifewire по телефона.

Технологията на Facebook за откриване на дълбоки фалшиви

Технологията Deepfake се разрасна бързо през последните няколко години. Подвеждащите видеоклипове използват методи за машинно обучение, за да правят неща като наслагване на нечие лице върху тялото на друг човек, промяна на условията на фона, фалшиво синхронизиране на устни и други. Те варират от безобидни пародии до каране на знаменитости или публични личности да кажат или направят нещо, което не са направили.

Експертите казват, че технологията напредва бързо и че deepfakes ще стават по-убедителни (и по-лесни за създаване), тъй като технологията става по-широко достъпна и по-иновативна.

Image
Image

Facebook наскоро даде повече информация за своята технология за откриване на дълбоки фалшификати в партньорство с Мичиганския държавен университет. Социалната мрежа казва, че разчита на обратен инженеринг от едно изображение, генерирано от изкуствен интелект, до генеративния модел, използван за производството му.

Учени изследователи, които са работили с Facebook, казаха, че методът разчита на разкриването на уникалните модели зад AI модела, използван за генериране на deepfake.

„Чрез обобщаване на приписването на изображението на разпознаването на отворен набор, можем да изведем повече информация за генеративния модел, използван за създаване на deepfake, който отива отвъд разпознаването, че не е бил виждан преди. И чрез проследяване на приликите между моделите на колекция от дълбоки фалшификати, бихме могли също да разберем дали поредица от изображения произхождат от един източник“, пишат изследователите Xi Yin и Tan Hassner в публикация в блога на Facebook относно неговия метод за откриване на deepfake.

Image
Image

Wolfram казва, че има смисъл да използвате машинно обучение, за да забележите усъвършенстван AI модел (deepfeke). Винаги обаче има място за заблуда на технологията.

„Изобщо не съм изненадан, че има приличен начин за машинно обучение за [откриване на deepfakes]“, каза Волфрам. „Единственият въпрос е, ако положите достатъчно усилия, можете ли да го заблудите? Сигурен съм, че можете.”

Борба с Deepfakes по различен начин

Вместо това Волфрам каза, че вярва, че използването на блокчейн би било най-добрият вариант за точно откриване на определени видове дълбоки фалшификати. Неговото мнение за използването на блокчейн пред машинното обучение се връща към 2019 г. и той каза, че в крайна сметка подходът на блокчейн може да осигури по-точно решение на нашия проблем с дълбоките фалшиви фалшиви.

„Очаквам зрителите на изображения и видео да могат рутинно да проверяват срещу блокчейни (и „изчисления за триангулация на данни“) подобно на начина, по който уеб браузърите сега проверяват сертификатите за сигурност“, пише Волфрам в статия, публикувана в Scientific American.

Тъй като блоковите вериги съхраняват данни в блокове, които след това се свързват заедно в хронологичен ред, и тъй като децентрализираните блокови вериги са неизменни, въведените данни са необратими.

Единственият въпрос е, ако положите достатъчно усилия, можете ли да го заблудите? Сигурен съм, че можете.

Wolfram обясни, че като поставите видео в блокчейн, ще можете да видите времето, в което е заснето, местоположението и друга контекстуална информация, която ще ви позволи да разберете дали е бил променен по някакъв начин.

„Като цяло, колкото повече метаданни има, които контекстуализират картината или видеоклипа, толкова по-вероятно е да можете да кажете“, каза той. „Не можете да фалшифицирате време в блокчейн.“

Въпреки това, Волфрам каза, че използваният метод - независимо дали е машинно обучение или използване на блокчейн - зависи от типа дълбока фалшива информация, от която се опитвате да се предпазите (т.е. видеоклип на Ким Кардашиян, който казва нещо глупаво, или видеоклип на политик, който прави изявление или предложение).

„Подходът на блокчейн защитава срещу определени видове дълбоки фалшификати, точно както обработката на изображения с машинно обучение предпазва от определени видове дълбоки фалшификати,” каза той.

Долната линия, изглежда, е бдителност за всички нас, когато става въпрос за борба с предстоящия дълбок фалшив потоп.

Препоръчано: