Ключови изводи
- Deep Nostalgia е нова програма, която ви позволява да анимирате стари снимки.
- Технологията показва колко лесно е да създавате видеоклипове на хора, които правят неща, които всъщност не са правили в реалния живот.
- Технологията за дълбоко фалшифициране вече е толкова усъвършенствана, че е трудно да се каже дали видеото е истинско или генерирано от компютър, казва експерт.
Внимавайте с нов софтуер, който може да създаде така наречените „дълбоки фалшификати“, в които могат да бъдат симулирани видеоклипове на реални хора, предупреждават експерти.
Deep Nostalgia, издаден от компанията MyHeritage, е популярна в социалните медии, като потребителите съживяват всички - от известни композитори до починали роднини. Софтуерът предизвиква смесени реакции, като някои хора са възхитени от творенията, а други ги намират за страховити. Технологията показва колко лесно е да създавате видеоклипове на хора, които правят неща, които всъщност не са правили в реалния живот.
„Технологията Deepfake става все по-сложна и по-опасна“, каза в интервю по имейл Арън Лоусън, помощник-директор на SRI International’s Speech Technology and Research (STAR). „Това отчасти се дължи на естеството на изкуствения интелект. Когато „традиционната“технология изисква човешко време и енергия за подобряване, AI може да се учи от себе си.
"Но способността на ИИ да се развива е нож с две остриета", продължи Лоусън. „Ако AI е създаден да прави нещо добронамерено, страхотно. Но когато AI е проектиран за нещо злонамерено като дълбоки фалшификати, опасността е безпрецедентна.“
Софтуерът вдъхва живот на снимките
Уебсайтът за генеалогия MyHeritage представи двигателя за анимация миналия месец. Технологията, известна като Deep Nostalgia, позволява на потребителите да анимират снимки чрез уебсайта MyHeritage. Компания, наречена D-ID, създаде алгоритми за MyHeritage, които дигитално пресъздават движението на човешки лица. Софтуерът прилага движенията към снимките и променя израженията на лицето, за да се движат както обикновено правят човешките лица, според уебсайта MyHeritage.
Deep Nostalgia показва, че дълбоко фалшивата технология става все по-достъпна, каза Лиор Шамир, професор по компютърни науки в Канзаския държавен университет, в интервю по имейл. Напредва бързо и елиминира дори фините разлики между фалшивото и истинското видео и аудио.
„Има също така значителен напредък към дълбоко фалшифициране в реално време, което означава, че убедителни дълбоки фалшиви видеоклипове се генерират по време на видео комуникация“, каза Шамир.„Например, човек може да проведе среща в Zoom с определен човек, докато вижда и чува гласа на напълно различен човек.“
Съществува и нарастващ брой базирани на език дълбоки фалшификати, каза в интервю по имейл Джейсън Корсо, директор на Института за изкуствен интелект Стивънс към Технологичния институт Стивънс. „Генерирането на цели абзаци от дълбок фалшив текст към конкретен дневен ред е доста трудно, но съвременният напредък в дълбоката обработка на естествен език го прави възможно“, добави той.
Как да разпознаете дълбок фалшификат
Докато технологията за дълбоко откриване на фалшификати все още е в начален стадий, има няколко начина, по които можете да го забележите, каза Корсо, започвайки с устата.
„Променливостта във външния вид на вътрешността на устата, когато някой говори, е много голяма, което затруднява убедителното анимиране“, обясни Корсо. „Може да се направи, но е по-трудно от останалата част от главата. Забележете как видеоклиповете на Deep Nostalgia не демонстрират способността на снимката да казва „Обичам те“или някаква друга фраза по време на дълбокото фалшиво създаване. Това би изисквало отваряне и затваряне на устата, което е много трудно за дълбоко генериране на фалшификати."
Призракът е друго раздаване, добави Корсо. Ако видите замъгляване около краищата на главата, това е резултат от „бързо движение или ограничени пиксели, налични в изходното изображение. Ухото може частично да изчезне за момент или косата може да се размаже там, където не бихте очаквали“, той каза.
Можете също така да внимавате за цветови вариации, когато се опитвате да забележите дълбоко фалшив видеоклип, като например остра линия през лицето, с по-тъмни цветове от едната страна и по-светли от другата.
"Компютърните алгоритми често могат да открият тези модели на изкривяване", каза Шамир. „Но алгоритмите за дълбоко фалшифициране напредват бързо. Неизбежно е да се изискват строги закони за защита от дълбоко фалшифициране и щетите, които лесно могат да причинят.“