Ключови изводи
- Гласовият асистент Alexa на Amazon може да копира глас само с една минута аудио.
- Можете да помолите Alexa да прочете история с гласа на починал родител.
- Това е същата идея като дълбоките фалшификати, използвани само за силите на доброто.
Последният трик на Amazon Alexa е да се научите да имитирате гласа на починал близък, за да може да ви говори отвъд гроба.
Alexa се нуждае само от минута говорено аудио, за да имитира убедително глас. Amazon го таксува като утешителна функция, която може да ви свърже с любимите хора, но може да бъде и доста страховито изживяване. И показва колко лесно е да се направи дълбоко фалшиво аудио, което е достатъчно добро, за да ни заблуди, дори когато гласът е такъв, който познаваме много добре.
„Amazon определено навлезе в доста уникална и странна територия със своето съобщение, че Alexa скоро ще може да научи и след това да използва гласа на мъртви роднини скоро“, каза Бил Ман, експерт по поверителност в Restore Privacy. Lifewire чрез имейл. „За някои хора това изобщо не е страховито. Всъщност може да бъде доста трогателно.“
Призрак в машината
Като част от годишната си конференция re:MARS, Amazon показва функцията в кратко видео. В него едно дете пита Алекса дали баба може да продължи да му чете „Магьосникът от Оз“, любимото публично достояние произведение на всяко дете. И това е доста трогателен момент. Трудно е да не изпиташ човешки емоции, когато баба започне да чете.
"Хората се борят със смъртността, особено в западната култура. От векове ние се опитваме да намерим начини да увековечаваме мъртвите, от посмъртни маски, през кичури коса, до стари снимки, до гледане на стари филми, " Андрю Селепак, професор по социални медии в Университета на Флорида, каза пред Lifewire по имейл. „Deepfakes използват най-новата технология, за да създадат нова посмъртна маска на починал любим човек. Но, в зависимост от гледната точка, зловещо ли е това или начин да запомните и задържите някой, когото обичате, след като е починал?“
Но memento mori може да бъде както успокояващо, така и страховито. Приятелят на член на семейството е мъртъв, но все още можете да го чуете да говори. Не помага фактът, че Алекса има история на странно и понякога ужасяващо поведение. През 2018 г., когато колумнистът на мнението на NYT Фархад Манджу си лягаше в леглото, неговото Amazon Echo „започна да ридае като дете, което крещи в сън от филм на ужасите.“
Скоро след това Amazon призна, че Алекса понякога се смее на глас, което заедно с тийнейджърите и мазетата е филм на ужасите 101.
Човек може само да се чуди как бихте се почувствали, ако Алекса направи същите трикове с гласа на баба.
Deep Fake
Очевидната лекота, с която Alexa се научава да имитира глас, ни води до по-престъпни употреби на гласово клониране: дълбоки фалшификати.
"Deepfake audio не е нещо ново, дори ако е малко разбрано и малко познато. Технологията е налична от години за пресъздаване на гласа на индивида с изкуствен интелект и задълбочено обучение, като се използва относително малко действително аудио от човека, " казва Селепак. „Такава технология може също да бъде опасна и разрушителна. Разстроен индивид може да пресъздаде гласа на мъртво бивше гадже или приятелка и да използва новото аудио, за да каже омразни и нараняващи неща.“
Това е само в контекста на Alexa. Дълбокото фалшиво аудио може да надхвърли това, убеждавайки хората, че известни политици вярват в неща, които не вярват, например. Но от друга страна, колкото повече свикваме с тези дълбоки фалшификати - може би под формата на тези гласове на Alexa - толкова повече ще бъдем скептични към по-престъпните фалшификати. От друга страна, като се има предвид колко лесно е да се разпространяват лъжи във Facebook, може би не.
Amazon не каза дали тази функция идва в Alexa или е просто технологична демонстрация. Донякъде се надявам да стане. Технологията е в най-добрия си вид, когато се използва по хуманистичен начин като този, и въпреки че лесната реакция е да я наречем страховита, както казва Селепак, тя наистина не е много по-различна от гледането на стари видеоклипове или слушането на запазени гласови съобщения, като герой в телевизионно шоу с мързелив сценарий.
И ако технологията за дълбоки фалшификати е лесно достъпна, защо да не я използваме, за да се успокоим?