Вашият контакт в LinkedIn може да е Deepfake

Съдържание:

Вашият контакт в LinkedIn може да е Deepfake
Вашият контакт в LinkedIn може да е Deepfake
Anonim

Ключови изводи

  • Неотдавнашно проучване установи, че много контакти в LinkedIn не са истински хора.
  • Това е част от нарастващия проблем с дълбоките фалшификати, при които човек в съществуващо изображение или видеоклип се заменя с компютърно променено представяне.
  • Експертите препоръчват да бъдете внимателни, когато кликвате върху URL адреси или отговаряте на съобщения в LinkedIn.

Image
Image

Може да помислите добре, преди да се свържете с това приятелско лице онлайн.

Изследователи казват, че много контакти в популярния сайт за мрежи LinkedIn не са истински хора. Това е част от нарастващия проблем с дълбоките фалшификати, при които човек в съществуващо изображение или видеоклип се заменя с компютърно променено представяне.

„Дълбоките фалшификати са важни с това, че ефективно елиминират това, което традиционно се смяташе за сигурен метод за потвърждаване на самоличността“, Тим Калън, главен директор по съответствието на фирмата за киберсигурност Sectigo, каза пред Lifewire в интервю по имейл. „Ако не можете да повярвате на гласова или видео поща от ваш доверен колега, тогава е станало много по-трудно да защитите целостта на процеса.“

Връзка с кого?

Разследването на контактите в LinkedIn започна, когато Renée DiResta, изследовател в Станфордската интернет обсерватория, получи съобщение от профил, посочен като Keenan Ramsey.

Бележката изглеждаше обикновена, но DiResta отбеляза някои странни неща в профила на Кийнън. От една страна, изображението изобразява жена само с една обеца, перфектно центрирани очи и замъглени кичури коса, които сякаш изчезват и се появяват отново.

В Twitter DiResta написа: „Този случаен акаунт ми изпрати съобщение… Лицето изглеждаше генерирано от AI, така че първата ми мисъл беше фишинг; беше изпратена връзка „щракнете тук, за да организирате среща“. Чудех се дали се преструва, че работи за компанията, която твърди, че представлява, тъй като LinkedIn не казва на компаниите, когато нови акаунти твърдят, че работят някъде… Но след това получих входяща информация от друга фалшива, последвана от последваща бележка от очевидно истински служител, който се позовава на предишно съобщение от първия фалшив човек, и то се превърна в нещо съвсем друго."

DiResta и нейният колега Джош Голдщайн стартираха проучване, което откри повече от 1000 профила в LinkedIn, използващи лица, които изглежда са създадени от AI.

Deep Fakers

Дълбоките фалшификати са нарастващ проблем. Над 85 000 дълбоко фалшиви видеоклипа са открити до декември 2020 г., според един публикуван доклад.

Напоследък дълбоките фалшификати се използват за забавление и за показване на технологията, включително един пример, в който бившият президент Барак Обама говори за фалшиви новини и дълбоки фалшификации.

"Въпреки че това беше страхотно за забавление, с адекватни компютърни мощности и приложения, можете да произведете нещо, което [нито] компютрите, нито човешкото ухо могат да направят разлика", Анди Роджърс, старши оценител в Schellman, глобален оценител на киберсигурността, се казва в имейл.„Тези дълбоко фалшиви видеоклипове могат да се използват за произволен брой приложения. Например, известни хора и знаменитости в социалните медийни платформи като LinkedIn и Facebook могат да правят изявления, влияещи на пазара, и друго изключително убедително публикувано съдържание.“

Image
Image

Хакерите, по-конкретно, се обръщат към deepfakes, защото и технологията, и потенциалните й жертви стават все по-сложни.

„Много по-трудно е да се извърши атака чрез социално инженерство чрез входящ имейл, особено след като целите са все по-образовани за фишинг като заплаха“, каза Калън.

Платформите трябва да се справят с дълбоките фалшификации, каза Джоузеф Карсън, главен учен по сигурността във фирмата за киберсигурност Delinea, пред Lifewire по имейл. Той предложи качванията в сайтове да преминат през анализи, за да се определи автентичността на съдържанието.

Ако за дадена публикация не е предоставен никакъв вид надежден източник или контекст, тогава правилното етикетиране на съдържанието трябва да е ясно за зрителя, че източникът на съдържание е проверен, все още се анализира или че съдържанието е значително модифициран“, добави Карсън.

Дълбоките фалшификати са важни с това, че ефективно елиминират това, което традиционно се смяташе за сигурен метод за потвърждаване на самоличността.

Експертите препоръчват на потребителите да бъдат внимателни, когато кликват върху URL адреси или отговарят на съобщения в LinkedIn. Имайте предвид, че гласът и дори движещите се изображения на предполагаеми колеги могат да бъдат фалшифицирани, предложи Калън. Подходете към тези взаимодействия със същото ниво на скептицизъм, което държите към текстовите комуникации.

Въпреки това, ако се притеснявате, че собствената ви самоличност може да бъде използвана в дълбок фалшификат, Калън каза, че няма просто решение.

"Най-добрите защити трябва да бъдат въведени от тези, които разработват и управляват цифровите комуникационни платформи, които използвате", добави Калън. „Система, която потвърждава [самоличностите] на участниците, използвайки неразбиваеми криптографски техники, може много ефективно да подкопае този вид риск.“

Препоръчано: