ЗАРЕЖДАНЕ...
Начало
Пловдив
Анализите
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Музика
Личности
Културни
Кино и филми
Други
Кулинарни
Какво представляват дийпфейковете и как се създават? | ||||||
| ||||||
При производството на фалшификати се използват методи на изкуствен интелект, машинно обучение и невронни мрежи. Името на технологията идва от комбинацията на английските термини deep learning (дълбоко обучение) и fake (фалшив). Защо се създават дийпфейкове Много от създадените дийпфейкове са порнографски. До края на 2020 г. Sensity откри 85 000 фалшификати в интернет, сътворени с помощта на техники за изкуствен интелект. 93% от материалите са порнографски, по-голямата част от които изобразяват лицата на известни жени. Новите методи позволяват на неквалифицирани хора да правят deepfakes само с няколко снимки. Според експерти количеството на такова съдържание се удвоява на всеки 6 месеца. Вероятно фалшивите видеоклипове ще се разпространят извън света на знаменитостите, за да подхранват порно за отмъщение. Дийпфейковете се използват и за информационни атаки, създаване на пародии и сатира. През 2018 г. американският режисьор Джордан Пийл и новинарското издание BuzzFeed публикуваха предполагаем призив от бившия президент на САЩ Барак Обама, наричащ Доналд Тръмп "задник“. Видеото е създадено с помощта на приложението FaceApp и графичния редактор на Adobe After Effects. Продуцентът и журналистите искаха да демонстрират как могат да изглеждат фалшивите новини в бъдеще. През 2022 г., след пълномащабната инвазия на Русия в Украйна, в социалните медии се разпространи фалшиво видео на президента Владимир Зеленски, в което държавният глава "призовава хората да се предадат“. Потребителите бързо идентифицираха фалшификата, а самият Зеленски написа опровержение. През май същата година измамници разпространиха дийпфейка на Илон Мъск, в който той "приканва хора за инвестиции“ в очевидна измама. Каналът в YouTube, който публикува видеото, има над 100 000 абонати и преди акаунтът да бъде изтрит, клипът е гледан над 90 000 пъти. Колко души са попаднали на заблудата не се знае. За забавление има много приложения, които създават deepfakes. В началото на 2020 г. апликацията Reface, която използва фалшивата технология за създаване на кратки видеоклипове със замяна на буквално всяко лице върху широк спектър от видеа и GIF анимации, придоби широка популярност. Какво може да се фалшифицира Дийпфейк технологията може да създаде не само завладяващи клипове, но и напълно измислени снимки от нулата. През 2019 г. известната Мейси Кинсли стартира профили в LinkedIn и Twitter, в които се идентифицира като журналистка на Bloomberg. Медийното лице се свърза със служителите на Tesla извличайки различна информация. По-късно се оказа, че това е дийпфейк. Социалните мрежи не съдържаха убедителни факти, свързващи я с публикациите, а профилната снимка бе явно генерирана от изкуствен интелект. През 2021 г. учени проведоха експеримент, създавайки виртуалния герой Н. Г. Адамчук, който "пише крипто разсъждения“ за специализирана по темата платформа . Текстовете бяха генерирани с помощта на големия езиков модел GPT-2, а аватарът бе създаден от This Person Does not Exist. Аудиото може също да бъде подправено, за да се създадат "гласови клонинги“ на публични лица. През януари 2020 г. мошеници в ОАЕ изкопираха гласа на ръководителя на голяма фирма и убедиха банков служител да преведе млн. в техните сметки. Подобен инцидент се случи през 2019 г. с британска енергийна компания. Измамниците успяха да откраднат около 3 000, като се представяха за директора на фирмата, използвайки фалшив глас. Как се създават дийпфейковете За да създадем дийпфейк, имаме нужда от голям набор от данни на лицата на двама души. Физическите характеристики се анализират от AI в кодер, който намира прилики между тях и компресира изображенията. След това декодерът се обучава да реконструира лицата от компресираните кадри. За всеки човек се използва отделен алгоритъм. За да размените ликовете, трябва да заредите компресираните данни в "грешния“ декодер. Например, изображенията на човек А се подават в декодер, обучен върху човек Б. Алгоритъмът реконструира лицето на човек Б с изражение на лицето А. За да получи висококачествен резултат за видео, алгоритъмът трябва да обработва всеки кадър по този начин. Друг метод за създаване на дийпфейкове е използването на генеративни състезателни невронни мрежи (GAN). Подобна техника се използва в услуги като This Person Does not Exist. Кой създава deepfakes Deepfakes могат да бъдат изобретени от академични и търговски изследователи, инженери по машинно обучение, любители ентусиасти, студия за визуални ефекти и режисьори. Освен това, благодарение на популярните приложения като Reface или FaceApp, всеки собственик на смартфон може да направи фалшива снимка или видео. Правителствата могат също да използват технологии, например, като част от своите онлайн стратегии за дискредитиране и подкопаване на екстремистки групи или за достигане до целеви лица. През 2019 г. журналисти откриха профила на популярната личност Кати Джоунс в LinkedIn, който се оказа фалшив. Тогава Националният център за контраразузнаване и сигурност на САЩ съобщи, че чуждестранните шпиони редовно използват измамни профили в социалните мрежи, за да шпионират американски знаменитости. По-специално, агенцията обвини Китай в извършване на "масов“ шпионаж чрез LinkedIn. Тази година южнокорейски инженери създадоха дийпфейк на кандидата за президент Юн Сок Еля, за да привлекат младите избиратели преди изборите на 9 март. Какви технологии се използват при свръхпроизводството на дийпфейковете Повечето фалшификати се произвеждат на настолни компютри от висок клас с мощни графични карти или в "облак“. Необходим е и опит, за да могат да се коригират готови видеоклипове и визуални дефекти. Въпреки това, вече са налични много инструменти, които помагат на хората да правят дийпфейкове както в облака, така и директно на своя смартфон. Към гореспоменатите Reface и FaceApp можем да добавим Zao, който заменя лицата на потребителите върху филмови и телевизионни герои. Как да разпознаем кога ни мамят В повечето случаи фалшивите снимки и видеоклипове са с ниско качество. Можем да разпознаем дийпфейковете по немигащите очи, лошия говор, синхронизацията на устните и неравния тен на кожата. По ръбовете на транспонираните лица могат да се наблюдават трептене и пикселизация. Малките детайли като косата например са особено трудни за рисуване с високо качество. Лошо пренесени бижута и зъби също могат да означават фалшификат. Трябва да се обърне внимание и на непостоянното осветление, както и на отраженията върху ириса на очите. Големите технологични корпорации се борят срещу нашумялите deepfakes. През април 2022 г. Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и ARM се присъединиха към алианса C2PA за откриване на фалшиви снимки и клипове онлайн. През 2020 г., преди изборите в САЩ, Facebook забрани дийпфейкови видеа, които биха могли да подведат потребителите. През май тази година Google ограничи възможността за обучение на deepfakes модели в облака Colab. Каква е опасността от дийпфейковете и можем ли да се предпазим В допълнение към дезинформацията, тормоза, сплашването и унижението, популярните фалшификати могат да подкопаят общественото доверие в конкретни събития. Според професора от университета в Нюкасъл и експерт по интернет право Лилиан Едуардс проблемът не е толкова в измамната технология, колкото в отричането на реални факти. Тъй като изобретението се разпространява, има огромна вероятност дийпфейковете да представляват заплаха за правосъдието, където фалшивите събития могат да се представят за истински. Те оказват лошо влияние и върху личната безопасност. Deepfakes вече могат да имитират биометрични данни и да заблуждават системите за разпознаване на лице, глас или походка. С какво може да бъде полезна измамната технология В допълнение към заплахите, дийпфейковете също могат да бъдат полезни. Технологията се използва активно за развлекателни цели. Например базираната в Лондон стартираща компания Flawless е разработила AI за синхронизиране на устните на актьори и аудио гласове при презаписване на филми на различни езици. През юли 2021 г. документалният филм за известния готвач Антъни Бурдейн, който почина три години по-рано., използва deepfake, за да изрази неговите цитати. Освен това изобретението може да помогне на хората да си възвърнат гласа, загубен поради заболяване. Също така дийпфейковете се използват и за създаване на синтетични набори от данни. Това елиминира необходимостта инженерите да събират снимки на реални хора и да получават разрешение за използването им. |
Зареждане! Моля, изчакайте ...
Все още няма коментари към статията. Бъди първият, който ще напише коментар!
Още новини от Любопитни новини:
ИЗПРАТИ НОВИНА
Виж още:
Синоптик: От 6 декември започва продължителен период на снеговалежи
14:11 / 28.11.2024
Виктор и Беба отново заедно
08:42 / 29.11.2024
Годеж 17 години след първата им среща, когато са били деца
15:49 / 29.11.2024
Ударно начало на декември за три зодии
14:46 / 28.11.2024
Актуални теми
Абонамент
Анкета