ЗАРЕЖДАНЕ...
Начало
Пловдив
Анализите
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Общество
Криминални
Институции
Други
Бизнес
Агро
Ако нещо звучи прекалено хубаво, то най-вероятно е измама | ||||||
| ||||||
"Нова платформа ще ви позволи да печелите стабилно и без риск. Това вече е тествано от обикновени хора, които за първия месец успяха да изкарат годишните си заплати, а някои дори и повече". Това са думи, изречени от генерирания от изкуствен интелект глас на Марина Цекова - уважаван публицист и водеща на "Събуди се", и целят да ви въвлекат в измама. Във фейк видеото е и лицето на президента на България Румен Радев. Но и думите на държавния глава в клипа са генерирани от измамници. "Дирекция "Киберпрестъпност" в ГДБОП ежедневно премахва подобни видеа. Или жертви на инвестиционни измами ни сигнализират, или хора, които са ги видели случайно. Това конкретно видео го докладвахме и се надяваме в близките час-два да изчезне", заяви главен комисар Владимир Димитров, "Киберсигурност" в ГДБОП. Изминаха 8 часа, след като ГДБОП докладва фалшивото видео на Facebook, но то все още е публично в социалната мрежа. Профилът на жертвите на измамите показва, че 90% от тях са мъже. Те са над 30-годишна възраст с добре платена професия и повече свободно време. Но измамниците зад клавиатурата не подбират. "Само днес имаме две жалби от дами, които са загубили пари - едната 30 000 лева, другата над 80 000 лева в подобни инвестиционни измами. Тези измами продължават няколко месеца", посочва главен комисар Димитров. Проверка на NOVA показва, че това е единственото видео във въпросната Facebook страница, която е създадена на 7 февруари. Има само 29 последователи, но фалшивата реклама е видяна от хиляди потребители. Описанието на видеото е на руски и гласи: “Уникални новини за гражданите". "Тези видеа се изготвят от организирани престъпни групи, които се занимават с инвестиционни измами. Ситуират своите кол центрове в държави като България, Молдова, Украйна, Беларус, Казахстан. От тези колцентрове се таргетират граждани на практика на територията на цял свят. Това не е само проблем за България", категоричен е главен комисар Димитров. В края на всяко дийпфейк видео има призив жертвите да кликнат на линк, който ги отвежда към сайт, където им искат лични да Но дали подвеждащият изкуствен интелект, използван от престъпници, може да се впрегне и от разследващите в тяхна помощ. "Има широко приложение, но човешкият мозък е незаменим. Каквото направи AI - ще трябва да има контрол от страна на човека. Използвали сме го за някои неща, но не се справи добре и в крайна сметка ние трябваше да си свършим работата", подчертава главен инспектор Димитров. Тази игра на “дълбоката лъжа" все още няма правила. Докато законодателните органи измислят такива - съветът на експертите е, ако нещо звучи прекалено хубаво, за да е истина, то най-вероятно е измама. |
Още по темата: | общо новини по темата: 6976 | ||||||||||||
| |||||||||||||
предишна страница [ 1/1163 ] следващата страница |
Зареждане! Моля, изчакайте ...
Все още няма коментари към статията. Бъди първият, който ще напише коментар!
Още новини от Национални новини:
ИЗПРАТИ НОВИНА
Виж още:
Годеж 17 години след първата им среща, когато са били деца
15:49 / 29.11.2024
Виктор и Беба отново заедно
08:42 / 29.11.2024
Радина и Деян Донков отново заедно
12:08 / 01.12.2024
От утре проблеми за шофьорите в Пловдивско
20:41 / 29.11.2024
Димитър Маринов от филма за Гунди: До три години всичко ще се промени
12:19 / 30.11.2024
Актуални теми
Абонамент
Анкета