ФБР предупреждава за AI Deepfake измами с изнудване

Способностите на генеративния AI да създава реалистични изображения са впечатляващи, но Федералното бюро за разследване на САЩ казва, че престъпниците използват deepfakes, за да насочват жертвите за изнудване.

„ФБР продължава да получава доклади от жертви, включително непълнолетни деца и несъгласни възрастни, чиито снимки или видеоклипове са били променени в изрично съдържание“, каза агенцията в предупреждение на PSA в понеделник.

ФБР казва, че правоприлагащите органи са получили над 7,000 доклада миналата година за онлайн изнудване, насочено към непълнолетни, с ръст на жертвите на така наречените „сексуални измами“, използващи deepfakes от април.

Deepfeke е все по-често срещан тип видео или аудио съдържание, създадено с изкуствен интелект, което изобразява фалшиви събития, които все по-трудно се разпознават като фалшиви, благодарение на генеративни AI платформи като Midjourney 5.1 и DALL-E 2 на OpenAI.

През май дийпфейк на главния изпълнителен директор на Tesla и Twitter Илон Мъск, направен за измама на крипто инвеститори, стана вирусен. Видеото, споделено в социалните медии, съдържа кадри на Мъск от предишни интервюта, редактирани, за да отговарят на измамата.

Deepfakes не са само злонамерени, deepfake на папа Франциск, облечен в бяло сако на Balenciaga, стана вирусен по-рано тази година, а напоследък генерираните от AI deepfakes също бяха използвани за връщане към живота на жертвите на убийства.

В препоръките си ФБР предупреждава да не се плаща какъвто и да е откуп, тъй като това не гарантира, че престъпниците така или иначе няма да публикуват deepfake.

ФБР също така съветва да бъдете внимателни при споделяне на лична информация и съдържание онлайн, включително използване на функции за поверителност като правене на акаунти частни, наблюдение на онлайн активността на децата и наблюдение за необичайно поведение от хора, с които сте взаимодействали в миналото. Агенцията също така препоръчва често търсене на лична информация и информация за членове на семейството онлайн.

Други агенции, които бият тревога, включват Федералната търговска комисия на САЩ, която предупреди, че престъпниците са използвали дълбоки фалшификации, за да подмамят нищо неподозиращите жертви да изпратят пари, след като са създали аудио фалшифициране на приятел или член на семейството, което казва, че са били отвлечени.

„Изкуственият интелект вече не е пресилена идея от научнофантастичен филм. Ние живеем с това, тук и сега. Измамник може да използва изкуствен интелект, за да клонира гласа на любимия човек“, каза Федералната търговска комисия в предупреждение за потребителите през март, добавяйки, че всички престъпни нужди са кратък аудио клип на гласа на член на семейството, за да направи записът да звучи реално.

ФБР все още не е отговорило Разкодирай си искане за коментар

Бъдете в крак с крипто новините, получавайте ежедневни актуализации във входящата си поща.

Източник: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams