ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ

ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ

МВД зафиксировало рост мошеннических схем, где злоумышленники используют технологии искусственного интеллекта для создания правдоподобных видео с «родственниками». На таких роликах знакомый человек словно вживую обращается с просьбой занять деньги.

По данным ведомства, нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео злоумышленники рассылают его близким и друзьям, рассчитывая на доверие и быстрый перевод средств. В реальности жертва даже не подозревает, что её образ используют без ведома.

Эксперты МВД предупреждают: любая фотография, оказавшаяся в руках преступников, может быть превращена в инструмент обмана. Поэтому при получении неожиданных просьб о деньгах через видео или мессенджеры нужно обязательно перепроверять информацию — напрямую созвониться с человеком и уточнить, действительно ли он обращался за помощью.

Появление подобных схем совпало с поэтапным вступлением в силу новых мер защиты граждан. С лета в России начали действовать ограничения на использование мессенджеров госорганами и банками при общении с клиентами, запрет на спам-рассылки, а с сентября через портал «Госуслуги» можно будет установить персональный запрет на оформление SIM-карт. Всё это направлено на снижение рисков обмана, однако рост технологий дипфейков требует от пользователей дополнительной бдительности.

Источник

Подпишись на Ленинградский cyber - страж
Предупрежден- вооружен!

Источник: Telegram-канал "Ленинградский Cyber - страж", репост Петербургская полиция

Топ

Лента новостей