ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ

ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ

ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ

МВД зафиксировало рост мошеннических схем, где злоумышленники используют технологии искусственного интеллекта для создания правдоподобных видео с «родственниками». На таких роликах знакомый человек словно вживую обращается с просьбой занять деньги.

По данным ведомства, нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео злоумышленники рассылают его близким и друзьям, рассчитывая на доверие и быстрый перевод средств. В реальности жертва даже не подозревает, что её образ используют без ведома.

Эксперты МВД предупреждают: любая фотография, оказавшаяся в руках преступников, может быть превращена в инструмент обмана. Поэтому при получении неожиданных просьб о деньгах через видео или мессенджеры нужно обязательно перепроверять информацию — напрямую созвониться с человеком и уточнить, действительно ли он обращался за помощью.

Появление подобных схем совпало с поэтапным вступлением в силу новых мер защиты граждан. С лета в России начали действовать ограничения на использование мессенджеров госорганами и банками при общении с клиентами, запрет на спам-рассылки, а с сентября через портал «Госуслуги» можно будет установить персональный запрет на оформление SIM-карт. Всё это направлено на снижение рисков обмана, однако рост технологий дипфейков требует от пользователей дополнительной бдительности.

Источник

Подпишись на Ленинградский cyber - страж
Предупрежден- вооружен!

Источник: Telegram-канал "Ленинградский Cyber - страж", репост Петербургская полиция

Топ

В регионах

Лента новостей