ДИПФЕЙКИ «РОДНЫХ» СТАНОВЯТСЯ НОВЫМ ОРУЖИЕМ МОШЕННИКОВ
МВД зафиксировало рост мошеннических схем, где злоумышленники используют технологии искусственного интеллекта для создания правдоподобных видео с «родственниками». На таких роликах знакомый человек словно вживую обращается с просьбой занять деньги.
По данным ведомства, нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео злоумышленники рассылают его близким и друзьям, рассчитывая на доверие и быстрый перевод средств. В реальности жертва даже не подозревает, что её образ используют без ведома.
Эксперты МВД предупреждают: любая фотография, оказавшаяся в руках преступников, может быть превращена в инструмент обмана. Поэтому при получении неожиданных просьб о деньгах через видео или мессенджеры нужно обязательно перепроверять информацию — напрямую созвониться с человеком и уточнить, действительно ли он обращался за помощью.
Появление подобных схем совпало с поэтапным вступлением в силу новых мер защиты граждан. С лета в России начали действовать ограничения на использование мессенджеров госорганами и банками при общении с клиентами, запрет на спам-рассылки, а с сентября через портал «Госуслуги» можно будет установить персональный запрет на оформление SIM-карт. Всё это направлено на снижение рисков обмана, однако рост технологий дипфейков требует от пользователей дополнительной бдительности.
Подпишись на Ленинградский cyber - страж
Предупрежден- вооружен!