НЕЙРОСЕТИ ПО ТУ СТОРОНУ ЗАКОНА
Одним из наиболее тревожных на сегодняшний день применение искусственного интеллекта - является использование нейросетей для совершения мошенничества, включая изменение голоса и создание дипфейков (фальшивые видео или аудио записи, в которых лица одних людей заменяются на лица других).
- Злоумышленники могут легко изменять свой голос или имитировать голоса других людей. Это достигается благодаря технологии синтеза речи, которая позволяет создавать реалистичные голосовые записи на основе небольших образцов аудио. Например, мошенники могут звонить жертвам, используя синтезированный голос их знакомых и близких людей, тем самым не оставили сомнения в оригинальности.
- Помимо изменения голоса, технологии глубокого обучения, такие как дипфейки, позволяют создавать фальшивые видео, где лицо одного человека заменяется на лицо другого. Это может использоваться для шантажа или распространения ложной информации.
Так, на днях пожилой женщине 82 года поступил звонок. Злоумышленники притворились её внучкой, сгенерировав голос девушки, собрав информацию в соц сетях. В течении 10 минут мошенники пытались убедить женщину, что внучка якобы сбила человека и ей срочно нужны деньги, так как она находится в больнице и средств никаких при себе не имеет. Женщина вовремя заподозрила неладное и повесила трубку, сразу же перезвонив внучке и убедившись, что все в порядке, а после обратилась в правоохранительные органы.
Данный пример доказывает, что бдительность всегда играет значительную роль, но, к сожалению, исход не всегда такой положительный. Будьте на чеку и не доверяйте всему, что слышите.
Подпишись на
Ленинградский cyber - страж
Предупрежден- вооружен!