Современные технологии, изначально разработанные для развлечений, образования и бизнеса, порой находят применение в совершенно неожиданных и пугающих сферах. Один из самых свежих примеров использование технологий глубоких подделок (или дипфейков) в мошеннических схемах. В этот раз злоумышленники пошли дальше простых звонков от «служб безопасности банков» и фальшивых сообщений от «коллекторов» теперь они начали использовать нейросети для создания голосов людей, недавно ушедших из жизни. И, как выясняется, делается это для того, чтобы манипулировать болью, утратой и скорбью близких.
В Москве был зафиксирован крайне циничный способ телефонного мошенничества, в котором аферисты создают аудиосообщения с поддельными голосами недавно умерших людей, используя нейросети и алгоритмы для имитации. Чтобы создать такие сообщения, мошенники собирают информацию и записи голосов умерших людей, находя её в соцсетях, мессенджерах и других открытых источниках, например, в некрологах. На основе этих записей они воспроизводят голос покойного и пытаются воссоздать характерные интонации, фразы и манеру общения человека, с тем чтобы убедить родственников в подлинности голоса.
Такой способ обмана направлен на глубокие эмоциональные чувства, которые охватывают человека после утраты близкого. Люди, находящиеся в состоянии шока или траура, часто становятся особенно уязвимыми к манипуляциям. Мошенники, понимая это, пользуются временной слабостью, чтобы добиться своей цели выманить деньги под предлогом «последней просьбы».
Как работает мошенническая схема
Злоумышленники изучают некрологи и соболезнования в интернете, чтобы определить недавние случаи смерти. Они ищут не только информацию о покойном, но и стараются понять, как он общался, какой голос у него был, каким стилем речи он пользовался. Обычно в таких постах люди, скорбящие по утрате, могут делиться старыми записями голоса, видео или воспоминаниями, которые содержат фрагменты живой речи умершего. Кроме того, через эти же социальные сети можно выйти на родственников и друзей покойного.
Как только аферисты получают достаточно материала, они начинают процесс создания поддельного голоса с помощью нейросетей, которые могут воспроизвести голос, основываясь на нескольких коротких образцах. С помощью алгоритмов искусственного интеллекта мошенники создают запись, имитирующую голос человека, способную звучать правдоподобно для знакомых и родных умершего.
Обычно такие записи звучат в форме просьбы о финансовой помощи, причем мошенники тщательно подбирают формулировки, чтобы они выглядели максимально убедительно. Так, например, в записи может прозвучать просьба о переводе денег для оплаты «долга», который, якобы, человек не успел оплатить при жизни. Мошенники утверждают, что из-за этого долга «душа покойного не может найти покой» и якобы перевод средств поможет этому человеку обрести мир.
Почему эта схема так опасна
Такая схема считается одной из самых циничных по нескольким причинам. Во-первых, она затрагивает крайне уязвимую сторону человеческой психики чувство утраты, желание поддерживать контакт с близким, который только что ушел из жизни, и, конечно, природную склонность людей верить в «знаки» от умерших. Во-вторых, она использует современную технологию дипфейков, которую сложно распознать без специальных навыков, так как алгоритмы нейросетей могут передать не только тембр и интонацию голоса, но и характерные слова или фразы, которыми часто пользовался человек.
Большинство людей, услышав голос, который кажется им до боли знакомым, испытывают эмоциональный шок и просто не успевают задуматься о том, что могут стать жертвами обмана. Под таким давлением люди часто совершают поступки, которые не сделали бы в обычном состоянии, что и приводит к тому, что мошенники получают свои деньги. В сложные моменты, когда родственники ещё не оправились от шока утраты, такие звонки выглядят как последний контакт с дорогим человеком, пусть даже в форме голоса.
Технология дипфейка и её роль в мошенничестве
Дипфейки, или deepfakes, изначально создавались как технология для создания реалистичных подделок видео и аудио с помощью искусственного интеллекта и машинного обучения. Применяя её, алгоритмы «обучаются» подражать конкретному лицу или голосу, анализируя видео- и аудиозаписи. Чтобы создать фальшивую аудиозапись, дипфейк-алгоритму достаточно получить несколько образцов речи. Используя их, система создаёт реалистичный аудиофайл, на котором голос звучит так, как будто это действительно говорит настоящий человек.
Технология, разработанная в первую очередь для создания цифрового контента и улучшения пользовательского опыта, была адаптирована мошенниками под свои цели. В последние годы дипфейки стали использовать для обмана в самых разных сферах. Аудиодипфейки находят своё применение не только для поддельных звонков «от банков», но и для попыток взлома корпоративных систем, кражи личных данных и даже попыток подмены личности.
Как обезопасить себя от такого вида мошенничества
Чтобы не стать жертвой таких афер, важно помнить о том, что современные технологии позволяют подделывать не только фотографии и видео, но и аудио. Самый надёжный способ избежать обмана сохранять бдительность и помнить, что в моменты горя легко поддаться манипуляции.
Подозрение на неожиданные просьбы. Если вы получили звонок или аудиосообщение от имени недавно умершего человека, стоит сразу насторожиться. Вероятность того, что подобное сообщение поступает действительно «с той стороны», крайне мала. Мошенники знают, как воздействовать на боль, поэтому такие запросы всегда нужно перепроверять.
Обратный звонок другим родственникам. Если вы получили странное сообщение или звонок, стоит связаться с родственниками, которые могут подтвердить или опровергнуть возможную правдивость обращения. Мошенники часто надеются, что жертва не успеет ни с кем обсудить просьбу, поэтому проявление сдержанности это важный шаг.
Не делитесь излишними данными в соцсетях. Старайтесь не публиковать слишком много личной информации в открытом доступе, включая записи голоса, видео и другие данные. Особенно это касается публикации сведений об умерших близких, так как такие данные могут быть использованы аферистами. Подробные некрологи и личные сообщения в сети тоже являются источниками информации для мошенников.
Применяйте технологии, защищающие от дипфейков. Сегодня разрабатываются решения, которые помогают распознавать дипфейки. Если вы подозреваете, что столкнулись с мошенничеством, можно использовать специализированное ПО для проверки подлинности аудиозаписей.
Психологические аспекты: почему люди верят таким звонкам
Не менее важно учитывать психологический аспект подобных схем. Утрата близкого человека одно из самых сильных потрясений, которые может пережить человек. В таких состояниях людям свойственно искать утешение и знаки, подтверждающие, что ушедшие близкие все еще как-то с ними. Психологи утверждают, что в таком состоянии человек более склонен принимать желаемое за действительное, а мошенники искусно этим пользуются, представляя фальшивый голос как «прощальный» звонок.
Заключение
Распространение технологии дипфейков и её использование в криминальных схемах стало новым вызовом для общества. Нейросети, изначально призванные улучшить качество жизни и взаимодействия, открыли возможности для манипуляций, против которых общество ещё не выработало полноценные меры защиты. Сейчас крайне важно проявлять осторожность и помнить о возможных рисках, особенно в эмоционально уязвимые периоды. Важно также распространять информацию об опасностях подобных технологий, чтобы люди понимали, что это реальность, и знали, как защититься от возможных угроз.