Докажи, что не бот: эксперт рассказал, как мошенники обманывают красноярцев при помощи нейросетей

Сообщения о все новых и новых видах мошенничества появляются уже почти каждый день. И один из самых коварных – подделка голоса. Мошенники под видом коллег, друзей и родных звонят или пишут красноярцам, выманивая данные или умоляя прислать деньги. Шансов распознать подвох минимум. Поэтому «МК в Красноярске» обратился к IT-специалисту Михаилу Марцинюку и выяснил, как создаются фейковые голоса и как их распознать.

Докажи, что не бот: эксперт рассказал, как мошенники обманывают красноярцев при помощи нейросетей
Изображение: нейросеть FLUX

Ленин отправил вам голосовое сообщение

Технологии всегда любимы мошенниками. Как только в открытом доступе появляется что-то новое, сразу это берут на вооружение представители криминала. Стало возможно подменить номер - и по стране полетел шквал звонков. Появилась технология взлома личных страниц – в «лички» красноярцев посыпались просьбы от «друзей» переслать им деньги. И все в таком духе.

Сейчас в России бум нейросетей. Умельцы обходят санкции крупных мировых IT-компаний и получают доступ к новинкам искусственного интеллекта. А на рынке ИИ чего уже только нет – от создания анимации до видео профессионального качества. Да, бывает, что у персонажей на фото не хватает рук или наоборот – их слишком много. Однако при умелом использовании умные модели могут стать полезным инструментом. А вот использование нейросетей во зло может нанести людям непоправимый вред: финансовый, репутационный, довести до проблем со здоровьем.

Подделка голосов – как раз работа современных моделей нейросетей. Известный по проекту создания цифровых аватаров Михаил Марцинюк, рассказал «МК в Красноярске», что создать голосовую копию сейчас достаточно легко.

«Мы создали проект, который создает цифровые аватары живых и живших людей. В частности, нам удалось восстановить голоса Владимира Ленина и известного многим по советскому фильму о Золушке актера Алексея Консовского. Пообщаться с ними можно в телеграм-ботах, отправив голосовые сообщения с вопросами. Мы обучили модель и на основе образцов выступлений научили вести диалог», - рассказал Михаил.

Фото предоставлено Михаилом Марцинюком

Эксперт пояснил, что такой образец можно добыть у любого человека. Достаточно найти видео с ним в соцсетях или позвонить с просьбой ответить на безобидные вопросы. А дальше – дело техники.

Марцинюк делал и собственную копию. Деньги она ни у кого не просила, но показала, что ничей голос теперь не застрахован от подделки.

«У вас запись дергается»

Распознать звонок от ИИ сейчас довольно трудно, рассказал Михаил Марцинюк. Причина – в довольно высоком качестве генерации речи. Но есть некоторые способы распознать фейк.

На один из них обратил внимание журналист «МК в Красноярске». Слушая сгенерированный голос IT-эксперта, он услышал в одном месте короткое прерывание, будто запись не до конца загрузилась и потом вновь продолжилось воспроизведение.

«Эту деталь может распознать не каждый, потому что такой же эффект прерывания звука может возникнуть из-за нестабильной связи. Да и когда близкий человек звонит в слезах и говорит, что попал в ДТП, внимание зачастую пропадает. Есть еще один пример, позволяющий определить, что звонит бот. Когда создавали цифровой аватар Ленина, то использовали его запись от 1917 года. Там есть звуки, где он покашливает, и это вошло в цифровой аватар», - добавил эксперт.

Но, считает Михаил Марцинюк, побороть эмоции в разговоре с якобы близким или знакомым человеком особенно сложно, а похожие тембр и интонация вызывают доверие, даже если звонок с незнакомого номера. Да и если звонит начальник, требуя выполнить срочное поручение, иногда сложно распознать подвох. Даже если он просит перевести ему на счет им же выданную зарплату. А бывают настолько продвинутые злоумышленники, что могут взломать и аккаунт человека. Даже если он привязан к номеру. Кстати, вспоминается история, когда от лица депутата Госдумы от Красноярского края Сергея Еремина неизвестные рассылали сообщения с призывом проголосовать за его «знакомую» на конкурсе. Ссылка при этом явно вела не на безобидное голосование. Но, хочется надеяться, проверять никто не стал.

Чтобы не лишиться денег даже когда звонит якобы близкий человек, важно помнить советы, которые не раз публиковала полиция. Нужно сохранять спокойствие, несмотря на то, что говорят в трубку. Сбросив звонок, рекомендуется набрать настоящий номер того, кто звонил. Уже из этого стоит исходить при принятии решения, а лучше тщательно все взвесить и обратиться в полицию. Ведь если человек на самом деле в беде, полицейские будут уведомлены и могут помочь.

Важно помнить, что криминал не стоит на месте, и развивает технологии, а потому надеяться только на то, что в голосе близкого удастся распознать роботизированные нотки, не стоит. Лучше перепроверять информацию по максимально возможным источникам.

«Даже я не могу быть уверен, что ко мне обратились за интервью, - пояснил журналисту Михаил Марцинюк. – Убедил меня в подлинности прикрепленный номер телефона».

Хотя, как уже было сказано, и он не является панацеей. Эксперт считает, что IT-корпорациям стоит обратить внимание на проблему и разработать технологии распознавания нейросетевых фейков.

Ранее Михаил Марцинюк предложил вести уроки в красноярской школе нейроСталину.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру