Представьте себе ситуацию: звонит неизвестный номер телефона. Из трубки раздается вежливый голос, представляющийся сотрудником социологической службы. Он сообщает: «Мы проводим анонимный опрос с целью улучшения качества городских сервисов. Это не займет много времени, всего пару минут».
Вы любезно соглашаетесь, ведь это совсем несложно? Вопросы кажутся безобидными: «Пользуетесь ли вы общественным транспортом?», «Как вы оцениваете работу поликлиник?», «Какие социальные программы, на ваш взгляд, наиболее актуальны?»
Да, я готов ответить. Готов говорить спокойно, с разными оттенками в голосе, как будто мы действительно общаемся. Ну, как в жизни. Через пару минут – и разговор закончится. Даже не успеешь понять, зачем всё это вообще затевалось.
А стоило бы.
Через какое-то время, через несколько дней, вдруг выясняется – и ты просто диву даёшься! – что кто-то пытается с твоей карты деньги списать. Или, например, на твой телефон оформляют онлайн-кредит. А в банке тебе сухо сообщают: "Так вы же сами звонили, своим голосом операцию подтверждали."
Как же это всё так получается, а?
Добро пожаловать в век голосовых дипфейков
Мошенники с энтузиазмом осваивают свежие технологические решения. Прежде больше говорили о поддельных видео — дипфейках, где лица знаменитостей были смонтированы. Сегодня на первый план вышли голосовые дипфейки.
Нейронные сети позволяют создавать идентичные копии голоса любого человека. При этом не нужны долгие часы исходной записи, достаточно всего лишь 20 секунд качественной аудиозаписи с натуральной речью и разнообразной интонацией.
Именно в этот момент на арену выходят «социологические опросы», которые служат незаменимым инструментом для оперативного получения необходимой информации:
В ходе интервью респондент свободно выражает свои мысли, используя различные интонации.
Заданные вопросы провоцируют спонтанные ответы (как односложные "да-нет", так и развернутые высказывания).
Общение происходит в спокойной обстановке: дома, на работе, без отвлекающего шума окружающей среды.
Запись сохранена, после чего за работу принимается нейронная сеть. Спустя короткое время на выходе появляется цифровая копия вашего голоса. Такой "клон" может быть использован в системах голосовой идентификации банков, для звонков в службу поддержки, а также в мошеннических схемах.
Почему именно сейчас возникла опасность?
Ещё пару лет назад подобные технологии были привилегией больших лабораторий. Однако за последний год нейросети, синтезирующие голос, стали общедоступными. Сейчас каждый, кто захочет, может либо загрузить, либо приобрести доступ к соответствующему сервису.
Качество звучания поражает воображение:
Голос клона практически идентичен оригиналу;
Есть возможность имитировать широкий спектр эмоций, таких как радость, раздражение, или усталость;
Стало доступно конструирование фраз из новых слов, которые оригинальный человек никогда не использовал.
Раньше распознать подделку было просто: неестественный механический голос выдавал робота. Сейчас же отличить подделку от оригинала практически невозможно.
Именно поэтому возникла новая волна мошеннических схем:
Обзвон потенциальных жертв под предлогом проведения опросов;
Запись и сбор голосовых данных;
Создание дипфейков;
Использование полученного материала для обхода голосовой аутентификации.
Как ни странно, совсем недавно многие банки рекламировали нам "современную безопасную голосовую аутентификацию". Дескать, только ваш голос – это пропуск в личный кабинет. Но теперь эта же система превратилась в их "ахиллесову пяту".
Как себя обезопасить?
Рекомендации просты, но именно их соблюдение помогает:
Не принимайте участие в телефонных опросах с незнакомых номеров. Особенно если просят развернутые ответы.
Если вам звонят от имени «официальных организаций» — проверьте номер на сайте данной организации.
Не предоставляйте образцы своей речи незнакомцам: не диктуйте по телефону код из SMS, не повторяйте за собеседником текст, не произносите по их просьбе целые фразы.
Если услышали фразу «Это для контроля качества, повторите за мной…» — немедленно прекращайте разговор.
Имейте в виду: чем богаче интонационный рисунок, тем вероятнее, что перед вами фальсификация. Следовательно, если возникла необходимость общения с неизвестным человеком, избегайте эмоциональных реакций в своих ответах.
Что предпринять, если существует вероятность того, что ваш голос уже "записан"?
Прежде всего, тщательно контролируйте транзакции по всем вашим банковским счетам.
Далее, на время отключите функцию голосовой идентификации в банковских приложениях, если вы её используете.
Кроме того, проинформируйте ваших близких о вероятности мошеннических звонков, в которых может использоваться ваш голос.
Технологии подобного рода будут лишь совершенствоваться. Сейчас дипфейк можно создать за считанные минуты, в будущем это станет ещё проще.
Следовательно, наиболее эффективная защита — это бдительность и соблюдение правил цифровой безопасности.
Не забывайте, что ваш голос – это тоже биометрические данные. И в XXI веке этими данными могут воспользоваться в корыстных целях.