Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. При этом аферистам достаточно получить небольшой фрагмент речи человека, чтобы воссоздать не только тембр, но и интонации и манеру разговора.
Все это затем используется для самых разнообразных схем обмана. К примеру, мошенники могут связаться с близкими или коллегами человека, чей голос они скопировали, и вполне правдоподобно ввести их в заблуждение просьбой о помощи или призывом перевести средства на какой-либо банковский счет.
Сегодня существуют технологии, позволяющие распознать подделку голоса, однако угроза все же существует. Поэтому в Роскачестве настоятельно рекомендуют не брать трубку, если кто-либо звонит с подозрительного или просто незнакомого номера, проявлять крайнюю осторожность, размещая в мессенджерах или социальных сетях голосовые сообщения и другой контент.
Кроме того, необходимо регулярно использовать антивирусное и антишпионское ПО, чтобы своевременно обнаруживать программы, способные украсть персональную информацию.