La IA generativa está desempeñando un papel cada vez más importante en las estafas telefónicas, y las llamadas falsas relacionadas con cuentas o compras de Amazon se encuentran entre las principales estafas en 2023. Estas son dos de las conclusiones del último estudio sobre fraude telefónico y spam realizado por una startup de Seattle. Hola.
El spam se define como llamadas no deseadas de personas que no son contactos e incluye tanto llamadas fraudulentas como llamadas molestas.
En su informe del jueves, Hiya dijo que en la primera mitad de 2023, la startup de seguridad telefónica observó más de 98 mil millones de llamadas entrantes en todo el mundo. El veinte por ciento de las llamadas no identificadas fueron marcadas como spam, el 5% como fraude y el 75% no fueron marcadas. En todo el mundo, el usuario medio de un teléfono móvil recibe aproximadamente 14 llamadas no deseadas al mes.
Por primera vez, el estudio de Hiya incluye una lista de las estafas telefónicas más comunes del año, con llamadas relacionadas con el gigante del comercio electrónico Amazon, con sede en Seattle, a la cabeza.
“Imitadores de Amazon pueden decir que sospechan de una compra no autorizada, o que la tarjeta de crédito vinculada a la cuenta necesita ser actualizada”, dijo Hiya en su informe. “A menudo, los estafadores comienzan con una llamada automática, y si el destinatario cae en la trampa y presiona un número, un operador en vivo se acercará e intentará que la víctima revele su información de inicio de sesión de Amazon o un número de tarjeta de crédito”.
Otras estafas telefónicas importantes, rastreadas por Hiya, incluyen aquellas relacionadas con seguros, Medicare, tarjetas de crédito, criptomonedas, seres queridos, aplicaciones de pago y garantías de automóviles.
El aumento de la inteligencia artificial y la IA generativa también se está notando en las estafas telefónicas en todo el mundo, donde se utilizan clones de voz para engañar a las víctimas, informó Hiya.
Las estafas de voz basadas en inteligencia artificial pueden adoptar diversas formas, como hacerse pasar por funcionarios gubernamentales, profesionales médicos o proveedores de servicios. Al aprovechar las voces generadas por IA, los estafadores pueden manipular las emociones, el tono y la entonación, lo que dificulta que las víctimas detecten la ilegitimidad de la llamada.
Axios informó anteriormente que “la IA generativa ha bajado el listón para los ciberdelincuentes que buscan clonar la voz de alguien y utilizarla en sus planes. Los ciberdelincuentes ahora necesitan tan solo tres segundos de la voz de alguien para clonarlo con éxito y hacerlo utilizable en una llamada fraudulenta”.
Hiya dijo que los estafadores pueden obtener fácilmente un clip de voz con audio del YouTube de una persona u otro sitio de redes sociales, o incluso de un saludo grabado en el correo de voz de una persona. A menudo, estas voces se utilizan junto con estafas dirigidas a sus seres queridos.
A principios de este año, la Fiscalía del Condado de King advirtió a los residentes del área de Seattle sobre una estafa telefónica en la que las personas que llamaban afirmaban ser agentes del orden o agentes de la Oficina del Sheriff del Condado de King.