Síguenos

Estafas en WhatsApp: clonan voces de familiares con IA para robar dinero

WhatsApp es blanco de una nueva estafa que usa IA para clonar voces de seres queridos y pedir dinero urgente. Descubre cómo se realiza este engaño y cómo protegerte.

This browser does not support the video element.

Por: Reynol González

CIUDAD DE MÉXICO, México.- El mundo digital enfrenta un nuevo tipo de fraude en el que los estafadores clonan la voz de personas cercanas usando inteligencia artificial (IA) y la emplean para estafar a sus contactos mediante WhatsApp. Este tipo de estafa, conocido como 'vishing' o suplantación de voz, está causando alarma por la precisión con la que logra replicar voces de familiares.

Ver nota:
Las 3 estafas virtuales más comunes y cómo prevenirlas

¿Cómo operan las estafas en WhatsApp?

El modus operandi es sencillo pero efectivo: en un caso reciente que se hizo viral, un joven mostró cómo recibió audios a través de WhatsApp de alguien que parecía ser su mamá, pidiéndole dinero de manera urgente. Sin embargo, la voz era en realidad una copia artificialmente generada, una técnica que se apoya en la clonación de voz con IA.


¿Cómo se clona una voz con IA?

Para ejecutar este fraude, los ciberdelincuentes primero obtienen audios breves de la persona a la que pretenden imitar. Con solo unos segundos de audio, pueden entrenar un modelo de inteligencia artificial que replica el tono, timbre y ritmo de la voz original. Una vez logrado esto, se utilizan estos audios para convencer a los contactos de la víctima de que necesitan enviar dinero a una cuenta ajena.

Una vez que tienen una cuenta de WhatsApp bajo su control, los estafadores se contactan con familiares o amigos de la persona y les envían audios falsos con la voz clonada, pidiendo ayuda económica urgente. En este tipo de situaciones, la rapidez y la familiaridad de la voz suelen hacer que las víctimas actúen sin cuestionar el origen real de la petición.

¿Cómo obtienen acceso a cuentas?

Para lograr acceso a la cuenta de WhatsApp de la víctima, los estafadores primero obtienen su número y luego intentan registrar la cuenta en un nuevo dispositivo. WhatsApp envía un código de verificación al número de la víctima, y los delincuentes engañan a las personas haciéndoles creer que es necesario compartir ese código por alguna razón urgente.

¿Qué ocurre al obtener el código?

Cuando la víctima cae en la trampa y comparte el código de seis dígitos, los estafadores toman control de la cuenta y pueden acceder a todos sus contactos. Esto permite que el fraude se propague rápidamente, alcanzando a múltiples personas y aumentando el número de posibles víctimas.

Especialistas en ciberseguridad advierten que la tecnología de clonación de voz es cada vez más precisa, lo que dificulta que las personas detecten el engaño. Aunque los errores en dicción pueden ser una pista de que la voz es artificial, los avances tecnológicos minimizan estas fallas.

¿Qué riesgos trae la clonación de voz?

La clonación de voz es posible gracias a algoritmos de IA que generan una réplica exacta con sólo unos segundos de audio. Esta tecnología, usada para bien en entornos como el entretenimiento, también representa un riesgo importante en el ámbito de la ciberseguridad, donde su uso indebido puede tener consecuencias graves.

Para protegerse, los expertos recomiendan desconfiar de cualquier mensaje urgente que pida dinero y verificar directamente con la persona antes de realizar cualquier transferencia. También es clave no compartir códigos de verificación ni datos sensibles a través de mensajes o llamadas inesperadas.

Pasos para evitar la clonación de voz y proteger tu cuenta de WhatsApp


A medida que la tecnología avanza, los riesgos también crecen, y este nuevo tipo de estafa es una muestra de cómo la inteligencia artificial puede ser una herramienta para el fraude. Mantenerse informado y alertar a otros puede ser la mejor forma de frenar el alcance de estas prácticas.