Los fraudes telefónicos con inteligencia artificial (IA) han comenzado a multiplicarse en México, situación que encendió las alarmas de la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef).
Estas nuevas formas de engaño utilizan herramientas de IA para imitar la voz de familiares cercanos, como hijos o hermanos, con el fin de obtener información confidencial o dinero.
Delincuentes usan IA para suplantar la voz de tus seres queridos
De acuerdo con la Condusef, los delincuentes recopilan muestras de voz extraídas de redes sociales, mensajes o videos, y luego las procesan con sistemas de inteligencia artificial que imitan el tono, timbre y forma de hablar de una persona. Con estas imitaciones, llaman a las víctimas fingiendo emergencias familiares para manipularlas y extorsionarlas.
Estas técnicas, según advierten las autoridades, tienen un alto nivel de sofisticación y son capaces de engañar fácilmente, incluso a personas con experiencia en fraudes. En los últimos meses, se ha observado un notable incremento en este tipo de delitos, impulsado por el fácil acceso a contenido de voz en plataformas digitales.
Te puede interesar: Tormenta Tropical Dexter: esta es tu trayectoria y estados que afectaría
¿Cómo prevenir ser víctima?
La Secretaría de Seguridad y Protección Ciudadana (SSPC), en coordinación con la Condusef, ha emitido una serie de recomendaciones para reducir los riesgos. Entre ellas destacan:
- No compartir información personal o financiera por teléfono.
- Colgar inmediatamente si se recibe una llamada sospechosa y contactar directamente al familiar en cuestión.
- Evitar publicar grabaciones de voz o información sensible en redes sociales.
- Establecer con familiares una palabra clave para identificar emergencias reales.
También se exhorta a reportar cualquier intento de fraude a las autoridades competentes, incluidos bancos, Condusef y la policía cibernética. Estos reportes pueden ayudar a prevenir más víctimas y frenar la proliferación del delito.
Un estudio reciente citado por la SSPC reveló que 1 de cada 10 personas ha recibido un mensaje generado con voz clonada por IA, y un 77% de los encuestados admitió haber sido víctima de un fraude de este tipo, cifras que reflejan la velocidad con la que se está expandiendo esta amenaza en México.
📲 ¡Síguenos en nuestro canal de difusión de WhatsApp! —>Solo da clic aquí
Y para esta y más información, síguenos también en nuestras múltiples redes sociales: en Facebook nos encuentras como Azteca Chihuahua, vía Twitter @aztecachihuahua. Instagram como @tvaztecachihuahua y TikTok @tvaztecachihuahua o también visita más notas en nuestro sitio web www.aztecachihuahua.com
Quizás te interese: Adán Augusto López enfrenta señalamientos por presuntos vínculos con red criminal en Tabasco