Alertan por fraudes con voz clonada mediante IA en México

La Condusef advierte sobre una nueva modalidad de fraudes que utiliza IA para clonar la voz de familiares y extorsionar a víctimas. Aprende a identificar estas estafas y protegerte.

Clonación de voz
Envato | @itchaznong
Noticias
Compartir
  •   Copiar enlace

Los fraudes telefónicos con inteligencia artificial (IA) han comenzado a multiplicarse en México, situación que encendió las alarmas de la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef).

Estas nuevas formas de engaño utilizan herramientas de IA para imitar la voz de familiares cercanos, como hijos o hermanos, con el fin de obtener información confidencial o dinero.

Quizás te interese: Clausuran funeraria en Chihuahua capital por irregularidades en levantamiento de cuerpos

Delincuentes usan IA para suplantar la voz de tus seres queridos

De acuerdo con la Condusef, los delincuentes recopilan muestras de voz extraídas de redes sociales, mensajes o videos, y luego las procesan con sistemas de inteligencia artificial que imitan el tono, timbre y forma de hablar de una persona. Con estas imitaciones, llaman a las víctimas fingiendo emergencias familiares para manipularlas y extorsionarlas.

Estas técnicas, según advierten las autoridades, tienen un alto nivel de sofisticación y son capaces de engañar fácilmente, incluso a personas con experiencia en fraudes. En los últimos meses, se ha observado un notable incremento en este tipo de delitos, impulsado por el fácil acceso a contenido de voz en plataformas digitales.

Te puede interesar: Tormenta Tropical Dexter: esta es tu trayectoria y estados que afectaría

¿Cómo prevenir ser víctima?

La Secretaría de Seguridad y Protección Ciudadana (SSPC), en coordinación con la Condusef, ha emitido una serie de recomendaciones para reducir los riesgos. Entre ellas destacan:

  • No compartir información personal o financiera por teléfono.
  • Colgar inmediatamente si se recibe una llamada sospechosa y contactar directamente al familiar en cuestión.
  • Evitar publicar grabaciones de voz o información sensible en redes sociales.
  • Establecer con familiares una palabra clave para identificar emergencias reales.

También se exhorta a reportar cualquier intento de fraude a las autoridades competentes, incluidos bancos, Condusef y la policía cibernética. Estos reportes pueden ayudar a prevenir más víctimas y frenar la proliferación del delito.

Quizás te interese: Sebastián Yatra desata polémica con sugestivo acto que simula desnudo en pleno concierto | VIDEO

Un estudio reciente citado por la SSPC reveló que 1 de cada 10 personas ha recibido un mensaje generado con voz clonada por IA, y un 77% de los encuestados admitió haber sido víctima de un fraude de este tipo, cifras que reflejan la velocidad con la que se está expandiendo esta amenaza en México.

📲 ¡Síguenos en nuestro canal de difusión de WhatsApp! —>Solo da clic aquí

Y para esta y más información, síguenos también en nuestras múltiples redes sociales: en Facebook nos encuentras como Azteca Chihuahua, vía Twitter @aztecachihuahua. Instagram como @tvaztecachihuahua y TikTok @tvaztecachihuahua o también visita más notas en nuestro sitio web www.aztecachihuahua.com

Quizás te interese: Adán Augusto López enfrenta señalamientos por presuntos vínculos con red criminal en Tabasco

[VIDEO] Legisladores de oposición exigen que el coordinador de Morena en el Senado, Adán Augusto López, responda a las acusaciones que lo relacionan con Hernán Bermúdez Requena.

  • Regional News US
Contenido Relacionado
×
×