“Voice hacking”: Así puedes detectar si estás por caer en una estafa con voz creada por IA
El voice hacking es una técnica que utiliza inteligencia artificial para imitar voces y realizar estafas; cómo opera y cuáles son los métodos más comunes.

El voice hacking o clonación de voz es una técnica emergente que aprovecha los avances en inteligencia artificial (IA) para imitar voces humanas con una precisión sorprendente.
Esta práctica se ha convertido en una herramienta poderosa para los ciberdelincuentes, quienes utilizan voces falsas para cometer fraudes financieros, suplantaciones de identidad y ataques a dispositivos conectados.
adn Siempre Conmigo. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.
Comprender cómo funciona esta tecnología y cuáles son sus riesgos es fundamental para proteger la información personal y corporativa.
¿Qué es el voice hacking y cómo funciona?
Según el Instituto Nacional de Ciberseguridad de España (Incibe), el voice hacking es una forma de ciberataque que emplea algoritmos de inteligencia artificial para replicar la voz de una persona a partir de grabaciones reales.
A través de software de clonación de voz, los atacantes pueden generar mensajes falsos que parecen auténticos y utilizar estas imitaciones para manipular a las víctimas.
Esta técnica también se conoce como deepfake de voz y se ha vuelto especialmente peligrosa debido a su capacidad de engañar incluso a familiares, empleados y ejecutivos.
Una grabación de voz de apenas unos segundos puede ser suficiente para entrenar un modelo de IA y generar discursos completos con la misma entonación, ritmo y acento que la voz original.
¿Qué tipos de estafa se cometen con voice hacking?
Existen diversas modalidades de fraude relacionadas con el voice hacking, todas con un objetivo común: obtener acceso a información sensible o realizar acciones fraudulentas.
- Vishing o phishing por voz: se trata de llamadas telefónicas en las que los delincuentes se hacen pasar por representantes de instituciones financieras o gubernamentales. Aprovechan técnicas de ingeniería social para generar confianza y solicitar datos como contraseñas o números de cuenta.
- Suplantación de identidad con voz clonada: los atacantes utilizan IA para imitar la voz de una persona conocida, como un jefe, un familiar o un socio de negocios. Con este recurso, realizan llamadas para solicitar transferencias de dinero u obtener acceso a sistemas protegidos.
- Ataques a asistentes virtuales y dispositivos IoT: mediante comandos de voz falsificados, los delincuentes pueden interactuar con dispositivos como Alexa, Google Home o Siri. Esto les permite realizar compras no autorizadas, controlar sistemas de seguridad o acceder a datos personales almacenados en la nube.
¿Cómo identificar un intento de voice hacking?
Aunque las voces generadas por IA son cada vez más convincentes, existen señales que pueden ayudar a identificar una posible estafa basada en voice hacking.
Cambios sutiles en la entonación, frases incoherentes o una urgencia poco habitual en el mensaje pueden ser indicios de manipulación.
Además, los expertos recomiendan confirmar cualquier solicitud inesperada a través de otros canales de comunicación, como mensajes de texto o llamadas directas al número verificado de la persona.
Un caso reportado en España evidenció esta amenaza cuando una mujer recibió una llamada en la que la voz de su esposo le pedía que enviara información a un número desconocido.
Al verificar directamente con su pareja, se descubrió que él no había realizado la llamada. La voz, según los especialistas , fue generada artificialmente con IA a partir de grabaciones anteriores.
Advierten sobre estafas a vendedores de Marketplace
Adiós Wifi: La función que siempre se debe desactivar del teléfono para evitar peligros y estafas
Hay que desactivar esta función del teléfono móvil para evitar estafas. Conoce por qué mantener el WiFi encendido puede poner en riesgo tu seguridad
Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.