
¿Qué harías si recibes un audio de WhatsApp y al reproducirlo escuchas la voz de un familiar cercano o un conocido pidiéndote que le envíes un mensaje urgente? Este escenario, que parece sacado de una película de ciencia ficción, es ahora una realidad gracias a los avances en inteligencia artificial.
Recientemente, varios usuarios han denunciado casos así, algunos incluso de forma pública en la antigua Twitter, donde se puede ver similitud de la voz. Este incidente revela una tendencia alarmante que ya ha diagnostica el INCIBE: el uso de deepfakes de voz para cometer fraudes.
¿Cómo están utilizando los ciberdelincuentes esta tecnología y qué podemos hacer para protegernos?
El auge de los deepfakes de voz
El modus operandi suele ser el siguiente: un usuario recibe una llamada de un número desconocido. Al contestar, escucha la voz de un familiar pidiéndole que enviara un mensaje a otro número. Normalmente, un número de acceso a la banca online o para realizar grandes compras.
Pero: ¿Cómo logran recrear la voz?
No es mi número, pero la persona en cuestión no lo sabía y ha estado cerca de caer.
— Sergi Benet (@sergibenet) January 12, 2024
Además, iba acompañado de esta nota de audio, que tampoco soy yo, pero da miedo porque SÍ se parece MUCHO a mi voz.
Escucha: pic.twitter.com/SuIwVItHnl
Normalmente los delicuentes parten de grabaciones que los usuarios suben a sus redes sociales, o recrean una llamada de supuestos servicios de soporte o de ofertas para efectuar la grabación. Después, utilizan herramientas de IA para clonar la
Esta tecnología permite a los ciberdelincuentes crear audios convincentes con apenas unos segundos de grabación. La inteligencia artificial ha avanzado a tal punto que los deepfakes de voz pueden imitar con precisión el tono, la inflexión y las características únicas de cualquier voz humana.
Este tipo de tecnología se basa en algoritmos de aprendizaje profundo que analizan y replican patrones de voz. Así, los ciberdelincuentes pueden engañar a sus víctimas con audios que suenan auténticos y familiares.
La suplantación de voz y el fraude del CEO
Esta técnica de deepfake de voz no es nueva en el mundo del fraude digital. Las fuerzas de seguridad han registrado numerosos casos de 'fraude del CEO', donde se suplantan voces de altos ejecutivos para engañar a empleados y realizar transferencias bancarias.
Por ejemplo, a principios de año, la Policía de Hong Kong documentó un caso en el que una multinacional perdió 25 millones de dólares tras una videollamada con ejecutivos falsos generados por inteligencia artificial.
En estos casos, los delincuentes estudian minuciosamente a sus objetivos y preparan sus ataques con gran detalle. Utilizan deepfakes no solo para suplantar la voz, sino también la imagen de los ejecutivos, creando reuniones virtuales convincentes. Los empleados, confiados en la autenticidad de la comunicación, proceden a cumplir con las solicitudes fraudulentas, resultando en pérdidas millonarias.
Ahora, esta táctica sofisticada se está utilizando también contra ciudadanos corrientes.
Cómo prevenir y reaccionar ante estos fraudes
El INCIBE, el instituto nacional de ciberseguridad, ha compartido unas pautas a seguir ante estos fraudes.
De forma reactiva:
- Avisar a otros contactos de lo sucedido para que estén alerta en caso de recibir alguna llamada similar.
- Bloquear el número de teléfono desde el que recibió la llamada.
- Utilizar las herramientas de colaboración ciudadana para informar a la Policía Nacional o a la Guardia Civil sobre el número fraudulento.
- Practicar egosurfing para intentar localizar si existe información personal publicada sin su consentimiento y en caso de encontrarla, solicitar su eliminación a la plataforma o en caso de negativa, comunicar la situación a la Agencia Española de Protección de Datos.
De forma preventiva:
- Tal y como realizó correctamente, en caso de recibir una llamada sospechosa, contrastar la información con la persona que dice llamar.
- Nunca facilitar datos personales ni bancarios.
- No seguir indicaciones, como entrar en enlaces, descargar aplicaciones, etc.
- Acordar una palabra "clave" entre sus familiares y amigos para poder corroborar su identidad en comunicaciones sospechosas.
Además, el INCIBE tiene abierto el número 017 para cualquier consulta relacionada con la ciberseguridad.
Formación de IA
Si quieres transformar tu productividad y potenciar tu carrera a través de la IA, la escuela The Valley junto a elEconomista.es, ofrece un curso semipresencial diseñado para perfiles que buscan incorporar las últimas herramientas y técnicas de inteligencia artificial en su trabajo diario. Aprende de expertos del sector y adquiere habilidades prácticas que te diferenciarán en el competitivo mercado laboral, accediendo a puestos mejor remunerados y con mayores oportunidades de trabajo. Además, por ser lector de eleconomista.es, obtendrás un 10% de descuento en la inscripción. No dejes pasar esta ocasión de avanzar en tu desarrollo profesional y apúntate aquí.
Relacionados
- Facua denuncia "un fraude masivo a los consumidores" por el precio del aceite de oliva
- El SEPE alerta de un fraude que les suplanta telefónicamente: estos son sus dos únicos números de teléfono
- Los bufetes alertan del fraude en las bajas laborales y la falta de medios contra ellas
- La Guardia Civil y Hacienda desarticulan un red de fraude de carburantes de 100 millones