¿Qué es una estafa familiar de clones de voz de IA? Cómo detectarlo

By DiarioTiempo



Es tarde en la noche. Tus padres reciben un mensaje de voz tuyo lleno de pánico, diciéndoles que estás en problemas, que te han robado la cartera y que estás atrapado en medio de la nada. Es necesario enviarle dinero inmediatamente para que pueda regresar a casa.

La voz en el mensaje suena muy real y es inconfundiblemente la de su hijo, sólo que no lo es. Es un clon de voz de IA y se han convertido en el objetivo de una estafa que es tan innovadora como escalofriantemente efectiva.


¿Cómo funciona una estafa de clonación de voz con IA?

La clonación de voz puede crear réplicas digitales increíblemente realistas de la voz de una persona. Esta técnica, comúnmente llamada audio deepfake, se crea con herramientas de clonación de voz con IA como ElevenLabs (consulte el ejemplo de clonación de voz con IA a continuación). Combinada con IA generativa y síntesis de voz, la voz clonada puede replicar emociones, matices, entonación e incluso miedo.


Y como referencia, así es como realmente suena Christian Cawley, hablando en The Really Useful Podcast.

Para crear un clon de voz de IA, solo se requiere una pequeña muestra de voz, a menudo solo un minuto o menos. A menudo se toman muestras de voces de publicaciones públicas en las redes sociales, lo que hace que los videoblogueros y personas influyentes sean particularmente vulnerables, ya que la calidad del audio de sus publicaciones es alta y está fácilmente disponible.

Una vez que los estafadores clonan la muestra de voz, utilizan texto a voz o incluso voz a voz en tiempo real para crear llamadas y mensajes de voz falsos.

Tras acceder a las redes sociales de la víctima y reunir sus datos personales, el estafador crea un escenario creíble. Esto puede ser una hospitalización, un arresto, un robo, un secuestro, cualquier cosa que genere miedo. Luego, la voz clonada se utiliza para manipular a un miembro de la familia haciéndole creer que un ser querido está en serios problemas.


El realismo de la voz y las emociones, combinado con la conmoción y la urgencia de la solicitud, pueden anular el escepticismo y llevar a decisiones apresuradas para transferir dinero o proporcionar información confidencial.

Por qué las estafas de clonación de voz mediante IA son tan efectivas

Como la mayoría de las estafas dirigidas a familiares y amigos, la estafa de clonación de voz con IA es eficaz porque explota los vínculos personales. El pánico de recibir una llamada de socorro de un ser querido puede nublar rápidamente el juicio y dar lugar a decisiones precipitadas. Es la misma táctica que se utiliza en las estafas quid pro, pero el efecto se ve agravado al escuchar la voz de alguien cercano a usted.

Los familiares de quienes tienen una alta presencia en las redes sociales o de quienes viajan corren un riesgo particular porque sus situaciones brindan un contexto plausible para la narrativa inventada del estafador. Los estafadores a menudo recopilan y utilizan los datos privados de sus objetivos de sus cuentas públicas de redes sociales con anticipación, lo que hace que las historias sean aún más convincentes.

Señales clave de una estafa de clonación de voz de IA

A pesar de su sofisticación, las estafas de clonación de voz con IA pueden revelarse a través de señales de alerta específicas:


  • Urgencia: El estafador lo convencerá de que algo terrible sucederá si no se toman medidas de inmediato.
  • Hechos: Los estafadores no siempre conocen la historia completa detrás de su relación con el objetivo, así que preste atención a las inconsistencias.
  • Solicitudes inusuales: Las solicitudes de transferencias de dinero a cuentas bancarias en el extranjero o pagos a una billetera de criptomonedas son tácticas comunes.

Es difícil considerar estos factores cuando se presenta un escenario terrible, pero podría evitar que lo estafen.

Qué hacer si sospecha de una estafa de clonación de voz de IA

Si recibe una llamada o un mensaje de voz de sus seres queridos en apuros, mantenga la calma. Los estafadores confían en que usted entre en pánico y se emocione, ya que esto aumenta su vulnerabilidad a sus tácticas.

Si recibe una llamada telefónica

Si sospecha, aunque sea por un segundo, que una llamada puede ser una estafa de clonación de voz, cuelgue inmediatamente la llamada. No comparta ninguna información y no interactúe con estafadores. En su lugar, llame a su ser querido a un número conocido para confirmar la autenticidad de la llamada de socorro.


Si sigues conversando con los estafadores, puedes correr el riesgo de que tu voz también sea grabada y clonada.

Si recibe un mensaje de voz

Si los estafadores dejaron un mensaje de voz, guarde el audio en su teléfono o computadora portátil inmediatamente. Esta muestra de audio se puede utilizar en una herramienta clasificadora de voz de IA para determinar si se trata de una voz humana. Estos clasificadores de voz con IA funcionan igual que los detectores de escritura con IA. Simplemente ingrese el archivo de audio y el clasificador lo marcará como humano o generado por IA.

Una gran herramienta para realizar esta comprobación es el clasificador de voz de ElevenLabs. ElevenLabs impulsa la mayoría de las plataformas de clonación de IA, por lo que es una herramienta ideal para determinar si se ha clonado una voz. Así es como puedes usarlo para determinar una voz clonada por IA:

  1. Ve al Clasificador de voz de ElevenLabs.
  2. Cargue una muestra del mensaje de voz y haga clic en «Detectar voz sintetizada».

En el siguiente ejemplo, un humano grabó un mensaje angustioso y lo cargó en el clasificador. Puede ver que se ha marcado con un 2% de probabilidad de ser manipulado.


En el siguiente ejemplo, el mismo mensaje angustioso se produjo con una herramienta de clonación de voz de IA. Para el oído humano, las voces son indistinguibles. La herramienta, sin embargo, ha marcado que tiene un 98% de probabilidad de ser generado por IA.

Si bien no puede confiar en este clasificador al 100%, puede confirmar sus sospechas de que se está utilizando una voz clonada. También debe comunicarse con su ser querido a un número conocido para confirmar.

La prevención es la mejor defensa contra las estafas de clonación de voz mediante IA

A veces, la mejor defensa contra una estafa de alta tecnología es una solución de baja tecnología.


Establezca una contraseña fuera de línea que solo conozcan sus seres queridos, su familia y amigos. En caso de una llamada frenética, usar esta contraseña puede ser una forma segura de confirmar la identidad de la persona que llama.

Finalmente, mantener su información privada fuera de las redes sociales es un gran paso para garantizar que los estafadores no puedan recopilar suficiente información para construir una narrativa. Recuerda: si no quieres que todo el mundo lo sepa, es mejor no compartirlo en las redes sociales.

Anterior

Siguiente