Hace unas semanas nos hicimos eco en Xataka de cómo la inteligencia artificial está siendo utilizada para el fraude de diversas formas. En
este artículo contamos la historia de
Ruth Card, de 73 años, una mujer mayor que recibió una llamada del que parecía ser su nieto
Brandon, pero que en realidad era un grupo de estafadores: "Abuela, estoy en la cárcel, sin cartera, sin teléfono. Necesito dinero para la fianza". El timo se realizó usando un deepfake de audio que imitaba la voz de su nieto mientras se realizaba la llamada.
La cosa no ha quedado ahí. Este tipo de estafas
ha evolucionado rápidamente en los últimos meses con la incipiente creación de herramientas de IA y ya se usan clonaciones de voz e incluso de vídeo de una persona para estafar a sus familiares por videollamada.
IA con el objetivo de estafar. Tal y como señala El Mundo en
este artículo, un hombre del norte de China recibió una videollamada por WeChat de su mujer. Esta le pidió 3,600 euros porque había tenido un accidente de coche y tenía que solucionar la situación con el otro conductor. Claro está, no era su mujer. Y aunque le llamó desde otra cuenta, el hombre cayó en la trampa ya que la cara que aparecía en la videollamada gesticulando y hablando con su mismo tono de voz era la de su mujer. Aunque se trataba de otra imitación con IA.