Combina «profundo» del aprendizaje profundo con «falso» y tendrás «deepfake», un método que utiliza la inteligencia artificial para crear imágenes humanas, a menudo con una voz sincronizada con los labios. El resultado final puede ser muy convincente, y la intención suele ser burlarse de un famoso o un político para desacreditarlo. Pero, ¿podría haber también peligros más amplios?
Este parece ser el caso, sobre todo cuando se trata de interferir en las elecciones. Facebook dijo en enero que eliminaría todos los vídeos creados por IA y, mientras tanto, el año pasado, el Wall Street Journal citó un caso especialmente alarmante, relacionado con una voz «clonada».
¿Quién está al teléfono?
En él se informaba de que el director general de una empresa energética del Reino Unido fue engañado haciéndole creer que una llamada de su jefe en la empresa matriz alemana era auténtica. Al hombre del Reino Unido le dijeron que transfiriera 220.000 euros urgentemente a una cuenta en Hungría y lo hizo porque la persona que llamaba sonaba idéntica a la alemana, con la que había hablado muchas veces antes. El caso fue relatado por la aseguradora de la empresa, Euler Hermes, y su director general, Rüdiger Kirsch, dice que cree que se utilizó tecnología de pirateo de voz. Una vez efectuado el pago, hubo dos llamadas posteriores, una para decir que el pago no se había efectuado y otra para solicitar que el pago debía transferirse de nuevo. Para entonces, el director general del Reino Unido empezó a sospechar, y observó que la llamada se hacía desde Austria y no desde Alemania. Pero era demasiado tarde, el primer pago se había efectuado con éxito, y posteriormente se descubrió que se había trasladado rápidamente de la cuenta húngara a una en México y luego a otros lugares. Los delincuentes con conocimientos pueden utilizar la IA para crear audio sintético. Y también hay herramientas de IA llamadas codificadores y descodificadores que pueden ayudar a cambiar los rasgos faciales; incluso hay una aplicación llamada Zao que permite a los usuarios añadir sus rostros a una lista de personajes de TV y películas. Pero no se trata simplemente de parecerse a un famoso, esta tecnología podría permitir a delincuentes o incluso a antiguos empleados descontentos crear contenido malicioso que podría ser muy perjudicial.
Preocupación creciente
Por otra parte, una encuesta realizada este año a responsables de seguridad de la información que trabajan en servicios financieros reveló que existe una creciente preocupación por las falsificaciones profundas. La investigación de la empresa de tecnología biométrica iProov reveló que un 77% de estos profesionales están preocupados por la posibilidad de que las falsificaciones profundas se utilicen de forma fraudulenta, siendo los pagos en línea y los servicios bancarios personales los que se consideran más amenazados. A pesar de ello, sólo el 28% ha tomado alguna medida. Según el director general de iProov, Andrew Bud:
«Es probable que tan pocas organizaciones hayan tomado medidas porque no son conscientes de la rapidez con que evoluciona esta tecnología. Los últimos deepfakes son tan buenos que convencerán a la mayoría de las personas y sistemas, y cada vez serán más realistas
«.
Preocupaba especialmente a los responsables de la toma de decisiones la posibilidad de que las imágenes deepfake pudieran comprometer las defensas de reconocimiento facial. «La era en la que podemos creer en las pruebas de nuestros propios ojos está llegando a su fin. Sin una tecnología que nos ayude a identificar las falsificaciones, en el futuro todas las imágenes fijas y en movimiento serán sospechosas», afirmó Bud. Aunque tampoco es posible vigilar totalmente Internet, se ha informado de que Google ha publicado muestras de deepfake para que los investigadores puedan encontrar tecnologías de detección, mientras que Facebook y Microsoft están colaborando con universidades para ofrecer premios a los investigadores que desarrollen formas de detectar y prevenir la difusión de medios manipulados. En cuanto al fraude de voz, probablemente sea el más preocupante para los servicios financieros. Se entiende que los hackeos de voz se bloquean en gran medida cuando son los humanos quienes atienden las llamadas, pero el creciente uso de sistemas automatizados de reconocimiento de voz podría ser más fácil de penetrar. Está claro que existe potencial para que los delincuentes aprovechen la IA con fines fraudulentos, por lo que ahora es el momento de que el sector de los servicios financieros se ponga en guardia formando a su personal, añadiendo una verificación adicional e invirtiendo en tecnología contraria que intercepte las discrepancias.