Deep fake: así será la manipulación del futuro

Un algoritmo empezó a jugar con imágenes de Obama, y ahí nació la propaganda del futuro: los vídeos manipulados que intentarán alterar (aún más) la realidad

Imagine un vídeo en el que usted está hablando. Es usted, es su voz, son sus palabras. Pero es falso. Lo ve, pero no se lo puede creer, porque sabe que es mentira. Que en ese momento usted no estaba diciendo eso. Incluso que no dijo jamás aquello que está viendo y oyendo. A eso se le llama deep fakes, los vídeos manipulados, la temible evolución de las fake news.

Y el problema no es que a usted le puedan mandar ese vídeo y gastarle una broma. El problema es que ese vídeo lo pueden ver otros y creerlo porque, al fin y al cabo, es usted el que habla y el que aparece en la imagen. ¿Por qué iba a ser mentira? O, mejor dicho: ¿cómo es posible que sea mentira?

La respuesta está en un algoritmo que se dio a conocer gracias a la Universidad de Washington, que presentó hace dos años el proyecto piloto Synthesizing Obama, en el que el personaje en cuestión era el ex presidente de EEUU Barack Obama. Se le puede ver en un lado de la pantalla decir una cosa, y en el otro lado, con otra ropa y en otro lugar, decir exactamente lo mismo.

Ese algoritmo es capaz de manipular vídeos sincronizando sonidos con movimientos faciales. Sobre todo los de los labios, pero también el arqueado de las cejas, las respiraciones, los ojos. Y sus posibilidades, más allá de lo lúdico, son peligrosas si se utilizan para manipular información.

El fenómeno empezó de manera un poco burda, adaptando movimientos de la boca a sonidos, pero se fue mejorando con una asombrosa calidad.

Algunas actrices famosas, como Scarlett Johansson, han sido ya víctimas de este tipo de vídeos, pero con una versión que no busca precisamente hacerle decir lo que no ha dicho. De hecho, se busca más la imagen que la palabra: pusieron su cara en vídeos porno, donde la actriz es real, pero le cambian la cara hasta hacerla parecer ella.

Y esto no ha hecho más que empezar. Ante la posibilidad de que se utilice con fines políticos o delictivos, ya hay quienes han dado la voz de alarma. La OTAN, por ejemplo. ¿Qué pasaría si en ese vídeo manipulado un líder político aparece diciendo barbaridades? ¿O si el tratamiento de la imagen mostrara a algún personaje muy relevante cometiendo un delito? Una vez que echara a rodar, la mentira sería imparable.

Un experto del Centro Criptológico Nacional (CCN), organismo que depende del CNI, explica a este periódico que los deep fakes «evolucionan muy rápido desde que se conocieron los vídeos pornográficos manipulados y el tema se puso en el disparadero tras ver los de Obama». [Concretamente, una versión maliciosa de aquel experimento en el que Obama decía que Trump era «un idiota»].

Leer nota completa: https://www.elmundo.es/papel/historias/2019/05/08/5cd1a8a7fdddff4c618b46d2.html