Es posible que haya visto un sitio web llamado ThisPersonDoesNotExist.com haciendo las rondas, que utiliza inteligencia artificial para generar caras falsas sorprendentemente realistas.
Bueno, aquí está la secuela: WhichFaceIsReal.com, que te permite probar tu capacidad para distinguir las falsificaciones generadas por AI del artículo original. Simplemente, dirígete al sitio y haz clic en quien crees que es la persona real.
Generación de Caras Falsas
WhichFaceIsReal.com también tiene un propósito más alto, sin embargo. Fue creado por dos académicos de la Universidad de Washington, Jevin West y Carl Bergstrom, quienes estudian cómo se difunde la información en la sociedad. Piensan que el aumento de las falsificaciones generadas por la IA podría ser un problema, socavando la confianza de la sociedad en la evidencia, y quieren educar a las masas.
«Cuando aparece una nueva tecnología como esta, el período más peligroso es cuando la tecnología está disponible, pero el público no lo sabe», dice Bergstrom a The Verge . «Ahí es cuando se puede utilizar con mayor eficacia».
«Entonces, lo que estamos tratando de hacer es educar al público, hacer que la gente se dé cuenta de que esta tecnología está disponible», dice West. «Al igual que al final, la mayoría de las personas se dieron cuenta de que puedes crear una imagen con Photoshop».
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/13762264/fake_ai_faces.png)
Ambos sitios emplean un método de aprendizaje automático conocido como una red de confrontación generativa (o GAN para abreviar) para generar sus falsificaciones. Estas redes funcionan analizando a través de enormes pilas de datos (en este caso, muchos retratos de personas reales); aprendiendo los patrones dentro de ellos, y luego intentando replicar lo que han visto.
La razón por la que los GAN son tan buenos es que se prueban a sí mismos. Una parte de la red genera caras falsas y la otra las compara con los datos de entrenamiento. Si puede notar la diferencia, el generador se envía de vuelta al tablero de dibujo para mejorar su trabajo. Piensa en ello como un profesor de arte estricto que no te dejará salir de la clase hasta que dibujes el número correcto de ojos en tu retrato de carbón. No hay espacio para Picassos, solo realismo.
Estas técnicas se pueden utilizar para manipular audio y video, así como imágenes. Aunque existen limitaciones en cuanto a lo que pueden hacer tales sistemas (no puede escribir un título para una imagen que desea que exista y hacerla mágica) están mejorando constantemente. Deepfakes puede convertir videos de políticos en títeres e incluso pueden convertirte en un gran bailarín.
Con este caso de caras falsas generadas por la IA, Bergstrom y West observan que un uso malicioso podría estar difundiendo información errónea después de un ataque terrorista. Por ejemplo, la inteligencia artificial podría usarse para generar un culpable falso que se distribuye en línea y se difunde en las redes sociales.
En estos escenarios, los periodistas generalmente intentan verificar el origen de una imagen, empleando herramientas como la búsqueda de imagen inversa de Google. Pero eso no funcionaría en una falsificación de inteligencia artificial. «Si desea inyectar información errónea en una situación como esa, si publica una foto del autor y es alguien más, se corregirá muy rápidamente», dice Bergstrom. “¿Pero si utilizas una foto de alguien que no existe en absoluto? Piensa en la dificultad de rastrear eso”.
Señalan que los académicos y los investigadores están desarrollando muchas herramientas que pueden detectar errores profundos. «Mi entendimiento es que en este momento en realidad es bastante fácil de hacer», señala West. Y al tomar la prueba anterior, probablemente descubrió que podría diferenciar entre las caras generadas por la IA y las personas reales. Hay varios indicios, que incluyen caras asimétricas, dientes desalineados, cabello poco realista y orejas que, bueno, no se parecen a las orejas.
Pero estas falsificaciones mejorarán. En otros tres años [estas falsificaciones] serán indistinguibles”, dice West. Y cuando eso suceda, saber será la mitad de la batalla. Dice Bergstrom: “Nuestro mensaje no es que la gente no deba creer en nada. Nuestro mensaje es el opuesto: no seas crédulo”.