Clicky

Fawkes detendrá al reconocimiento facial en 2023

El SAND Lab de la Universidad de Chicago ha creado Fawkes, un algoritmo y una herramienta de software (que se ejecuta en la computadora del usuario) que les permite a las personas limitar la forma en que terceros desconocidos pueden rastrearlos mediante la creación de modelos de reconocimiento facial a partir de sus fotos disponibles públicamente.

La llegada de la tecnología de reconocimiento facial ha traído consigo la promesa de grandes beneficios, especialmente para las fuerzas del orden que usan el reconocimiento facial para detectar y atrapar delincuentes, rastrear transacciones en cajeros automáticos y encontrar niños desaparecidos.

También contribuyó a proteger los datos y desbloquear los teléfonos, organizar nuestras masivas colecciones de fotos haciendo coincidir los nombres con los rostros, etc. 

Sin embargo, la idea de una población cada vez más supervisada sugiere a muchos la gradual erosión de nuestra privacidad.

Se han planteado inquietudes respecto a las consecuencias de una identificación errónea, especialmente en aquellas situaciones que implican delitos graves.

Los investigadores crearon un programa que ayuda a las personas a protegerse de los programas que podrían tomar sus imágenes sin su consentimiento e identificarlas en enormes grupos de bases de datos.

¿Qué es Fawkes?

La tecnología Fawkes, o mascará de Fawkes, efectúa pequeñas modificaciones a los píxeles de las imágenes, las cuales son imperceptibles a simple vista, pero distorsionan la imagen de manera que no pueda ser capturada por los raspadores de imágenes en línea.

“En esencia, lo que estamos haciendo es usar la foto encubierta como un caballo de Troya para corromper modelos no autorizados», dijo el cocreador de Fawkes, Ben Zhao, profesor de ciencias de la computación en la Universidad de Chicago. 

Los investigadores señalan que Fawkes ha logrado eludir los sistemas de reconocimiento facial, que suelen ser inofensivos, utilizados por Facebook, Microsoft y Amazon.

Fawkes “envenena” a los modelos que intentan aprender cómo te ves, colocando cambios ocultos en sus fotos y usándolos como caballos de Troya para entregar ese veneno a cualquier modelo de reconocimiento facial suyo, en un nivel alto. 

LEA TAMBIÉN:  Nueva alianza industrial NICE para el ecosistema de cámaras inteligentes de próxima generación

¿Cómo trabaja Fawkes?

Fawkes toma sus imágenes personales y realiza pequeños cambios entre píxeles que son imperceptibles para el ojo humano, en un proceso que llamamos encubrimiento de imágenes.

 A continuación, puede emplear estas fotografías “ocultas” de la misma forma que lo haría con cualquier otra imagen, compartiéndolas en las redes sociales, enviándolas a amigos, imprimiéndolas o mostrándolas en dispositivos digitales.

 La diferencia, no obstante, es que si alguien intenta utilizar estas fotos para construir un modelo de reconocimiento facial, las imágenes “enmascaradas” le enseñarán al modelo una versión altamente distorsionada de lo que te hace parecer a ti. 

El efecto de ocultamiento no es fácilmente detectable por humanos o máquinas y no producirá errores en el entrenamiento del modelo.

Fawkes ha sido sometido a una exhaustiva prueba y ha demostrado su eficacia en una variedad de entornos y es 100 % eficaz contra los modelos de reconocimiento facial de última generación (Microsoft Azure Face API, Amazon Rekognition y Face+ )

Donde conseguir más información

De momento, consulte el enlace al documento técnico, que se presentó en el Simposio de seguridad de USENIX, que tuvo lugar del 12 al 14 de agosto de 2000.

El proyecto Fawkes está dirigido por dos estudiantes de doctorado en el SAND Lab, Emily Wenger y Shawn Shan, con importantes contribuciones de Jiayun Zhang (visitante del SAND Lab y actual estudiante de doctorado en UC San Diego) y Huiying Li, también estudiante de doctorado del SAND Lab. 

Los asesores de la facultad son los codirectores del laboratorio SAND y los profesores Neubauer Ben Zhao y Heather Zheng.

Los desarrolladores de Fawkes también lograron frustrar con éxito el reconocimiento de Clearview AI, pero cuando comenzaron su investigación, ni siquiera conocían el programa.

Ejemplo de imágenes camufladas o enmascaradas

A continuación un ejemplo de imágenes camufladas y sus originales. ¿Puedes decir cuál es el original? (Imagen enmascarada de la Reina Isabel II cortesía de TheVerge ).

image 29

Publicación y Presentación

Fawkes: Protección de la privacidad personal contra modelos de aprendizaje profundo no autorizados.
Shawn Shan, Emily Wenger, Jiayun Zhang, Huiying Li, Haitao Zheng y Ben Y. Zhao.
En Actas del Simposio de Seguridad USENIX 2020 . ( Descargar PDF aquí )
https://www.youtube.com/embed/AWrI0EuYW6A

Felipe Argüello
Felipe Argüello

Más de 30 años de experiencia en las áreas de Ingeniería, Consulta Técnica, Ventas Internacionales, Gestión y Posicionamiento estratégico de diversas líneas de productos de Alta Tecnología y Seguridad Electrónica.

Artículos: 4

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *