algoritmos de vigilancia digital

Vigilancia Digital confundida por una camiseta

Investigadores de la Universidad Northeastern han desarrollado una prenda diseñada para confundir los algoritmos de vigilancia digital y hacerles creer que no existes.

¿Cómo funciona la Vigilancia Digital?

Normalmente, los algoritmos de vigilancia digital funcionan reconociendo una característica en una imagen, dibujando un ‘cuadro delimitador’ a su alrededor y asignando una etiqueta a ese objeto.

Para interrumpir esto, la camiseta usa patrones coloridos y pixelados para confundir a la tecnología y hacer que pienses que no existes. En otras palabras, los grupos de píxeles se colocan para confundir el sistema de clasificación y etiquetado de la IA, lo que dificulta el mapeo de sus rasgos faciales.

«La camiseta contradictoria funciona en las redes neuronales utilizadas para la detección de objetos», dijo a Wired Xue Lin, profesor asistente de ingeniería eléctrica e informática en Northeastern .

Según Lin, utilizar la camiseta te hace un 63 por ciento menos propenso a ser detectado por la tecnología de vigilancia digital, pero no es seguro.

«Todavía tenemos dificultades para que funcione en el mundo real porque existe la fuerte suposición de que sabemos todo sobre el algoritmo de detección», dijo. «No es perfecto, por lo que puede haber problemas aquí o allá».

Como el software de reconocimiento facial se ha extendido a la esfera pública, algunas personas han confiado en las máscaras para protegerse, pero una nueva investigación de la Northeastern University sugiere que una camiseta gráfica también podría hacer el trabajo.

Descrita como una ‘camiseta contradictoria‘, la pieza de ropa funciona al mezclar la capacidad del software de reconocimiento facial para identificar a las personas en el área que está grabando.

Hasta ahora, el equipo detrás de la camiseta la probó en dos IA de redes neuronales comunes usadas para el software de reconocimiento facial y descubrió que evita con éxito la identificación un poco más de la mitad del tiempo.

Mientras tanto, las personas recurren al maquillaje para descartar algoritmos de reconocimiento facial. Esto incluye bloquear formas en patrones geométricos, aplicar flores en la cara para oscurecer características clave como los ojos o el puente de la nariz.

TAMBIEN TE PUEDE INTERESAR:  Qumulex QxControl: ¡Nueva interfaz de usuario

Cita del profesor Hammond:

“A medida que se desarrollan nuevas tecnologías que nos permiten escalar la inteligencia artificial, es importante que reflexionemos sobre cómo se aplican esas tecnologías y dónde pueden ser herramientas poderosas para el bien social y dónde pueden amenazar la dignidad y los derechos humanos básicos. El ejemplo más reciente de esto es el auge de las tecnologías de reconocimiento facial.

“Por un lado, el reconocimiento facial se puede aplicar a la aplicación de la ley en forma de identificación instantánea de posibles perpetradores basada en una foto y corpus de rostros etiquetados, liberando al personal para trabajar en el lado humano de la vigilancia.

Por otro lado, ya hemos visto que se usa fuera de los Estados Unidos como una herramienta para la opresión. Si bien el primero podría optimizar un proceso existente, el segundo genera temores de invasión de la privacidad a gran escala.

“Las preocupaciones sobre la privacidad (y los problemas de sesgo y error) han llevado a un llamado casi reflexivo para prohibir la tecnología por completo.

Sin embargo, el problema no es la tecnología en sí, sino su aplicación.

Sostenemos que la conversación sobre la regulación de esta tecnología, así como otras instancias de IA y aprendizaje automático, debe estar al nivel de cómo se aplican exactamente y cómo podemos desarrollar pautas y regulaciones destinadas a bloquear aquellas aplicaciones que violan los principios básicos de derechos humanos.

Necesitamos poder usar esta tecnología a escala en casos como la recuperación de niños desaparecidos y asegurarnos de que no se use para crear un estado de vigilancia.

La única forma de hacer esto es respaldar conversaciones que incluyan a pensadores y tecnólogos tanto legales como políticos para explorar el largo y ancho de la aplicación de estas tecnologías a medida que surjan”.

Fuente de este Artículo: https://news.northeastern.edu/2019/11/13/this-t-shirt-could-make-you-invisible-to-deep-neural-networks/

Felipe Argüello
Felipe Argüello

Felipe Arguello es un reconocido ingeniero especializado en sistemas de seguridad electrónica con una trayectoria de más de 30 años. Con un enfoque multidisciplinario, respaldado por su educación en Ingeniería Civil, Protección Contra Incendios, y múltiples certificaciones profesionales, ha liderado la implementación de soluciones de seguridad integral de importantes corporaciones en más de 25 países de América y Europa.

Artículos: 929