action="https://s1526847851.t.eloqua.com/e/f2"

Una investigación del periódico The New York Times (NYT) ha revelado que cientos de agencias en Estados Unidos estarían utilizando un sistema basado en la tecnología de reconocimiento facial para buscar sospechosos. En el siguiente post de Conversia podrás leer todos los detalles  y descubrir qué problemas podría generar a la privacidad de los ciudadanos.

Un sistema que permite encontrar coincidencias faciales

En Estados Unidos, más de 600 agencias del orden público (departamentos de policía incluidos) y un montón de empresas con fines de seguridad han comenzado a utilizar un nuevo sistema de reconocimiento facial propiedad de la compañía Clearview. El sistema busca a posibles sospechosos en una base de datos compuesta por más de tres mil millones de imágenes que han sido subidas a Internet, incluidos perfiles en redes sociales e, incluso, fotografías que pueden haber sido eliminadas a posteriori.

Según The New York Times, la aplicación que podría generar problemas en la privacidad de los ciudadanos, funciona de la siguiente manera: los organismos encargados de hacer cumplir la ley pueden subir una foto de la persona de la cual quieren saber más información, y el sistema les devuelve imágenes coincidentes de Internet, junto con los enlaces donde se están alojando estas fotografías. Por ejemplo, a través de una imagen obtenida de un vídeo de seguridad de un robo o un crimen, pueden llegar a “encontrar” al culpable a través de esta App.

Sin embargo, el uso de algoritmos de reconocimiento facial por parte de la policía conlleva riesgos ya que pueden producirse falsos positivos, de manera que podrían incriminarse a personas equivocadas. Además, los defensores de la privacidad temen que se pueda llegar a crear un estado de vigilancia policial.

Casos reales y posibles problemas por falsos positivos

El reportaje de The New York Times explica que la policía ya ha utilizado este sistema para resolver robos en tiendas, fraudes con tarjetas de crédito, asesinatos y explotación sexual infantil. Por ejemplo, la Policía del Estado de Indiana resolvió un caso en tan solo 20 minutos utilizando la aplicación. Dos hombres se estaban peleando en un parque y uno disparó al otro en el estómago. Un testigo grabó la agresión y del vídeo se pudo extraer una imagen del rostro del atacante. Al cargar la foto en Clearview, la imagen del atacante fue relacionada con un vídeo que se había subido anteriormente en Internet y en el que se había etiquetado al culpable con su nombre. Tal y como apuntan desde NYT, el caso es llamativo porque la Policía no disponía en sus bases de datos de ninguna imagen de adulto del atacante, ya que no contaba con carnet de conducir ni había sido arrestado.

Pero no es todo oro lo que reluce. Hay informes que determinan que algunos departamentos de policía han utilizado imágenes manipuladas que podrían provocar detenciones injustas. Asimismo, un estudio federal ha descubierto que existe sesgo racial en los sistemas de reconocimiento facial, ya que los algoritmos identifican erróneamente las caras de afroamericanos y asiáticos.

¿Qué riesgos tiene la aplicación Clearview?

En el reportaje de The New York Times se da voz a diversos expertos en materia de tecnología y privacidad. Por un lado, el codirector del High Tech Law Institute en la Universidad de Santa Clara, Eric Goldman, opina que “las posibilidades de convertir la aplicación en un arma son infinitas”. Goldman pone de ejemplo  “a un agente de policía deshonesto que quiere acosar a posibles parejas románticas o a un gobierno extranjero que la usa para revelar secretos sobre personas que después podrá chantajear o enviar a la cárcel”.

Los propios desarrolladores de la aplicación han afirmado que la herramienta no siempre funciona, pero que está demostrado que encuentra coincidencias en el 75% de los casos. Sin embargo, uno de los principales problemas podría ser otro, ya que no está claro con qué frecuencia la herramienta puede estar ofreciendo coincidencias falsas, porque no ha sido testada por expertos independientes, como podría ser el Instituto Nacional de Estándares y Tecnología, agencia encargada de calificar los algoritmos de reconocimiento facial. “No tenemos datos que sugieran que esta aplicación sea precisa”, afirma la investigadora del Centro de Privacidad y Tecnología de la Universidad de Georgetown,  Clare Garvie.

Además, otro de los riesgos asociados a la aplicación es que, en la actualidad, agencias del orden público están subiendo fotografías confidenciales en los servidores de esta empresa privada, de la que no se sabe si está protegiendo los datos de forma correcta.

Los problemas surgidos en la experiencia personal de la periodista

Kashmir Hill es la periodista que realizó la investigación publicada en The New York Times. Para hacer  el reportaje, intentó ponerse en contacto con los responsables de Clearview pero, cuenta Hill, que la evitaron. Con intención de testar la aplicación, propuso a varios cuerpos policiales subir una fotografía suya para ver los resultados que proporcionaba. Esta prueba generó dos sorpresas: la primera, que la búsqueda no proporcionó ningún tipo de imagen; y la segunda, que los cuerpos de seguridad recibieron llamadas telefónicas provenientes de la compañía preguntando si estaban hablando de la aplicación con los medios de comunicación. De esta experiencia, Hill extrajo dos conclusiones: la compañía tiene la capacidad de manipular los resultados y de controlar a quién busca la policía.

Finalmente, Hill consiguió entrevistarse con el responsable de Clearview, al que pidió explicaciones sobre el hecho que no hubiesen aparecido resultados en su búsqueda (atribuidos a problemas puntuales y errores de la plataforma) y con quien volvió a testar la aplicación. Primero, subió una foto normal con la que el sistema (esta vez sí) encontró muchos resultados, algunos de hace más de diez años, incluidas fotos que la periodista no había visto antes. Después, Hill subió una segunda imagen en la que se tapó la nariz y la parte inferior de su cara y la aplicación acabó encontrando hasta siete coincidencias correctas.