PUBLICIDAD

Iberdrola

Tecnología de reconocimiento facial: cómo se usa en Ucrania y por qué sigue siendo tan controvertida

El Ministerio de Defensa de Ucrania ha estado utilizando el software Clearview AI desde marzo de 2022 para verificar crímenes de guerra mediante la identificación de los muertos, tanto rusos como ucranianos
PHOTO/PIXABAY – Reconocimiento facial

PHOTO/PIXABAY  -   Reconocimiento facial

La tecnología de reconocimiento facial se está utilizando en la guerra por primera vez. Podría tratarse de una nueva aplicación de esta tecnología en Ucrania, donde se está utilizando para identificar a los muertos y reunir a las familias. Pero si no somos capaces de respetar la ética de esta tecnología ahora, podríamos encontrarnos ante un instrumento capaz de vulnerar los derechos humanos.

El Ministerio de Defensa de Ucrania ha estado utilizando el software de reconocimiento facial Clearview AI desde marzo de 2022 con la intención de verificar crímenes de guerra mediante la identificación de los muertos, tanto rusos como ucranianos.

El Ministerio de Transformación Digital de Ucrania ha expresado que está utilizando la tecnología Clearview AI para ofrecer a los rusos la oportunidad de experimentar el “verdadero coste de la guerra” y para que las familias sepan que, si quieren encontrar los cuerpos de sus seres queridos fallecidos, serán “bienvenidos a Ucrania”.

También se está utilizando este software, que es gratuito en Ucrania, en los puestos de control y podría ayudar a reunir a los refugiados con sus familias.

Controversia en Reino Unido

El mes pasado, la Agencia de Protección de Datos del Reino Unido (la ICO, por sus siglas en inglés) multó a Clearview AI con más de 7,5 millones de libras esterlinas (unos 8,7 millones de euros) por recopilar imágenes de personas en el Reino Unido, en otros lugares de la red y en las redes sociales.

Se ordenó eliminar dichas imágenes y se prohibió obtener y utilizar los datos personales de los residentes del Reino Unido disponibles públicamente en internet.

Según la ICO, dada la gran cantidad de usuarios de redes sociales del Reino Unido, es muy probable que la base de datos de rostros de Clearview AI contenga una cantidad importante de imágenes obtenidas y almacendas sin consentimiento.

Un abogado de Clearview AI, Lee Wolosky, sostiene que “la decisión de imponer una multa no es ajustada al derecho: Clearview AI no está sujeto a la jurisdicción de la ICO, y no hace negocios en el Reino Unido en este momento”.

La empresa espera tener cien mil millones de imágenes de rostros en su base de datos para principios de 2023, lo que equivale a 14 veces los habitantes de la Tierra. Múltiples fotos de la misma persona mejoran la precisión del sistema.

Según el sitio web de Clearview AI, su tecnología de reconocimiento facial ayuda a las fuerzas del orden público a combatir el crimen y permite a las empresas de transporte, bancos y otras empresas comerciales detectar robos, prevenir fraudes y verificar identidades.

Una herramienta para la guerra

El director ejecutivo de Clearview AI, Hoan Ton-That, defiende que su software de reconocimiento facial ha permitido a las fuerzas del orden y al Gobierno de Ucrania almacenar más de 2 mil millones de imágenes de VKontakte, un servicio de redes sociales ruso. Hoan dijo que el programa puede ayudar a los funcionarios ucranianos a identificar soldados muertos de manera más eficiente que las huellas dactilares, y funciona incluso si la cara de un soldado está dañada.

Pero hay pruebas contradictorias sobre la eficacia del software de reconocimiento facial. Según el Departamento de Energía de EE. UU., la descomposición del rostro de una persona puede reducir la precisión del programa. Por otro lado, estudios recientes han demostrado resultados relacionados con la identificación de personas muertas similares o mejores que la evaluación humana.

Las investigaciones científicas sugieren que las huellas dactilares, los registros dentales y el ADN siguen siendo las técnicas de identificación más confiables. Pero son herramientas para profesionales capacitados, mientras que el reconocimiento facial puede ser utilizado por no expertos.

Otro problema señalado por los expertos es que el reconocimiento facial puede emparejar por error dos imágenes o no hacer coincidir las fotos de la misma persona. En Ucrania, las consecuencias de cualquier posible error con la inteligencia artificial podrían ser desastrosas. Un civil inocente podría morir si se le identifica erróneamente como un soldado ruso.

Una historia controvertida

En 2016, Hoan comenzó a contratar ingenieros informáticos para crear el algoritmo de Clearview AI. Pero hasta 2019 la compañía estadounidense de reconocimiento facial no comenzó a proporcionar discretamente su software a la policía y las fuerzas del orden de EE. UU.

En enero de 2020, The New York Times publicó un artículo titulado La empresa secreta que podría acabar con la privacidad tal como la conocemos. El texto llevó a más de 40 organizaciones tecnológicas y de derechos civiles a enviar una carta a la Junta de Supervisión de Privacidad y Libertades Civiles y a cuatro comités del Congreso de EE. UU., exigiendo la suspensión del software de reconocimiento facial de Clearview AI.

En febrero de 2020, tras una filtración de datos de la lista de clientes de Clearview AI, BuzzFeed reveló que el software de reconocimiento facial de Clearview AI estaba siendo utilizado por personas en más de 2 200 departamentos de policía, agencias gubernamentales y empresas en 27 países diferentes.

El 9 de mayo de 2022, Clearview AI acordó dejar de vender el acceso a su base de datos de rostros a personas y empresas en los EE. UU., después de que la Unión Estadounidense de Libertades Civiles presentara una demanda acusando a Clearview AI de violar una ley de privacidad de Illinois.

En los últimos dos años, las autoridades de protección de datos de Canadá, Francia, Italia, Austria y Grecia han multado, investigado o prohibido que Clearview AI recopile imágenes de personas.

A menos que se adopten leyes que rijan el uso del reconocimiento facial, el uso policial de esta tecnología corre el riesgo de violar los derechos de privacidad, la protección de datos y las leyes de igualdad.The Conversation

Felipe Romero Moreno, Senior Lecturer and Research Tutor, School of Law, University of Hertfordshire

Este artículo fue publicado originalmente en The Conversation. Lea el original.