Tecnología y sociedad

El metro de Londres implanta IA para vigilar la red subterránea

Utiliza la visión por computadora para detectar patrones de comportamiento en la estación

Instantánea del Metro de Londres un día cualquiera.

Instantánea del Metro de Londres un día cualquiera. / Miquel Parera en Unsplash.

Redacción T21

El metro de Londres ha probado herramientas de vigilancia con IA en tiempo real para detectar posibles situaciones de riesgo o de conflicto y permitir al personal intervenir rápidamente. Detecta comportamientos agresivos e identifica a las personas que se cuelan sin pagar.

El metro de Londres ha realizado una prueba de un año de duración con herramientas de vigilancia basadas en inteligencia artificial (IA) para detectar delitos, armas, caídas en las vías y evasión del pago del billete, según documentos obtenidos por WIRED.

El sistema de visión por computadora se combinó con imágenes de CCTV en directo para generar alertas que se enviaban al personal de la estación.

Se trata de la primera vez que el organismo de transporte londinense utiliza IA y vídeo en directo para mejorar la seguridad y la eficiencia de su red subterránea.

11 algoritmos

La prueba se realizó en la estación de Willesden Green, en el noroeste de la ciudad, donde se utilizaron 11 algoritmos diferentes para monitorizar el comportamiento y los movimientos de las personas que pasaban por la estación.

El objetivo era detectar posibles situaciones de riesgo o de conflicto y permitir al personal intervenir rápidamente. Durante la prueba se emitieron más de 44.000 alertas, de las cuales 19.000 se entregaron al personal de la estación en tiempo real.

Visión por computadora

Los documentos, que están parcialmente censurados, muestran cómo se utilizaron varios modelos de visión por computadora para detectar patrones de comportamiento en la estación.

Entre ellos se encuentran el reconocimiento de sillas de ruedas, cochecitos, cigarrillos electrónicos, personas que acceden a zonas no autorizadas o que se ponen en peligro al acercarse al borde de los andenes.

El sistema también estaba diseñado para detectar comportamientos agresivos y armas blancas o de fuego, así como para identificar a las personas que se saltaban las barreras de pago.

El sistema generó alertas para "personas que duermen a la intemperie y mendigos" en las entradas de la estación y esto permitió al personal "monitorear remotamente la situación y brindar la atención y asistencia necesarias", según los documentos revelados.

Estaciones inteligentes

La prueba forma parte del proyecto "Smart Stations", que pretende aprovechar las ventajas de la IA para mejorar la experiencia de los usuarios y el rendimiento de la red.

Sin embargo, la iniciativa también ha suscitado preocupaciones sobre la privacidad y la fiabilidad de la tecnología, ya que el sistema puede cometer errores o ser utilizado con fines indebidos.

Por ejemplo, el sistema confundió a los niños que seguían a sus padres a través de las barreras con personas que se habían colado sin pagar, o no pudo distinguir entre una bicicleta plegable y una no plegable.

Zonas oscuras

Además, se desconoce el grado de consentimiento e información que se proporcionó a las personas que fueron sometidas al escrutinio de la IA.

Durante todas las pruebas, las imágenes de los rostros de las personas aparecían borrosas y los datos se conservaban durante un máximo de 14 días. Sin embargo, seis meses después del inicio del juicio, la administración del sistema decidió difuminar las imágenes de rostros cuando se sospechaba que las personas no pagaban, y conservó esos datos por más tiempo.

Para evitar falsos positivos o violaciones de derechos, el sistema está diseñado para que un operador humano revise las decisiones de la IA antes de tomar cualquier medida.

De este modo, se pretende establecer un equilibrio entre el uso de la tecnología y el respeto a la privacidad. Según Transport for London (TfL), el organismo responsable del metro, la prueba ha sido un éxito y se plantea ampliar el uso de la IA a más estaciones en el futuro.

Falta precisión

La prueba del metro de Londres es un ejemplo de cómo la IA puede tener un impacto en la seguridad y la eficiencia de los servicios públicos, pero también plantea desafíos éticos y legales.

Siguen faltando unos principios y normas claras para garantizar que la IA se utiliza de forma responsable y transparente, y que se protejan los derechos y las libertades de las personas… incluso en una estación de metro un día cualquiera en el que nunca pasa nada importante.