Muchos de los que usan el metro en Londres cada día se han indignado por la noticia que ha salido a la luz ayer mismo. El metro de la ciudad británica parece que ha estado usando cámaras de vigilancia de Amazon con IA para vigilar a las miles de personas que usan este transporte. Parece que incluso habrían estado monitorizando las emociones de todas estas personas.
¿El metro de Londres te espía con IA?
De acuerdo a un artículo de Wired, es probable que miles de personas de las que han tomado trenes en el Reino Unido en los últimos años hayan sido vigiladas por cámaras con IA. Sus rostros parece ser que han sido escaneados por un software de Amazon como parte de pruebas masivas de inteligencia artificial, según revelan nuevos documentos. Este sistema de reconocimiento de imágenes se utilizó para predecir la edad, el género y las posibles emociones de los viajeros, con la idea de que estos datos podrían emplearse en futuros sistemas publicitarios. En los últimos dos años, ocho estaciones de tren en el Reino Unido, incluyendo grandes estaciones como Euston y Waterloo en Londres, y Piccadilly en Manchester, han estado probando tecnología de vigilancia con IA y cámaras de CCTV.
El objetivo de estas pruebas, supervisadas por Network Rail, es alertar al personal sobre incidentes de seguridad y potencialmente reducir ciertos tipos de delitos. Las pruebas usaron reconocimiento de objetos para detectar personas cruzando las vías, monitorear y predecir el hacinamiento en las plataformas, identificar comportamientos antisociales y detectar posibles ladrones de bicicletas. Además, se utilizaron sensores inalámbricos para detectar suelos resbaladizos, contenedores llenos y desagües que podrían desbordarse. Varios grupos han manifestado su preocupación por la normalización de la vigilancia con IA en espacios públicos sin suficiente consulta pública.
Las pruebas de IA combinaron cámaras de CCTV “inteligentes”, capaces de detectar objetos o movimientos, con cámaras más antiguas cuyos vídeos se analizaban en la nube. Entre cinco y siete cámaras o sensores se instalaron en cada estación. En Euston, se planeó probar un sistema de detección de riesgo de suicidio, pero la cámara falló y no se reemplazó.
¿Es positiva la video vigilancia con IA?
Los expertos destacan que el aspecto más inquietante de las pruebas en Londres es su foco en la demografía de los pasajeros. Según los documentos, este sistema podía usar imágenes para realizar análisis estadísticos de edad y género, y también analizar emociones como felicidad, tristeza y enojo. Las imágenes se capturaron cuando las personas cruzaban una «trampa virtual» cerca de los tornos y se enviaban para ser analizadas por el sistema Rekognition de Amazon. Los investigadores de IA advierten que la tecnología para detectar emociones es poco fiable y algunos sugieren prohibirla debido a la dificultad de interpretar correctamente las emociones. Desde la empresa argumentan que utilizan tecnologías avanzadas para proteger a los pasajeros, empleados e infraestructura ferroviaria, trabajando con la policía y los servicios de seguridad y cumpliendo con la legislación relevante.
Aunque no está claro cuán ampliamente se implementó el análisis de detección de emociones, los documentos indican que esta capacidad fue discontinuada durante las pruebas y que no se almacenaron imágenes. Los documentos de Network Rail describen múltiples casos de uso potenciales para enviar alertas automatizadas al personal cuando detectan ciertos comportamientos. Mientras tanto, sistemas similares de vigilancia con IA que vigila a multitudes se están utilizando en todo el mundo. Durante los Juegos Olímpicos de París, se utilizará vigilancia de vídeo con IA para observar a miles de personas y detectar tumultos, uso de armas y objetos abandonados. Pero no podemos olvidar que la vigilancia con IA es un riesgo grave para la privacidad de los ciudadanos que incluso puede poner en peligro la democracia.