A partir del 3 de septiembre, Greater Manchester en el Reino Unido se convertirá en la última región en implementar cámaras de inteligencia artificial para detectar automáticamente a los conductores que usan teléfonos móviles o no usan el cinturón de seguridad.
Las cámaras “Heads Up”, desarrolladas por la empresa australiana Acusensus, utilizan algoritmos de aprendizaje automático para analizar imágenes de vehículos que pasan.
El objetivo es identificar infracciones de conducción a una escala y precisión que no serían posibles sin la automatización de la IA.
Transport for Greater Manchester (TfGM) confía en que el proyecto ayudará a reducir las prácticas de conducción peligrosas que contribuyen a los accidentes.
“En Greater Manchester, sabemos que las distracciones y el no uso del cinturón de seguridad son factores clave en una serie de colisiones de tránsito que han provocado muertes o lesiones graves a personas”, dijo Peter Boulton, director de red de carreteras de TfGM.
Boulton continuó: “Al utilizar esta tecnología de vanguardia proporcionada por Acusensus, esperamos comprender mejor cuántos conductores infringen la ley de esta manera, al tiempo que ayudamos a reducir estas prácticas de conducción peligrosas y hacer que nuestras carreteras más seguro para todos”.
La prueba es parte de una asociación más amplia entre Acusensus y la agencia de Carreteras Nacionales del gobierno del Reino Unido.
Además del Gran Manchester, las cámaras de IA se implementarán en otras nueve regiones: Durham, Humberside, Staffordshire, West Mercia, Northamptonshire, Wiltshire, Norfolk, Thames Valley y Sussex.
Implementar más cámaras con IA no solo ayudará a la policía a atrapar y castigar a los conductores problemáticos – También podría ser una fuente de ingresos para el gobierno. Más multas suponen más dinero en las arcas públicas.
Cómo funcionan las cámaras
El sistema Acusensus captura dos imágenes de cada vehículo que pasa: una toma de ángulo superficial para verificar el cumplimiento del cinturón de seguridad y el uso del teléfono y un ángulo más amplio para detectar otros comportamientos riesgosos, como enviar mensajes de texto.
Luego, el software de inteligencia artificial analiza las imágenes para identificar posibles delitos marcados para revisión humana antes de que se emitan sanciones.
El conductor recibe una advertencia o una multa si el control humano confirma una infracción. Si no se encuentra ningún delito, Acusensus dice que la imagen se elimina inmediatamente.
Los pilotos anteriores demostraron cuán efectivos son estos sistemas de cámaras. El año pasado, en Devon y Cornwall, un sistema de cámara con IA reveló 117 casos de uso de teléfonos móviles y 180 violaciones del cinturón de seguridad en sólo 72 horas.
Si bien los objetivos de reducir la conducción distraída y aumentar el uso del cinturón de seguridad son encomiables, la adopción cada vez más amplia de la tecnología de vigilancia de IA en el Reino Unido está generando una reacción negativa a la privacidad.
Los grupos de privacidad están preocupados por la posible identificación errónea, sesgo y uso indebido de los datos recopilados. Los riesgos no son meramente académicos; ya han quedado expuestos por fallos anteriores de la vigilancia de la IA.
Particularmente en los EE. UU., hay varios ejemplos de personas que han sido acusadas injustamente por sistemas policiales automatizados, lo que a veces incluso resulta en penas de cárcel temporales.
No hace mucho, las estaciones de tren del Reino Unido desplegaron cámaras con inteligencia artificial capaces de detectar delitos, género e incluso emociones.
“El despliegue y la normalización de la vigilancia mediante IA en estos espacios públicos, sin mucha consulta ni conversación, es un paso bastante preocupante”, dijo Jake Hurfurt, jefe de investigación del grupo de libertades civiles del Reino Unido Big Brother Watch en respuesta a ese proyecto.
La policía del Reino Unido también ha intensificado el uso del reconocimiento facial para escanear multitudes en busca de personas buscadas, lo que provocó numerosos arrestos el año pasado.
Los recientes disturbios y disturbios en todo el país han reforzado el uso de dichas tecnologías durante períodos de desorden público.
La preocupación es: ¿terminará ahí? ¿O la vigilancia para detectar emociones se convertirá en parte de la vida moderna?
Big Brother Watch sostiene que el reconocimiento facial en vivo ya se está saliendo de control.
⚠️Met Police ha aumentado el reconocimiento facial en vivo espiando al público en un 1000% y aún se está expandiendo
Mientras tanto, las tiendas escanean los rostros de los compradores colocando estas cámaras en las puertas.
Hay que poner freno urgentemente a esta tecnología intrusiva
➡️https://t.co/KIFHRGsqVL pic.twitter.com/Gv29Pl7BdF
– Reloj de Gran Hermano (@BigBrotherWatch) 1 de septiembre de 2024
A medida que la vigilancia basada en inteligencia artificial se convierta en una nueva norma, será excepcionalmente difícil lograr el equilibrio adecuado entre los beneficios para la seguridad pública y los riesgos para la privacidad y las libertades civiles.
No es nada cómodo tener cámaras de IA espiando la vida de las personas. Pero tampoco lo es compartir la carretera con gente que juega con sus teléfonos al volante.
Si se demuestra que el sistema de inteligencia artificial puede salvar vidas, eso podría convencer a los escépticos. Sin embargo, las autoridades deberán demostrar la eficacia de la tecnología y garantizar que se implementen medidas sólidas de protección de datos.
Por supuesto, el público también debe saber exactamente cómo se recopilan, utilizan y protegen sus datos.
El problema es que, a medida que estos sistemas se vuelven más comunes, también se vuelven más difíciles de controlar. Y una mala supervisión puede tener consecuencias bastante nefastas.