Marcelo Ebrard y su Plan ANGEL: la promesa de un México seguro… o una temporada de Black Mirror

Marcelo Ebrard, uno de los aspirantes a la presidencia de los morenistas, ha sacado del sombrero de trucos un nuevo proyecto llamado Plan ANGEL, la joya de la corona de la estrategia de seguridad pública del partido Morena. ¿De qué trata?
En su Plan ANGEL, Ebrard nos promete usar todo tipo de tecnología, sobre todo cámaras, para combatir la delincuencia. Entre otras cosas, afirma que podrá hacer reconocimiento facial y morfológico de las personas en la calle. ¡Imagínate eso! ¡Big Brother estaría orgulloso!
Ahora bien, el nombre completo de este plan es Avanzadas Normas de Geolocalización. Y para ser claros, esto no es una estrategia oficial todavía, solo es la propuesta de Ebrard si es elegido como candidato de Morena en el 2024. Así que, por ahora, es solo humo y espejos.
Ebrard nos vende que por fin llegaremos a tener “el México más seguro de la historia”. ¡Topus Uranus! Según él, este proyecto incluirá 8 tecnologías de vigilancia y monitoreo en cuestiones de seguridad pública. Pero, espera, hay un pequeño detalle preocupante.
Uno de los aspectos más inquietantes del plan son las cámaras de reconocimiento facial en las calles y cámaras de identificación morfológica. ¿Identificación morfológica?, ¡leíste bien! Según este plan, podrían encontrar a los delincuentes “por su forma de caminar”. ¿En serio? ¿Estamos en un episodio de CSI, Black Mirror o qué?
Y eso no es todo, también nos promete rastreadores de vehículos en cámaras por todo el país y drones que persigan a los criminales. Pero hay un pequeño detalle que olvida mencionar: no habla de los policías locales o municipales, solo menciona a los elementos de la Guardia Nacional, dato interesante, pareciera que las corporaciones no citadas podrían fusionarse o no estar incluidas en el plan.
Según Ebrard, todas estas maravillas tecnológicas estarían conectadas a una Base de Datos operada por Inteligencia Artificial, la que según él es infalible, ¡ajá!, ¡y nos dice que no puede cometer errores humanos! ¿En serio? La IA comete errores todo el tiempo. Son como esos amigos que siempre meten la pata y dicen cosas ridículas. Además, recientemente se descubrió que la IA puede manipular a los humanos para responder encuestas en línea, según lo que aseguró Opena Ai, creadora de Chat GPT. Así que, ¡mucho ojo! Sí se puede usar, pero con una revisadita, pero esa revisadita, no puede ser por otra inteligencia artificial, sino por humanos… lo que nos abre otra vez el paso a la premisa inicial, no hay algo infalible o libre de errores.
En fin, ¿qué opinan ustedes?



