Modelo de patrullaje preventivo inteligente

Subsecretaría de Prevención del Delito

Logo de Subsecretaria del delito

Herramientas utilizadas

Evaluación de Impacto Algorítmico Medición de sesgos y equidad estadística Ficha de transparencia

Cuestionario

¿En qué consiste el problema que buscaron solucionar a través de la ciencia de datos o inteligencia artificial?

El problema central era la ineficiencia en la asignación de recursos de patrullaje preventivo municipal. Los municipios tradicionalmente distribuían el patrullaje de manera empírica o basándose únicamente en la experiencia local, sin contar con herramientas objetivas para identificar zonas y horarios de mayor riesgo delictual.

En este sentido, el proyecto desarrollado (Patrullaje Preventivo Inteligente) tiene como principal objetivo la implementación de un modelo de gestión de patrullaje preventivo efectivo y focalizado, basado en modelos predictivos de datos. Mediante el uso de algoritmos de inteligencia artificial, se busca optimizar la asignación de recursos municipales, permitiendo sugerir zonas prioritarias de patrullaje según análisis de patrones delictuales históricos y de otras variables socio territoriales.

Con esta herramienta, la información deja de ser sólo un diagnóstico y se convierte en una herramienta activa de gestión pública, fortaleciendo principios de justicia y equidad territorial.

Dimensionamiento del problema:

  • Chile registra anualmente más de 1.2 millones de denuncias por delitos de mayor connotación social.
  • Los delitos contra la propiedad (robo en lugar habitado, robo a personas, robo de/desde vehículos) representan aproximadamente el 65% del total de denuncias.
  • La distribución espacial de estos delitos es altamente concentrada: típicamente el 20% del territorio concentra el 80% de los eventos delictuales.

Ejemplos concretos:

  • En la Región Metropolitana, más del 40% de los robos se concentran en menos del 15% del territorio urbano.
  • Los patrones temporales muestran concentraciones significativas: ciertos bloques horarios pueden concentrar hasta 3 veces más delitos que otros.
¿Qué desafíos éticos implicaba aplicar esta tecnología? ¿Por qué?

Los principales desafíos éticos identificados fueron:

  • Riesgo de sesgo territorial: potencial concentración excesiva de recursos en zonas históricamente sobrevigiladas, perpetuando desigualdades en la distribución de seguridad pública.
  • Reproducción de sesgos históricos: los datos policiales pueden reflejar prácticas históricas de vigilancia desigual, que el algoritmo podría amplificar sistemáticamente.
  • Desplazamiento criminal: riesgo de que la actividad delictual se traslade a zonas menos vigiladas, potencialmente afectando a comunidades con menor capacidad de respuesta.
  • Transparencia y explicabilidad: necesidad de que los funcionarios municipales comprendan las recomendaciones algorítmicas para tomar decisiones informadas, evitando la "caja negra" en decisiones de seguridad pública.
  • Privacidad y protección de datos: manejo responsable de información delictual sensible y variables sociodemográficas que podrían utilizarse de manera discriminatoria.
  • Dependencia tecnológica: riesgo de que los equipos municipales perdieran capacidad de análisis territorial independiente.
¿Qué resultados obtuvieron de estos pilotos?

Respecto de la solución:

  • 54 comunas capacitadas e implementando el sistema desde julio 2024.
  • Precisión técnica: los modelos alcanzan una precisión global que supera el 90% con balance entre precision y recall.
  • Efectividad operativa: las comunas con más horas de patrullaje basado en PPI presentaron mayor reducción de delitos.
  • Escalabilidad: implementación exitosa en 54 comunas con diferentes niveles de intensidad de uso.
  • Optimización: la planificación de las rutas permite cubrir 40% más territorio con los mismos recursos (en un mismo periodo de tiempo).

Respecto de la prevención de riesgos éticos:

  • Implementación de supervisión humana obligatoria: 100% de las decisiones finales requieren validación de analistas municipales.
  • Diversificación de fuentes: combinación de hotspots naturales (densidad histórica) y predichos (variables contextuales) para evitar concentración excesiva.
  • Actualización trimestral de modelos para prevenir el sesgo de datos obsoletos.
  • Segmentación temporal que distribuye la vigilancia en diferentes bloques día/hora, evitando sobrevigilancia permanente.
  • Capacitación específica en interpretación de resultados para 156 funcionarios municipales.
  • La transparencia algorítmica no es solo una buena práctica, sino un requisito para la legitimidad social.
¿Con qué aprendizajes se queda su organización?

Destacamos la importancia del proceso para la obtención de aprendizajes significativos.

  • Importancia del balance: la implementación de IA requiere equilibrio entre automatización y supervisión humana.
  • Valor de la transparencia: la explicabilidad del modelo es crucial para la adopción por parte de los usuarios finales.
  • Enfoque territorial: cada región requiere calibración específica debido a las diferencias en patrones delictuales.
  • Capacitación es clave: el acompañamiento personalizado a cada municipio es fundamental para el éxito.
  • Canales abiertos: la importancia de mantener canales de retroalimentación permanente con usuarios finales, en este caso, los municipios.
  • Transparencia: la necesidad de documentar exhaustivamente los procesos para garantizar transparencia.

Como entidad dedicada a la seguridad y la prevención del delito, valoramos profundamente la implementación de la ficha de transparencia algorítmica. Esta herramienta nos permite demostrar que es posible transparentar de manera responsable el trabajo realizado, resguardando la sensibilidad de la información y comunicándolo en un lenguaje accesible tanto para especialistas como para la ciudadanía.

¿Cuáles son los próximos pasos para la implementación de IA responsable en su proyecto?
  • Expansión de cobertura: extender el sistema a más comunas del país.
  • Profundización de métricas de sesgo: implementar monitoreo continuo de equidad entre diferentes grupos demográficos.
  • Diversificación de fuentes: integrar datos municipales locales que actualmente se registran de manera heterogénea, como también datos de otras instituciones (SOSAFE, Ministerio de Transportes).
  • Fortalecimiento de la validación: implementar evaluaciones de impacto más robustas a mediano y largo plazo.
  • Desarrollo de capacidades locales: fortalecer las competencias técnicas de los equipos municipales.
  • Auditorías de sesgo: implementar revisiones regulares de equidad territorial y detección proactiva de sesgos.
  • Transparentar avances y resultados: nuevas evaluaciones de impacto y difusión de los resultados.
¿Cómo fue la experiencia de trabajar de la mano con el GobLab de la UAI?

Nuestro proyecto fue sometido a las tres herramientas (Ficha de Transparencia Algorítmica, Medición de Sesgos y Equidad, y Evaluación de Impacto Algorítmico).

Las tres son bastante accesibles e intuitivas en términos generales; sin embargo, durante todo el proceso de aplicación se recibió la orientación y el apoyo constantes del equipo del GobLab. Contar con su interés y acompañamiento fue crucial para asegurar el éxito en la aplicación de las herramientas.

El equipo del GobLab formuló una serie de capacitaciones para entender el fondo del trabajo y los objetivos que se buscaban lograr con el proyecto de Algoritmos Éticos, y de la misma manera, una vez finalizado el proceso de aplicación de las herramientas, confeccionaron una retroalimentación que fue conversada en una instancia bastante fructífera y posteriormente remitida por escrito vía correo.

Como institución estamos enormemente agradecidas por el compromiso mostrado y la buena voluntad del equipo GobLab UAI, por tanto, estamos en condiciones de afirmar que nuestra experiencia fue enriquecedora y muy positiva.

¿Qué le diría a otro organismo público que esté interesado en trabajar con estas herramientas de código abierto, pero aún no se ha convencido?

La evaluación algorítmica de implementación de IA en el sector público no es opcional, es una responsabilidad hacia la ciudadanía para optimizar recursos públicos limitados. Sin embargo, hacerlo de manera responsable requiere herramientas como las que ofrece GobLab UAI.

El proceso de evaluación algorítmica sirve para dar robustez y legitimidad a las iniciativas en temas de transparencia, impacto y medición de sesgos y errores, contribuyendo de forma concreta al diseño de mejoras y al desarrollo responsable de estas herramientas.

Las herramientas, no solo nos ayudaron a validar técnicamente nuestro sistema, y demostrar que cumple con estándares éticos internacionales. La inversión en transparencia y evaluación de sesgos se traduce en legitimidad social y sostenibilidad política del proyecto.

Se recomienda que no vean estas herramientas como un obstáculo burocrático, sino como un seguro de calidad que les permitirá innovar con respaldo técnico sólido y reducir significativamente los riesgos reputacionales y éticos inherentes a la IA pública."

Recomendaciones:

  • Comenzar gradualmente: implementar pilotos controlados antes de escalamientos masivos.
  • Invertir en capacitación: el éxito depende más del factor humano que de la tecnología, se forma sistemática y constante.
  • Mantener perspectiva ética: las herramientas de algoritmos éticos no son opcionales, son fundamentales.
  • Prepararse para el largo plazo: la IA responsable requiere compromiso sostenido de recursos y tiempo.
  • Aprovechar el ecosistema: las herramientas de código abierto reducen significativamente las barreras de entrada.
  • Documentar todo: la transparencia algorítmica comienza con documentación rigurosa desde el primer día.