Modelo predictivo de no cobros de PGU
Instituto de Previsión Social
Herramientas utilizadas
Evaluación de Impacto Algorítmico Medición de sesgos y equidad estadística Ficha de transparenciaCuestionario
¿En qué consiste el problema que buscaron solucionar a través de la ciencia de datos o inteligencia artificial?
Cada mes el IPS emite en promedio 3,5 millones de pagos de beneficios para ser pagados a través de BancoEstado y Caja Los Héroes.
Después de 3 meses solo el 1% no se cobra. Pareciera marginal. Pero acumulado en el tiempo se vuelve relevante. Al cabo de 5 años, se acumulan más de 1,3 millones de pagos no cobrados, pertenecientes a casi 600 mil personas, por un monto total de US$130 millones.
No estamos hablando de un problema financiero. Estamos hablando de una falla del sistema de seguridad social: beneficios que no llegan a quienes los necesitan.
Para enfrentar este desafío en el IPS nos preguntamos: ¿Y si en vez de esperar que la persona descubra que tiene derecho a un beneficio, nosotros salimos a buscarla?, ¿Y si podemos anticipar quién no cobrará y hacer algo antes de que ocurra?
Nació una nueva política institucional: el Proceso de Gestión de No Cobros, un enfoque proactivo que une Transformación Digital, Inteligencia Artificial y Gestión de la Relación con los Beneficiarios. El desafío era doble:
- Lograr que los pagos no cobrados acumulados lleguen a sus beneficiarios: resolver el stock, y
- Prevenir que esto siguiera ocurriendo mes a mes: reducir el flujo.
¿Qué desafíos éticos implicaba aplicar esta tecnología? ¿Por qué?
Para enfrentar el segundo desafío, queríamos anticiparnos: ¿si pudiéramos predecir quién no cobrará, antes de que ocurra?, podríamos avisarles, esa era la idea.
Usamos machine learning. Probamos varios modelos: Regresión Logística, Random Forest, Support Vector Machine. Y finalmente elegimos una Red Neuronal, que alcanzó un 82% de accuracy y un 77% de sensitivity.
Por supuesto, no todo uso de IA es válido desde el Estado. La IA no puede ser una caja negra. La IA pública debe rendir cuentas cuando se trabaja con los derechos de los ciudadanos. Revisamos riesgos, sesgos y transparencia, porque creemos que una IA pública debe ser también una IA ética. Por eso, nuestros modelos son evaluados por herramientas del sitio algoritmospublicos.cl del GobLab UAI: Evaluación de Impacto Algorítmico, Análisis de Sesgo y Equidad, y Ficha de Transparencia.
¿Qué resultados obtuvieron de estos pilotos?
Este proyecto No Cobros, nos permitió identificar con antelación miles de casos de alto riesgo de no cobro, y actuar a tiempo. Gracias a esta predicción, en dos años hemos reducido los no cobros de la PGU desde 5.000 a solo 1.300 mensuales.
En total, hemos logrado pagar 1,2 millones de pagos no cobrados, reduciendo el monto no cobrado a solo US$17 millones, es decir, una reducción de 87%.
En específico, estamos seguros de que no afectamos negativamente los derechos de los ciudadanos, puesto que realizamos lo siguiente:
- Evaluamos Riesgos: eran bajos, al ser un sistema esencialmente asistencial, y los mitigamos siguiendo las recomendaciones de la herramienta.
- Analizamos los sesgos para 3 variables protegidas: Edad, Nacionalidad y Genero, y al evaluar cada uno de los sesgos estadísticos reportados por la herramienta, se pudo comprobar que todos venían en los datos de entrenamiento, no era provocados por el modelo. En el caso de Edad los sesgos eran explicados por la estructura de la pirámide poblacional del país, en el caso de la nacionalidad el sesgo se explica por la norma de años de años de residencia para obtener la PGU, y el sesgo de género, un 69% de los no cobros eran mujeres, una parte se explica porque la mujeres viven más y otra parte no se pudo explicar, y por lo tanto, para mitigarlo se efectuó una campaña comunicacional con enfoque de genero para explicar cómo funciona el proceso de pago del IPS.
- Por último, para actuar con responsabilidad y trasparencia hicimos la Ficha de Transparencia, que fue la primera publicada en el repositorio de Algoritmo Públicos.
¿Con qué aprendizajes se queda su organización?
Lo mas relevante es que aprendimos como institución que al trabajar con IA, la ética es muy importante para asegurarse de no afectar los derechos de los ciudadanos. Antes del proyecto Algoritmos éticos, era una dimensión que estaba fuera de nuestra orbita. Hoy en cambio, la ética en el desarrollo de la IA la tenemos fuertemente incorporada.
¿Cuáles son los próximos pasos para la implementación de IA responsable en su proyecto?
Estamos desarrollando nuevos modelos predictivos para otros beneficios, y queremos dictar una normativa interna para que cada proyecto de IA se deba evaluar con las tres herramientas del sitio www.algoritmospúblicos.cl, diseñadas por el GobLab de la UAI.
¿Cómo fue la experiencia de trabajar de la mano con el GobLab de la UAI?
Fue una experiencia de aprendizaje donde cooperamos en el desarrollo y evaluación de los diseños de las herramientas, pero también nos formamos en el contacto con los académicos e investigadores de la UAI, logrando ampliar las competencias internas del IPS, e incorporarnos a redes de conocimiento en el ámbito de la IA, a las que antes no teníamos acceso.
¿Qué le diría a otro organismo público que esté interesado en trabajar con estas herramientas de código abierto, pero aún no se ha convencido?
Les diría 2 cosas.
- La primera que deben abordar la incorporación de la IA en su institución, de lo contrario se quedaran atrás, y alguien más lo hará por ustedes.
- Lo segundo, es que el enfoque de la IA debe ser ético, lo que no es opcional, sino algo obligatorio para las instituciones del Estado.