Diagnóstico Automatizado de Retinografías Telemáticas (DART)

Ministerio de Salud

Logo del Ministerio de Salud de Chile

Herramientas utilizadas

Evaluación de Impacto Algorítmico Ficha de transparencia

Cuestionario

¿En qué consiste el problema que buscaron solucionar a través de la ciencia de datos o inteligencia artificial?

El proyecto DART es una plataforma asistida por inteligencia artificial que busca ser un aporte en la detección precisa de alteraciones en las imágenes de fondo de ojo. El modelo analiza imágenes del fondo de ojo de las personas (retinografías), clasificando cada ojo según las categorías: “No presenta signos de Retinopatía Diabética mayor a leve”, “Sospecha de retinopatía diabética” y “No evaluable”. DART permite generar un primer filtro e identificar a todas aquellas personas que no presentan sospecha de retinopatía diabética dando paso a un proceso más eficiente en el diagnóstico por un especialista de todos los casos que la IA no descartó. El propósito de usar este modelo es la detección temprana y oportuna de casos donde las personas están en riesgo de ceguera asociada a la Diabetes.

Desde su implementación en 2018 hasta diciembre de 2024, la estrategia ha permitido el procesamiento de 1.289.747 exámenes de fondo de ojo, con un descarte automatizado de retinopatía diabética en el 47,7% de los casos, lo que ha liberado una cantidad significativa de tiempo clínico especializado para la atención de casos prioritarios. Este impacto ha resultado en una disminución efectiva de la presión asistencial sobre los servicios de oftalmología, sin comprometer la calidad diagnóstica.

La estrategia se ha desplegado exitosamente en 219 establecimientos de salud pública, distribuidos en 29 Servicios de Salud a lo largo del país, demostrando su viabilidad operativa y su adaptabilidad territorial. Gracias a este despliegue, se ha incrementado el cumplimiento de la garantía GES asociada al tamizaje de retinopatía diabética, mejorando la oportunidad de atención y la equidad en el acceso al diagnóstico precoz.

¿Qué desafíos éticos implicaba aplicar esta tecnología? ¿Por qué?

La aplicación de esta tecnología implica varios desafíos éticos que requieren un análisis profundo de las áreas identificadas. Los principales desafíos incluyen:

  • A) Impacto en los derechos humanos: Implica que se identifiquen y gestionen posibles vulneraciones.
  • B) Riesgo de discriminación y sesgos: Exige un análisis del desempeño del sistema en diferentes aspectos, asegurando que no se cometan discriminaciones arbitrarias.
  • C) Protección de datos personales: Se debe dar cumplimiento a la normativa de protección de datos garantizando la transparencia, el consentimiento, la seguridad de la información y el ejercicio de derechos, como el acceso, rectificación, cancelación y oposición (derechos ARCO).
  • D) Riesgo de resultados erróneos con consecuencias graves: Se ha identificado el riesgo de falsos negativos, donde la IA podría clasificar a un paciente como "sin sospecha de retinopatía diabética" cuando en realidad la padece, lo que podría poner en riesgo su visión si no es derivado adecuadamente.
¿Qué resultados obtuvieron de estos pilotos?

Respecto de la prevención o mitigación de los riesgos éticos: Las herramientas nos permitieron evaluar el impacto de este modelo de IA en los usuarios, identificar las brechas existentes y detectar aspectos críticos que requieren fortalecimiento para minimizar riesgos potenciales. Los cuales de no abordarse impactarían directamente la salud de las personas. La orientación detallada proporcionada en cada ámbito es clave para planificar estrategias que permitan hacer más robusto el modelo, garantizando así transparencia y cumplimiento de los derechos de las personas.

¿Con qué aprendizajes se queda su organización?

El modelo de IA utilizado tiene un impacto significativo y requirió de una evaluación profunda, el puntaje obtenido en la Herramienta de Impacto Algorítmico (62.23%) nos revela que este proyecto posee riesgos importantes que deben ser abordados.

Se constata que la transparencia operacional y una documentación rigurosa son elementos esenciales para el éxito del proyecto. El sistema debe ser más explicable y ofrecer descripciones del funcionamiento de los algoritmos claros y accesibles, especialmente en lo relativo al tratamiento de datos sensibles.

Otro de los aprendizajes obtenidos fue que la participación ciudadana es un factor clave para la sostenibilidad del proyecto, ya que actúa como un mecanismo preventivo frente a posibles resistencias y fortalece la confianza en las instituciones. La participación además ayuda a asegurar el cumplimiento normativo, alinear las prestaciones del sistema con las expectativas sociales.

Otra de las principales lecciones aprendidas durante la aplicación de las herramientas es la importancia de realizar auditorías algorítmicas periódicas para garantizar la integridad y efectividad del modelo. Las auditorías se vuelven aún más críticas cuando se emplean modelos de tipo "caja negra", como en este caso, cuya lógica interna no es evidente. Realizar auditorías permitirá aumentar los factores de calidad e inclusión de nuestras plataformas, facilitando la detección y corrección de sesgos sistemáticos, garantizando un funcionamiento justo, inclusivo y transparente.

¿Cuáles son los próximos pasos para la implementación de IA responsable en su proyecto?

Se proponen como próximos pasos para la implementación responsable del proyecto DART:

  • A) Revisión y aplicación detallada de las recomendaciones: Al arrojar una evaluación de "alto impacto", es fundamental revisar todas las recomendaciones proporcionadas y priorizar su implementación para fortalecer el proyecto y minimizar riesgos.
  • B) Garantizar la protección de datos personales: Mantener el rigor ético y legal en el tratamiento de datos personales, asegurando la transparencia, la seguridad y el ejercicio de los derechos ARCO de los ciudadanos.
  • C) Implementación de mejoras en auditorías algorítmicas: Para garantizar la fiabilidad del sistema es fundamental implementar un programa de auditorías algorítmicas periódicas que utilicen un tamaño muestral estadísticamente significativo (N). Este enfoque metodológico permite evaluar de manera objetiva y cuantificable el desempeño del modelo en condiciones reales de operación, e identificar proactivamente posibles riesgos operacionales, sesgos algorítmicos o desviaciones en los resultados. La implementación sistemática de estas auditorías no solo optimiza el funcionamiento continuo del sistema, sino que también establece mecanismos de mejora iterativa basados en evidencia empírica, fortaleciendo así la transparencia y confiabilidad del modelo a lo largo de su ciclo de vida.
  • D) Fortalecimiento de la explicabilidad del modelo: Es esencial mejorar la explicabilidad del sistema, especialmente considerando el uso de algoritmos tipo “caja negra”. Esto implica generar mecanismos comprensibles para distintos públicos —tanto técnicos como no técnicos— que permitan entender cómo se toman las decisiones automatizadas, particularmente en contextos sensibles. Una mayor explicabilidad promueve la rendición de cuentas y facilita la identificación de errores o sesgos no evidentes.
  • E) Establecimiento de una gobernanza ética y multidisciplinaria del Modelo al interior de la institución: La creación de un equipo multidisciplinario compuesto por distintos perfiles permitirá supervisar de forma continua el desarrollo, implementación y evolución del modelo. Este equipo debe tener la capacidad de emitir recomendaciones, revisar decisiones críticas y garantizar que se mantenga el enfoque ético y centrado en los derechos durante todo el ciclo de vida del sistema.
¿Cómo fue la experiencia de trabajar de la mano con el GobLab de la UAI?

La experiencia fue muy positiva, nos proporcionaron un acompañamiento permanente que aseguró que ambas herramientas hayan sido desarrolladas en su totalidad, los que nos ayudó a identificar riesgos y nos proporcionó recomendaciones detalladas para gestionar los riesgos identificados.

¿Qué le diría a otro organismo público que esté interesado en trabajar con estas herramientas de código abierto, pero aún no se ha convencido?

Si bien DART no es una solución basada en código abierto, la experiencia demuestra que trabajar con herramientas de inteligencia artificial exige más que solo tecnología: requiere un compromiso decidido con la ética, la transparencia y una adecuada gestión de riesgos. Implementar este tipo de soluciones implica asegurar que los modelos respeten los derechos de los usuarios y se alineen con los principios del servicio público. Estas herramientas pueden ser un gran aporte, siempre que se acompañen de una gobernanza responsable y una mirada centrada en las personas.