Un proyecto dirigido por Enzo Ferrante, investigador del CONICET en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i),CONICET-UNL), denominado “Descubrimiento de sesgo no supervisado: anticipando problemas de equidad algorítmica en modelos de machine learning para análisis de imágenes médicas sin anotaciones de referencia”, fue seleccionado para el Google Award for Inclusion Research (Google AIR), un reconocimiento internacional que otorga la empresa a investigadores que logran trabajos con impacto positivo en el bien común.
Ferrrante explica que Google AIR es un programa internacional altamente competitivo que, en esta ocasión, ha premiado grupos de la New York University, de Stanford y de seis instituciones latinoamericanas, entre las que se halla la el equipo que integra Ferrante con Victoria Peterson (co-directora del proyecto galardonado), investigadora del CONICET en el Instituto de Matemática Aplicada del Litoral (IMAL, CONICET-UNL), y los investigadores del CONICET Diego Milone y Rodrigo Echeveste –también del sinc(i)-, y becarios/as con tesis doctorales en temáticas afines.
Sobre el proyecto premiado
En los últimos años se experimenta a nivel internacional una expansión de la investigación en modelos de inteligencia artificial (IA) aplicados al análisis automatizado de imágenes médicas, con la finalidad de lograr mayor precisión y velocidad en los diagnósticos de numerosas enfermedades, que van del cáncer de mamas a la esclerosis múltiple. La rápida expansión en la implementación de estas técnicas hace que sea muy importante investigar sobre los márgenes de error en los resultados, donde se verifican ciertos “sesgos” que se manifiestan a través de rendimientos dispares en modelos de IA aplicados a poblaciones diversas que, generalmente, están subrepresentadas en las bases de datos utilizadas para su entrenamiento.
En materia de salud, los sistemas basados en IA pueden arrojar resultados diferentes según el grupo al que se aplica, lo que conlleva diferencias que pueden ser muy importantes al momento de diagnosticar y proponer los tratamientos más convenientes. Ante esto, los expertos argentinos alertan sobre el riesgo de reproducir sesgos propios de bases de datos diseñadas en el extranjero, por lo que orientaron sus investigaciones en base a estrategias destinadas a minimizar los efectos nocivos que pueden plantearse a nivel local.
Dentro de las ciencias de la computación ha nacido un campo de estudio denominado “justicia algorítmica en aprendizaje automático”, área novedosa a la que se dedica el grupo de Ferrante, que ya ha logrado publicaciones pioneras en prestigiosas revistas como Proceedings of the National Academy of Sciences (PNAS) y Nature Communications. En cuanto al tema particular del proyecto, en los últimos años se ha demostrado que los sistemas de IA pueden estar sistemáticamente sesgados respecto a subpoblaciones en función de características demográficas como el grupo étnico o el género en una variedad de escenarios.
El término “sesgado” -en este contexto- hace referencia a modelos de IA que presentan un rendimiento dispar en función del grupo demográfico al que la persona pertenece. Cuando se trata de sistemas de IA que analizan datos de salud, el tema adquiere mucha relevancia para las tareas de análisis de imágenes médicas, como el diagnóstico asistido por computadora. En este caso, sostiene Ferrante, “es vital auditar los modelos considerando diferentes poblaciones, evaluando las métricas de equidad para determinar el potencial desempeño dispar entre los subgrupos, por ejemplo, sistemas que presenten un mejor rendimiento en hombres que en mujeres o en pacientes jóvenes que en pacientes adultos”.
En el proyecto financiado por Google, el objetivo de los investigadores es desarrollar nuevos métodos para el descubrimiento de sesgos no supervisados en ausencia de información demográfica y anotaciones de expertos, que pueden ayudar a anticipar problemas de equidad al utilizarlos en nuevas poblaciones. “Ser capaces de descubrir este tipo de sesgo en los sistemas de IA, yendo más allá de las categorías demográficas predefinidas, puede resultar muy útil para evitar un rendimiento de diagnóstico dispar, especialmente cuando se consideran aspectos como identidad de género u orientación sexual, que son construcciones culturales fluidas y que pueden cambiar con el tiempo, a través de contextos sociales y no se pueden categorizar fácilmente”, afirma Ferrante.
El proyecto cuenta con el financiamiento y respaldo del CONICET, de la Facultad de Ingeniería y Ciencias Hídricas de la Universidad Nacional del Litoral y de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación.