Un muy interesante documental, de las plataformas habituales, centra su relato en un sistema de reconocimiento facial que puntualmente no reconocía el rostro de una persona.

El sistema era un desarrollo de inteligencia artificial y la razón por la cual no reconocía ese rostro es porque los datos (imágenes de caras) con los que entrenaron el sistema eran principalmente hombres blancos. Por ello, el sistema no reconocía un rostro de mujer afrodescendiente.

Un estudio de la Universidad de Santa Fe, Argentina, que evaluó un sistema predictivo de diagnóstico sanitario desarrollado con inteligencia artificial, concluyó que los modelos que analizan radiografías pueden evaluar con errores determinados cuadros clínicos para hombres y mujeres si son entrenados con datos desbalanceados.

Básicamente concluyeron que si un modelo de diagnóstico basado en aprendizaje automático sobre imágenes de rayos x es entrenado con datos desbalanceados (pocos datos de alguno de ellos) el modelo puede presentar un rendimiento más bajo en el grupo menos representado.

Estas dos situaciones ejemplifican uno de los riesgos más relevantes que trae consigo la incorporación de desarrollos de inteligencia artificial en un proceso asistencial.

Los algoritmos se alimentan de datos para la toma de decisiones. El “machine learning” implica que los algoritmos aprenden de los datos introducidos y luego utilizan este conocimiento para sacar conclusiones de nuevos datos. Trabaja con algoritmos de regresión o con árboles de decisión. Por su parte, el “deep learning” es un concepto muy similar, pero con algoritmos diferentes, usa redes neuronales que funcionan de forma muy parecida a nuestro cerebro.

La decisión humana tiene una importante intervención en la selección de los datos para el entrenamiento y en el diseño de los algoritmos. Esto hace que la inteligencia artificial adopte sesgos de la decisión humana. La inteligencia artificial no está inmunizada de los sesgos propios de nuestra naturaleza humana.

Daniel Kahneman y Amos Tversky definieron en los años 70 al sesgo cognitivo como una interpretación errónea sistemática de información disponible que ejerce influencia en la manera de procesar los pensamientos, emitir juicios y tomar decisiones.
En todos los abordajes que se han realizado a nivel internacional en torno a esta problemática se destaca la justicia, la igualdad y la inclusión como factores centrales en el diseño de inteligencia artificial.

En este contexto, detenerse en la necesidad de nutrir los algoritmos de datos los suficientemente inclusivos, que tomen en cuenta características de contexto, sociales, económicas y demográficas, pasan a ser una tarea esencial, que evitan que el algoritmo se “contagie” de sesgos negativos y arribe a conclusiones injustas. En consecuencia, al momento de proyectar hay que preguntarse ¿Los datos son apropiados, precisos, de buena calidad, inclusivos? ¿Están reflejando algún sesgo negativo humano?

La Organización Mundial de la Salud plantea al respecto que debe alentarse la utilización y el acceso equitativo en la mayor medida de lo posible, con independencia de la edad, el sexo, el género, el ingreso, la raza, el origen étnico, la orientación sexual, la capacidad u otras características amparadas por la normativa de derechos humanos.

Por su parte la Organización Panamericana de la Salud también recalca que los desarrollos de inteligencia artificial deben propender a la justicia, la igualdad y la inclusión en el diseño.

A nivel de Unión Europea se regula que la aplicación de IA no debe generar resultados injustamente sesgados. Los datos para la formación de IA deben ser lo más inclusivos posibles de forma que estén representados los diferentes grupos de población.

En España, recientemente se aprobó una Ley Integral de Trato y No Discriminación que contiene una regulación específica que refiere a criterios de minimización de sesgos, transparencia y rendición de cuentas al momento de poner en marcha algoritmos que involucren inteligencia artificial. Buscando que al momento de diseñarlos o entrenarlos se tenga en cuenta el potencial impacto discriminatorio. Prevé la realización de evaluaciones de impacto para verificar si existen sesgos en el sistema.

En definitiva, es un aspecto que debe estar presente en los desarrollos de inteligencia artificial en salud, generando la necesidad de la inclusión del aspecto ético en su construcción. Criterio que poco a poco está siendo tomado en cuenta por regulaciones a nivel mundial.