Hay que poner límites a la tecnología – El Financiero

Hace unas semanas me hicieron una entrevista sobre el futuro de la medicina en la era de la ciencia de datos y la inteligencia artificial. Mi principal declaración fue que en el corto plazo dichas tecnologías serían disruptivas en el diagnóstico de enfermedades. Por ejemplo, en el diagnóstico de algunos tipos de cáncer, las máquinas tienen 90 por ciento de certeza y los humanos 96 por ciento, pero entre los dos tienen un 99.5 por ciento.

Esto es un ejemplo claro de que la colaboración máquina-humano es más exitosa que por sí solas.

En un estudio publicado recientemente en Arxiv, por un grupo de doctores que trabajaban en un proyecto de diagnóstico basado en placas de rayos X, hicieron un descubrimiento que llamó su atención. Los algoritmos de aprendizaje de máquina – sin ningún otro dato adicional – comenzaron a predecir el grupo racial al que pertenecían los sujetos de estudio, con una certeza sobresaliente. Pero el problema es que el modelo no fue entrenado para eso y por lo mismo la tecnología excedió su capacidad para la que fue diseñada.

Pero ese no es el problema, no es la primera vez que buscando un resultado, los científicos obtienen otros resultados, incluso de mayor valor que el de la búsqueda original, la humanidad y específicamente la medicina, están repletos de esos “accidentes felices”. El problema en este caso, es que los doctores encargados de la investigación no han sido capaces de replicar las variables que consideró el modelo de aprendizaje profundo para lograr identificar la raza de un individuo sólo por sus rayos X. No tienen idea cómo o por qué pasó que la máquina decidió “mandarse” sola.

“Estos hallazgos sugieren que no sólo la identidad racial se aprende trivialmente por los modelos de Inteligencia Artificial, sino que parece probable que sea notablemente difícil eliminar sesgos en estos sistemas”; “Sólo pudimos reducir la capacidad de los modelos para detectar la raza con una degradación extrema de la calidad de la imagen…”, explicaron los científicos.

Para vigilar la tecnología y anticipar sus sesgos, su mal uso o el libre albedrío, debemos ser capaces de determinar lo que aprende, saber cómo lo aprende y controlar lo que hace con lo que aprende. Este tipo de extralimitaciones preocupan, con razón, no sólo a los responsables de realizar el experimento, sino también a otros miembros de la comunidad científica que están intentando replicar y validar el fenómeno, en aras de asegurar que la tecnología nos habilite y no se extralimite en sus funciones, menos por voluntad propia.

El autor es fundador y presidente del Consejo de Metrics.