InicioTecnologíaLas predicciones de la inteligencia artificial: ¿cuándo deberíamos desconfiar de sus vaticinios?

Las predicciones de la inteligencia artificial: ¿cuándo deberíamos desconfiar de sus vaticinios?

Investigadores del MIT trabajan en un sistema para mejorar las denominadas “estimaciones de incertidumbre” en los modelos de aprendizaje automático. ¿Por qué es relevante para el futuro de un sector en marcado auge?

04 de agosto 2024, 05:48hs

Los científicos subrayan que el buen funcionamiento de los modelos de IA en determinados escenarios no se traduce en una eficiencia plena en otros contextos. (Foto: DALL-E)

Los científicos subrayan que el buen funcionamiento de los modelos de IA en determinados escenarios no se traduce en una eficiencia plena en otros contextos. (Foto: DALL-E)

El aprendizaje automático, una rama de la inteligencia artificial, permite a científicos de diversas disciplinas acceder a predicciones que poco tienen que ver con la adivinación o con las bolas de cristal que prometen revelarnos el futuro. En cambio, se trata de estimaciones que esos sistemas realizan en base a información.

La medicina es una de las áreas en las que ya se emplea ese tipo de predicciones. Con machine learning, es posible analizar grandes cantidades de datos —historiales de pacientes, imágenes, estudios, etcétera— para identificar patrones que podrían pasar desapercibidos para los profesionales humanos y, así, conseguir detecciones tempranas.

Leé también: Inteligencia artificial y nanotecnología, la sinergia que supera la ciencia ficción y transforma el futuro

Especialmente en sectores críticos como aquel, es importante tener en cuenta que los modelos de aprendizaje automático pueden arrojar predicciones falsas. Por eso, ese tipo de sistemas usualmente incluyen indicaciones que le dicen al usuario qué tan segura es determinada inferencia.

Los investigadores señalan que es importante tener en cuenta que los modelos de aprendizaje automático pueden arrojar predicciones falsas.  (Foto: Adobe Stock)

Los investigadores señalan que es importante tener en cuenta que los modelos de aprendizaje automático pueden arrojar predicciones falsas. (Foto: Adobe Stock)

Para mejorar las predicciones de la inteligencia artificial y del aprendizaje automático en particular, investigadores del Instituto Tecnológico de Massachusetts (MIT), en colaboración con equipos de la Universidad de Toronto, proponen un nuevo enfoque para lo que, en la jerga, llaman “estimaciones de incertidumbre” en los modelos de machine learning.

“Es importante impulsar este tipo de trabajo para asegurarse de que los modelos se alineen con las nociones humanas de incertidumbre”, dice Nathan Ng, autor principal del estudio y estudiante en la mencionada institución canadiense.

¿Por qué es clave mejorar las estimaciones de incertidumbre en el aprendizaje automático?

El concepto reviste cierta complejidad. Básicamente, las estimaciones de incertidumbre son parámetros para determinar si se debe confiar en las conclusiones de estos modelos. Veamos un ejemplo en un sector diferente a la medicina. Por caso, un programa de machine learning puede indicar que su confianza para contratar a un empleado —en función del examen de currículums— es del 50%. Con esa indicación, el usuario conoce el nivel de seguridad de la decisión.

¿Querés recibir más noticias de Tecno?

Suscribite acáLos métodos que habitualmente se emplean para la cuantificación de la incertidumbre suelen requerir cálculos estadísticos complejos que no se adaptan bien a los millones de parámetros de los modelos de aprendizaje automático. Además, requieren que los usuarios hagan suposiciones sobre el modelo y los datos utilizados para entrenarlo.

Para mejorar las predicciones de la IA, los investigadores del MIT apelaron a lo que llaman “principio de longitud mínima de descripción”. En un paper publicado recientemente, señalan que de ese modo se consiguen estimaciones más precisas, que es el enfoque es aplicable a modelos de aprendizaje profundo a gran escala y que, como resultado, se mejora la toma de decisiones en diversas áreas.

«Las herramientas de auditoría son cada vez más necesarias en este ámbito, ya que se utilizan grandes cantidades de datos no examinados», observan. (Foto: Adobe Stock)

Esta técnica podría brindar a los usuarios finales, muchos de los cuales carecen de experiencia en aprendizaje automático, mejor información que pueden usar para determinar si confiar en las predicciones de un modelo o si el modelo debe implementarse para una tarea en particular, explican desde el MIT.

“Es fácil ver que estos modelos funcionan muy bien en escenarios en los que son muy buenos y luego suponer que serán igual de buenos en otros escenarios.”, dice Nathan Ng. “Una forma de entender qué tan seguro está un modelo sería brindarle información contrafáctica y ver qué tan probable es que te crea”, agrega.

Leé también: Machine learning: así funciona la disciplina que les enseña a las computadoras a aprender por sí mismas

A fin de cuentas, las claves son la supervisión y la fiabilidad. En ese sentido, los expertos subrayan que las herramientas de auditoría son cada vez más necesarias en este ámbito, ya que se utilizan grandes cantidades de datos no examinados, con los que se crean modelos, que ulteriormente se aplican a problemas que enfrentamos los humanos. En el futuro, los investigadores están interesados en aplicar su enfoque a grandes modelos de lenguaje y estudiar otros posibles casos de uso.

La investigación —completa, en este enlace— se presentó en la Conferencia Internacional sobre Aprendizaje Automático, celebrada a fines de julio en Viena, Austria. Nathan Ng escribió su artículo con Roger Grosse, profesor asistente de Ciencias de la Computación en la Universidad de Toronto, y Marzyeh Ghassemi, miembro del Laboratorio de Sistemas de Información y Decisión (LIDS) del MIT.

MAS NOTICIAS
NOTICIAS RELACIONADAS