23 Jul Superando la ficción: la batalla contra las “alucinaciones” en la IA
En la era en la que el modelo GPT-4 de OpenAI acaparaba titulares por su capacidad para superar exámenes oficiales, universitarios y de posgrado, un grupo de investigadores y colaboradores de Microsoft se encontraba trabajando en un desafío paralelo. Su objetivo era mejorar el rendimiento de los modelos de inteligencia artificial (IA) en tareas cognitivas, y también abordar un problema crítico: la fabricación de información o “alucinaciones”.
Las alucinaciones en los modelos de lenguaje se refieren a la generación de datos falsos o incorrectos por parte de la IA. Este fenómeno puede socavar la confianza y la fiabilidad de las aplicaciones basadas en IA, y es una preocupación clave para los desarrolladores y usuarios. Microsoft, consciente de este reto, diseñó una serie de pruebas rigurosas para evaluar y mejorar la precisión de sus modelos.
“Microsoft quiere asegurarse que cada sistema de IA que construye ofrece la confianza necesaria para poder utilizarlo de forma eficaz”, afirma Sarah Bird, Chief Product Officer de Responsible AI de Microsoft. “Nuestra posición, con numerosos expertos y recursos dedicados a este campo, nos permite contribuir a allanar el camino a la hora de definir cómo utilizar las nuevas tecnologías de IA de manera responsable, y facilitar que otros también lo hagan.”
Técnicamente, las alucinaciones son información “no fundamentada”, lo que indica que un modelo ha alterado los datos proporcionados o ha añadido información adicional que no estaba presente originalmente.
Hay ocasiones en las que las alucinaciones pueden ser beneficiosas, como cuando los usuarios desean que la IA genere una historia de ciencia ficción, o que aporte ideas poco convencionales sobre temas que van desde la arquitectura a la programación. Sin embargo, muchas organizaciones que desarrollan asistentes de IA necesitan que estos proporcionen información fiable y fundamentada, especialmente en contextos como resúmenes médicos o educativos, donde la precisión es fundamental.
La tarea de recuperación de texto: un desafío para la IA y los humanos
Para abordar este problema, los investigadores de Microsoft desarrollaron una tarea de recuperación de texto especialmente difícil, una tarea que incluso para la mayoría de las personas sería un reto considerable. Este experimento buscaba poner a prueba la capacidad de los modelos de IA para rastrear y recuperar información con precisión, reduciendo la propensión a generar respuestas inventadas.
Mediante la implementación de este tipo de pruebas, los modelos fueron ajustados y mejorados continuamente. Los resultados de estos estudios han mostrado una reducción significativa en las alucinaciones, lo que representa un avance importante en el campo de la IA.
Este enfoque innovador permitió a los investigadores identificar las debilidades de los modelos y aplicar mejoras precisas para fortalecer su fiabilidad.
Estudios y datos que respaldan el progreso
Un estudio reciente realizado por Microsoft, publicado en 2023, reveló que la tasa de alucinaciones en sus modelos se redujo en un 30% después de implementar estas tareas de recuperación de texto.
Este avance mejora la precisión de las respuestas generadas por la IA e incrementa la confianza de los usuarios en estas tecnologías.
Bill Gates, cofundador de Microsoft dijo: “La inteligencia es la habilidad de adaptarse al cambio”.
Esta frase refleja el espíritu de innovación continua que impulsa los esfuerzos de Microsoft en mejorar sus modelos de IA, adaptándose y superando los desafíos que surgen.
Futuro de la IA Ética
Este ejemplo de mejora continua ilustra cómo Microsoft está desarrollando soluciones para medir, detectar y mitigar las alucinaciones, en un esfuerzo por avanzar en la IA de manera segura, fiable y ética.
La reducción de las alucinaciones es crucial para aplicaciones comerciales así como para aplicaciones sensibles como la medicina, la educación y la toma de decisiones empresariales, donde la precisión y la fiabilidad son fundamentales.
Mientras la tecnología de la IA siga evolucionando, la lucha contra las alucinaciones se convierte en un componente esencial del desarrollo de modelos más precisos y éticos. Los avances realizados por Microsoft en esta área destacan la importancia de un enfoque meticuloso y proactivo para garantizar que la inteligencia artificial no sólo sea poderosa, sino también confiable y segura para todos los usuarios.