Tabla de contenidos
Los rápidos avances en inteligencia artificial han propiciado la aparición de modelos lingüísticos de alto rendimiento, como el GPT-3 de OpenAI. Sin embargo, estos potentes modelos no están exentos de defectos, ya que a veces pueden producir resultados inesperados y erróneos, conocidos como alucinaciones. Hoy vamos a profundizar en este curioso fenómeno de la IA. También es una de las mayores preocupaciones actuales, y sobre la que la investigación sigue activa.
¿Qué son las alucinaciones en IA generativa?
En términos simples, las alucinaciones en IA ocurren cuando un modelo generativo, como los que usan los large languaje models (LLM), produce información que no se basa en datos reales, sino en patrones erróneos o inexistentes. Imagínate pidiéndole a una IA una respuesta concreta, pero en lugar de obtener datos precisos, la IA genera información inventada, algo así como si estuviera «viendo cosas» que no están ahí.
Aunque el término «alucinación» proviene del ámbito de la psicología humana, en este contexto describe perfectamente el error. Por ejemplo, un chatbot de IA puede afirmar con toda confianza que un evento histórico tuvo lugar en una fecha incorrecta o que un personaje ficticio es real.
Recientemente, un abogado de Nueva York que representaba la demanda por lesiones de un cliente se basó en un chatbot conversacional para llevar a cabo su investigación legal. El juez federal que supervisaba la demanda señaló que seis de los precedentes citados en su escrito eran falsos. Resulta que el chatbot no sólo los inventó, sino que incluso estipuló que estaban disponibles en las principales bases de datos jurídicas.
Aunque hay que poner barreras para evitar las alucinaciones de la IA Generativa, el primer paso es entender cómo, o más bien por qué, se producen estas imprecisiones.
¿Por qué ocurren las alucinaciones en la IA generativa?
Se pueden deber a diversos motivos, aquí te muestro algunos:
1. Datos incompletos
Los modelos de IA dependen de grandes cantidades de datos para aprender, pero si esos datos no cubren suficientes escenarios o no son diversos, la IA puede llenar los huecos con información incorrecta.
Ejemplo: Imagina que un modelo de IA fue entrenado principalmente con datos de países donde el transporte público es muy común, como en Europa. Si alguien le pregunta sobre el transporte en una ciudad rural en EE. UU., la IA podría asumir que hay un sistema de transporte público extenso, cuando en realidad no lo hay. Esto se debe a que la IA no ha aprendido sobre lugares donde el transporte público es menos común.
2. Sesgo en los datos
El sesgo en los datos se refiere a la presencia de información que está inclinada hacia ciertos puntos de vista o perspectivas. Este es un problema que aparece porque los datos en los que se entrena la IA provienen de internet o de fuentes que no representan todas las voces o puntos de vista de manera equilibrada.
Ejemplo: Si una IA se entrena principalmente con textos escritos en inglés y, dentro de esos textos, la mayoría de los autores son hombres occidentales, la IA podría generar respuestas que reflejen más las experiencias o puntos de vista de ese grupo. Por ejemplo, podría responder de manera diferente a preguntas sobre roles de género en comparación con una IA entrenada con una mayor diversidad de textos que incluyan voces femeninas y de otras culturas.
3. Falta de comprensión real
Las IA no «entienden» el mundo de la manera en que lo hacen los humanos. Aunque son muy buenas para detectar patrones y generar lenguaje que parece correcto, no tienen la capacidad de verificar si lo que están diciendo es cierto o falso. No tienen un conocimiento interno de los hechos o de cómo funciona el mundo.
Ejemplo: si la IA fue entrenada con información incorrecta sobre un evento histórico, podría «alucinar» y dar detalles falsos, como decir que «Abraham Lincoln fue presidente en 1900», cuando en realidad fue en el siglo XIX. El modelo podría mezclar fechas o eventos basándose en la probabilidad de las palabras, sin tener un concepto claro de las secuencias históricas.
4. Problemas de contexto
El contexto es crucial para comprender muchas interacciones humanas, especialmente cuando se trata de ironía, sarcasmo o referencias culturales. Los modelos de IA todavía luchan por comprender completamente estos matices, lo que puede llevar a respuestas confusas o inadecuadas.
Ejemplo: Si le dices a una IA algo sarcástico como «Claro, porque todos tenemos 25 horas al día», podría responder de manera literal, diciendo «No, el día solo tiene 24 horas». Aunque el comentario fue sarcástico, la IA no tiene la capacidad de entender el tono o la ironía implícita, por lo que te da una respuesta basada en el significado literal.
Cómo prevenir las alucinaciones de la IA
Aunque es importante que los desarrolladores construyan herramientas de IA de forma que se minimicen las alucinaciones, aún hay formas de hacer que los modelos de IA sean más precisos cuando se interactúa con ellos, basándose en cómo se incita a la IA.
- No utilices los modelos para hacer cosas para las que no están entrenados: ChatGPT es un chatbot de uso general entrenado para una amplia gama de contenidos. No está diseñado para usos específicos como citar jurisprudencia o realizar una revisión de literatura científica. Aunque a menudo te dará una respuesta, lo más probable es que sea una respuesta bastante mala. En su lugar, busca una herramienta de IA diseñada para la tarea y utilízala.
- Proporciona información, referencias, datos y todo lo que puedas: Independientemente del tipo de herramienta de IA que utilices, proporciónale todo el contexto que puedas. Con chatbots como ChatGPT y Claude, puedes subir documentos y otros archivos para que los utilice la IA; con otras herramientas, puedes crear una base de datos RAG completa para que la utilice.
- Comprueba los resultados importantes: aunque la mayoría de las herramientas de IA funcionarán lo suficientemente bien para tareas no críticas, si le preguntas a un determinando chatbot si es seguro comer una seta determinada, comprueba los resultados en un sitio web de micología.
- Utiliza instrucciones y controles personalizados: dependiendo de la herramienta de IA que utilices, es posible que puedas establecer instrucciones personalizadas o ajustar controles como el tono para establecer cómo responden. Incluso si no hay controles establecidos, puedes añadir algo como «¡Sé servicial!» para incitar a la IA a responder de una manera específica.
- Pide a la IA que vuelva a comprobar sus resultados: sobre todo en tareas lógicas o multimodales, si no estás seguro de que la IA haya hecho las cosas bien, puedes pedirle que vuelva a comprobar o confirmar sus resultados.
- Pídele que resuelva el ejercicio poco a poco: algunas formas de preguntar a los LLM son más eficaces que otras. En el caso de que la solicitud que le estés lanzando requiera una respuesta extensa sería conveniente hacerlo poquito a poco. Por ejemplo, si le pides a una IA que redacte un documento puedes ordenarle que descomponga el problema por partes y las resuelva de una en una, puede empezar por la introducción y más tarde ordenarle que continúe con los demás apartados.
Ejemplos de alucinaciones de la IA
Las herramientas de IA actuales han mejorado, aunque siguen produciéndose alucinaciones. He aquí algunos tipos comunes de alucinaciones de la IA:
Hechos históricos: una herramienta de IA puede afirmar que el primer alunizaje tuvo lugar en 1968, cuando en realidad ocurrió en 1969. Este tipo de errores pueden llevar a tergiversar acontecimientos significativos de la historia de la humanidad.
Error geográfico: una IA puede decir que Toronto es la capital de Canadá, aunque la capital real es Ottawa. Esta información falsa podría confundir a estudiantes y viajeros que quieran conocer la geografía de Canadá.
Datos financieros: un modelo de IA podría fallar con las métricas financieras, como afirmar que el precio de las acciones de una empresa subió un 30% en un día cuando, en realidad, el cambio fue mucho menor. Confiar únicamente en un asesoramiento financiero erróneo podría llevar a tomar malas decisiones de inversión.
Orientación jurídica: también podría confundir a los usuarios de que los acuerdos verbales son tan legalmente vinculantes como los contratos escritos en todos los contextos. Esto pasa por alto el hecho de que ciertas transacciones (por ejemplo, las inmobiliarias) requieren contratos escritos para su validez y aplicabilidad.
Información errónea sobre investigación científica: una herramienta de IA puede citar un estudio que supuestamente confirma un avance científico cuando tal estudio no existe. Este tipo de alucinación puede inducir a error a los investigadores y al público sobre importantes logros científicos.
Continuamente se producen avances en la IA, por lo que lo más probable es que estos errores se vayan reduciendo cada vez más.A medida que se vayan implementando sistemas de verificación más complejos y las IA sean más precisas, estos errores serán muy poco probables.Lo ideal sería que estos modelos estuvieran entrenados para que admitieran sus limitaciones y responder con un ¨no se¨ en vez de inventarse un dato.Sin embargo, mientras esto sucede,es aconsejable que se supervise detalladamente el resultado para garantizar que las respuestas que recibimos sean lo más exactas posible.
0 comentarios