
La inteligencia artificial enfrenta un desafío crítico conocido como alucinación, término utilizado para describir respuestas falsas que aparentan ser confiables. Este fenómeno, reportado por usuarios y expertos, plantea riesgos para quienes aplican estas tecnologías en procesos legales, médicos o financieros, donde la precisión resulta indispensable.
En una publicación en la red social TikTok, el usuario Matías_emprendedor explicó: "una alucinación es cuando el modelo inventa una respuesta, inventa una solución que suena creíble pero es realmente falsa". Añadió que "han ocurrido casos emblemáticos de uso de inteligencia artificial con alucinaciones que son bien complicadas". Entre ellos destacó el caso Apianca en 2023, cuando un abogado recurrió a ChatGPT para localizar jurisprudencia y el sistema generó sentencias inexistentes, lo que derivó en sanciones legales.
Más de dos años después de la llegada de ChatGPT, las alucinaciones siguen sin resolverse. Las compañías tecnológicas desarrollaron sistemas de razonamiento más sofisticados, entre ellas OpenAI, Google y la firma china DeepSeek. No obstante, los índices de error crecieron en lugar de disminuir y en una prueba, las tasas de alucinación alcanzaron hasta el 79%, reflejando inestabilidad en el manejo de hechos verificables.
Amr Awadallah, exejecutivo de Google y actual director de Vectara, declaró a New York Times: "A pesar de nuestros mejores esfuerzos, siempre van a alucinar. Eso nunca va a desaparecer". De acuerdo con investigadores, los modelos no comprenden la verdad de la misma forma que los humanos. En cambio, funcionan mediante cálculos matemáticos que predicen la siguiente palabra basándose en patrones, lo cual lleva a inventar datos cuando no encuentran información precisa.
Las consecuencias no se limitan al plano teórico. En motores de búsqueda, los chatbots vinculados a plataformas como Google y Bing entregaron respuestas erróneas, al punto de recomendar un maratón en Filadelfia como parte de la costa oeste de Estados Unidos. En contextos más sensibles, el impacto se amplifica. Según coinciden diversos investigadores, no gestionar adecuadamente los errores de la inteligencia artificial puede reducir de forma considerable el valor de estos sistemas diseñados para automatizar tareas.
Si bien la inteligencia artificial resulta poderosa y cada vez más relevante, el usuario de TikTok también advirtió: "realmente siempre debemos supervisar lo que está respondiendo. A veces simplemente de repente puede estar soñando despierta y nos entrega cualquier respuesta". Investigadores y empresarios coinciden en que la supervisión humana sigue siendo indispensable para reducir los efectos de este problema. (NotiPress)