La Doble Cara de la IA Generativa en Consultas Médicas
La explosión de los chats de inteligencia artificial generativa ha cambiado la forma en que las personas buscan información, especialmente en temas de salud. Muchos usuarios optan por estos sistemas como alternativa a los motores de búsqueda tradicionales, confiando en su capacidad para brindar respuestas rápidas y precisas. Sin embargo, un reciente estudio internacional publicado en BMJ Open sugiere que esta confianza puede ser más riesgosa de lo que parece. La investigación, encabezada por el Instituto Lundquist para la Innovación Biomédica, evaluó cinco modelos de IA reconocidos: Gemini de Google, DeepSeek, Meta AI, ChatGPT de OpenAI y Grok de xAI, y encontró que la mitad de sus respuestas eran problemáticas, generando preocupación sobre su fiabilidad.
Para medir la efectividad de estos sistemas, los investigadores diseñaron 250 preguntas sobre temas críticos como cáncer, vacunas y nutrición, imitando consultas comunes de usuarios. Los resultados fueron alarmantes: un 20% de las respuestas recibidas se catalogaron como “altamente problemáticas”, lo que podría conducir a decisiones de salud erróneas e incluso peligrosas. Un aspecto crítico del estudio es la forma en que estos modelos presentan la información; a menudo lo hacen con una seguridad engañosa, presentando afirmaciones científicas y pseudocientíficas como si fuesen igualmente válidas. Esta tendencia a igualar lo cierto con lo dudoso se debe a las limitaciones inherentes a la construcción de estos chatbots, que a menudo no pueden discriminar entre fuentes de información confiables y no confiables.
Además de la presentación engañosa de datos, el estudio también revela problemas en la accesibilidad de las respuestas de estos modelos de IA. La complejidad del lenguaje utilizado es igual a la de un graduado universitario, lo que puede dificultar la comprensión por parte de un público general y comprometer la toma de decisiones informadas. Las respuestas más largas, aunque parecen más precisas, tienden a incrementar la “credibilidad” de los chatbots en la percepción del usuario, lo cual es problemático. A esto se suma la incapacidad de los modelos para citar fuentes adecuadamente, con una calidad de referencias muy baja y la aparición de “alucinaciones”, donde los chatbots producen información falsa que parece verídica. Ante este panorama, queda claro que es esencial fomentar la educación pública y establecer regulaciones estrictas para mitigar los riesgos asociados al uso de la inteligencia artificial en el ámbito de la salud.


