El consejo de salud basado en inteligencia artificial podría hacer más daño que bien
Un nuevo estudio encuentra un problema preocupante con los chatbots de inteligencia artificial populares: cuando se trata de consejos médicos, a menudo son inexactos o incompletos.
Los investigadores evaluaron cinco herramientas ampliamente utilizadas, incluyendo ChatGPT, Gemini, DeepSeek, Meta AI y Grok.
A cada chatbot se le hicieron 10 preguntas que abarcaban cáncer, vacunas, células madre, nutrición y rendimiento deportivo.
Sus respuestas fueron calificadas por su precisión y grado de completitud
y si difuminaban la línea entre la ciencia y la desinformación.
¿Los resultados? La mitad de las respuestas a preguntas claras basadas en evidencia fueron calificadas como “algo” o “altamente” problemáticas, lo que significa que podrían potencialmente engañar a los usuarios o incluso causar daño si se siguen.
Los chatbots obtuvieron mejores resultados en vacunas y cáncer, pero tuvieron dificultades con células madre, rendimiento deportivo y nutrición.
Las preguntas abiertas dieron lugar a respuestas más inexactas o engañosas.
Los investigadores señalan que las respuestas a menudo se presentaban con confianza, pero sin advertencias importantes.
Y en algunos casos, las fuentes estaban incompletas… o incluso eran inventadas.
Los autores advierten que, sin “educación pública, capacitación profesional y supervisión regulatoria”, la inteligencia artificial podría debilitar la salud pública.
Fuente:
Afiliaciones de los autores:
Harbor-UCLA Medical Center
University of Alberta
University of Ottawa
Wake Forest School of Medicine
Loughborough University
