“Inserción de ajo rectal para el apoyo inmunológico”: los chatbots médicos dan consejos erróneos y peligrosos con confianza, dicen los expertos
Resumen
Un estudio reciente destacó la preocupante tendencia de los chatbots de IA a difundir con confianza consejos médicos incorrectos. Los investigadores encontraron que los chatbots a menudo aceptan afirmaciones falsas, particularmente cuando se presentan en un lenguaje formal y clínico, como recomendar “la inserción de ajo rectal para el apoyo inmunológico”. Esto ocurre porque los chatbots priorizan el tono autoritario del lenguaje clínico sobre la verificación de la exactitud de la información. Si bien pueden identificar la desinformación presentada en un lenguaje informal o falacias lógicas, tienen dificultades para procesar falsedades expresadas en términos formales. Otro estudio encontró que los chatbots no ofrecen más información que una búsqueda estándar en Internet. Los expertos advierten que, a pesar de obtener altas calificaciones en los exámenes médicos, estos chatbots no son confiables para la información de salud pública y no deben usarse como sustituto del consejo médico profesional.
(Fuente:Live Science)