Dar su información de atención médica a un chatbot es, como era de esperar, una idea terrible

The Verge
Los expertos advierten que compartir datos de salud confidenciales con chatbots como ChatGPT Health es una mala idea debido a la débil protección legal y el riesgo de uso indebido.

Resumen

Más de 230 millones de personas utilizan ChatGPT semanalmente para obtener consejos de salud, lo que llevó a OpenAI a lanzar ChatGPT Health, una pestaña dedicada y supuestamente más segura para intercambiar información médica sensible. Anthropic también introdujo Claude for Healthcare, que está listo para HIPAA para proveedores. Sin embargo, los expertos advierten que las herramientas orientadas al consumidor carecen de las estrictas salvaguardias legales aplicadas a los proveedores médicos, ya que la protección de datos depende en gran medida de las promesas de las empresas en sus términos de uso, las cuales pueden cambiar. La confusión se agrava por el lanzamiento simultáneo de un producto para el consumidor (ChatGPT Health) y uno empresarial (ChatGPT for Healthcare) con protocolos de seguridad más estrictos, lo que facilita confundir ambos. Además, incluso si las empresas prometen confidencialidad, hay poca protección legal si cambian sus políticas más adelante. Más allá de la privacidad, el riesgo de consejos médicos inexactos persiste, como lo demuestran errores pasados de los chatbots. Aunque OpenAI afirma que su herramienta para el consumidor no está destinada al diagnóstico o tratamiento, evitando así una regulación más estricta como dispositivo médico, los esfuerzos de la compañía para presentar el chatbot como una fuente de información de salud autorizada socavan esas exenciones de responsabilidad, lo que podría llevar a los usuarios a confiar demasiado en el sistema a pesar de sus limitaciones.

(Fuente:The Verge)