将您的医疗保健信息提供给聊天机器人,不出所料,是个糟糕的主意
内容摘要
根据OpenAI的数据,每周有超过2.3亿人向ChatGPT寻求健康和保健建议,促使该公司推出了ChatGPT Health,这是一个专用的、声称更安全的标签,用于交换敏感的医疗信息。Anthropic也发布了面向医疗机构的Claude for Healthcare,它符合HIPAA标准。然而,专家警告说,面向消费者的工具缺乏适用于医疗服务提供者的严格法律保护,因为数据保护在很大程度上取决于公司在其使用条款中所做的承诺,而这些条款可能会改变。OpenAI推出的面向消费者的产品(ChatGPT Health)与具有更严格安全协议的企业级产品(ChatGPT for Healthcare)的发布,加剧了人们的混淆,使人们很容易将两者混为一谈。此外,即使公司承诺保密,如果他们以后更改政策,用户也几乎没有法律追索权。除了隐私问题,不准确的医疗建议风险依然存在,聊天机器人的错误已经证明了这一点。尽管OpenAI声称其面向消费者的工具并非用于诊断或治疗,从而避免了更严格的医疗设备监管,但该公司努力将聊天机器人塑造成权威的健康信息来源,可能会削弱其包含的免责声明,可能导致用户过度信任该系统,尽管存在局限性。
(来源:The Verge)