公司动态

无需医疗服务提供者禁止在医疗保健中使用 ChatGPT 媒体

2025-05-13

聊天生成式 AI 在医疗行业的应用与风险

关键要点

聊天生成式 AI 的应用在医疗行业具有潜在的好处,但面临法规带来的严格挑战。禁止使用 AI 不仅无法解决长期以来存在的问题,还会阻碍医疗服务所需的支持。数据泄露与内部风险依然是医疗行业的主要威胁,AI 的普及并未引入新风险,但加剧了现有问题。企业应建立有效的治理结构和政策,确保在使用 AI 服务时遵循合规性。

在医疗行业,聊天生成式 AI 的应用引发了广泛讨论,一方面是其可能带来的好处,另一方面则是潜在的风险。在一个严格监管的行业中,服务提供者常常会因为害怕合规性问题而完全禁止其使用,这种风险在批准使用皮克斯追踪工具时已显现无疑。

然而,全面禁止使用 AI 不仅会阻碍医疗服务的必要支持,而且并不能解决早在生成式 AI 出现之前就已存在的深层次问题。

白鲸加速器app下载安装

保护健康信息、个人身份信息PII以及其他公司数据的未经授权披露风险在医疗界长期存在。根据年度的 Verizon 数据泄露调查报告,内部风险已成为医疗组织多年来面临的主要威胁,无论是偶然还是恶意的行为。

聊天生成式 AI 和其他服务仅仅是让这些风险更容易蔓延,因为聊天 AI 大语言模型的发展速度与受欢迎程度急剧上升。

生成式 AI 有可能提高医疗结果,帮助识别新的治疗方法并预测临床医生不易察觉的结果。多篇学术文章,包括 乔治城国际事务期刊 发布的新报告,概述了 ChatGPT 在医疗行业,尤其是在医生负担过重的情况下,带来的多项好处。

从全天候患者支持到提高医疗结果的速度与准确性,ChatGPT 已经在该领域找到了自己的位置。研究人员已展示 ChatGPT 在乳腺癌筛查和乳腺疼痛成像中支持临床决策的潜力,尽管其输出结果的可靠性仍存在问题。

在医疗行业,因《健康保险流通与责任法案》(HIPAA) 对未经授权的数据访问有严格规定,在没有安全保障的情况下允许使用 ChatGPT 可能会导致合规性灾难。针对雇佣皮克斯追踪工具的服务提供者的多起泄露报告和诉讼提供了需谨慎使用创新技术的有力证据。

如同其他行业的多个报告显示,ChatGPT 在工作场所的迅速流行带来了数据泄露、不当共享等一系列不准确的问题,尤其是在一些领域,例如律师事务所。

无需医疗服务提供者禁止在医疗保健中使用 ChatGPT 媒体

越来越多的科技巨头因担心员工可能会通过 AI 服务故意或无意泄露公司信息而全面禁止使用。例如,三星电子在五月份实施了禁令,此前一名工程师将敏感的公司代码上传至 ChatGPT。

问题在于:与 ChatGPT 共享的任何数据可能会被分享给其他平台用户。这些工具默认保存用户的聊天记录,并利用这些对话训练未来的模型。虽然 ChatGPT 允许用户手动更改设置,但可能无法追溯性地删除在更新设置之前上传的数据。

与 AI 服务相关的其他公司风险包括:

不当共享的 PHI 或 PII,以及/或公司数据。攻击者可能会入侵模型系统。ChatGPT 本月早些时候已报告一起凭证盗窃事件。任何泄露的数据可能用于训练 AI 模型,提醒未来可能发生的泄露。这些工具可能在某些主题上存在偏见,从而导致患者护理或获得医疗服务时的偏见,数据已显示这种情况已经发生。像 ChatGPT 这样的工具是有缺陷的:即返回给用户的信息可能不准确或包含错误信息。在法律领域的员工已经因过度依赖 AI 服务而遭到反弹。威胁行为者已在应用商店中上传了恶意应用和插件。用户可能会下载这些应用,或与 AI 使用有关的合法工具,从而带来严重