医疗决策工具中的种族偏见

医疗护理中的种族偏见可能会在一些意想不到的地方表现出来。一个例子:在当今患者的检测、诊断和治疗中起重要作用的临床决策工具。

这些工具包含算法,或逐步操作流程,通常是计算机化的,用于计算诸如心脏病风险、胸部X光需求和处方药剂量等因素。人工智能可以用来扫描健康记录和账单系统,以创建所需的数据集。

表面上,这可能听起来是客观的。但研究表明,这些算法中使用的数据分析在关键方面可能对某些种族和社会经济群体存在偏见。这可能会在这些群体获得的医疗服务的数量和质量方面产生各种后果。

主要要点

  • 医疗决策工具在当今患者的检测、诊断和治疗中扮演着重要角色。
  • 不幸的是,这些工具依赖的算法有时可能存在偏见。
  • 使用医疗支出数据评估个人健康状况可能会误判贫困和少数族裔患者的疾病严重程度,因为较低的医疗支出反映的是缺乏医疗服务的机会,而非实际需求。
  • 用于诊断患者是否超重或肥胖的身体质量指数(BMI)算法,造成了体重羞辱和患者与医生之间的不信任,因为现在更多的黑人女性被归类为肥胖,而西班牙裔或白人女性则较少。
  • 现在开始对数据输入和结果进行种族、民族、收入、性别和年龄偏见的检查,以便识别差异并修正算法。

获取基于27年以上可信专业经验的个性化、人工智能驱动的答案。

ASK

种族偏见影响最重的患者

2019年,一项关于美国医院和保险公司广泛使用的算法的研究显示,该算法在系统性歧视黑人方面存在问题。该决策工具在两组患者病情相当的情况下,更少将黑人推荐到复杂医疗需求的护理管理项目,而非白人。

偏见的根本原因与算法根据患者上一年的医疗费用分配风险评分有关。假设是,识别出医疗费用较高的患者可以找到最需要医疗帮助的人。然而,许多黑人患者由于缺乏医疗机会、支付能力和信任,实际上比白人患者更难获得医疗服务。此时,他们的较低医疗费用并不能准确反映他们的健康状况。

护理管理项目采用高接触方式,例如电话、护士上门、优先安排医生预约,以应对最重患者的复杂需求。研究显示,这些项目可以改善治疗效果,减少急诊和住院次数,降低医疗成本。由于这些项目成本较高,通常分配给风险评分最高的人群。对黑人患者的偏见评分可能会增加他们的死亡风险,导致许多疾病的死亡率上升。

肾病中的种族变量

算法可能在不包含种族作为变量的情况下存在偏见,但一些工具故意将种族作为标准。例如,eGFR评分,用于评估肾脏健康和决定是否需要肾移植。

1999年的一项研究发现,黑人平均肌酐(肌肉分解的副产物)水平高于白人。科学家假设这是因为黑人肌肉质量较高,因此调整评分,意味着黑人必须有更低的eGFR分数才能被诊断为终末期肾病。结果,黑人患者必须等到肾病更严重时才能获得治疗。

2018年,华盛顿大学医学院的一名医学生发现,eGFR评分在诊断黑人患者肾病严重程度方面不准确。她努力争取将种族因素从算法中剔除,最终成功。2020年,UW医学中心同意,种族作为变量在医学诊断工具中是无效的,不符合科学严谨性。

重要提示

2021年,美国肾脏基金会和美国肾脏学会联合任务组建议采用新的2021年CKD EPI肌酐方程,不使用种族作为变量,以估算肾功能。

身体质量指数与种族偏见

即使是不包含种族的最简单的医疗决策工具,也可能反映社会偏见。例如,身体质量指数(BMI)是基于体重乘以身高的计算,用于识别体重过轻、超重和肥胖患者。

1985年,美国国立卫生研究院将肥胖定义与BMI挂钩,1998年,专家小组制定了基于BMI的指南,将之前被归类为正常体重或轻度超重的2,900万美国人划入超重和肥胖类别。

如今,根据BMI标准,大多数黑人、西班牙裔和白人都被归为超重或肥胖。但2021年疾病控制与预防中心(CDC)的一份报告显示,按种族或族裔划分,肥胖的美国人比例不同。

CDC数据显示,成人总体的比例为:

  • 非西班牙裔黑人:49.9%
  • 西班牙裔:45.6%
  • 非西班牙裔白人:41.4%
  • 非西班牙裔亚洲人:16.1%

按女性成人分类,差异更为明显:

  • 非西班牙裔黑人:57.9%
  • 西班牙裔:45.7%
  • 非西班牙裔白人:39.6%
  • 非西班牙裔亚洲人:14.5%

将如此大比例的人群标记为超重或肥胖,造成了体重羞辱和患者与医生之间的不信任。体重较重的人抱怨医生不解决他们的健康问题或担忧,而是责怪体重,推行减重方案。这导致许多黑人和西班牙裔患者避免就医,可能错失预防或早期发现问题的机会。

此外,越来越多的证据表明,超重或肥胖并不总是健康问题。某些严重疾病如心脏病、中风、2型糖尿病和某些癌症的发病率在肥胖者中更高。但在某些情况下,比如心脏手术后的康复,超重或中度肥胖(非极度肥胖)反而与更好的生存率相关。

加拿大2020年8月发布的新肥胖指南强调,医生应停止仅依赖BMI诊断。只有当体重影响身体健康或心理健康时,才应诊断为肥胖。治疗应采取整体方法,而非仅仅针对减重。指南还指出,“肥胖患者面临巨大偏见和污名化,这会增加发病率和死亡率,且与体重或BMI无关。”

考虑采用其他指标替代BMI,例如腰围。肥胖的定义也可能重新界定。2025年1月,一组58名研究人员提出了新的定义,将焦点从BMI转向过多的体脂及其对健康的影响。他们提出两类肥胖:临床前(脂肪过多,但器官功能正常)和临床(脂肪过多,损害组织和器官)。

减少决策工具中的偏见

医疗算法并非唯一可能存在偏见的算法类型。正如《新英格兰医学杂志》2020年的一篇文章指出,“这个问题不仅限于医学。例如,刑事司法系统使用再犯预测工具来指导保释金额和监禁判决。”作者表示,一种广泛使用的工具“虽然不直接使用种族,但使用许多与种族相关的因素,给黑人被告返回更高的风险评分。”

人工智能(AI)——尤其是机器学习的日益普及,也引发了关于基于种族、社会经济地位和其他因素偏见的问题。在医疗领域,机器学习通常依赖电子健康记录。贫困和少数族裔患者可能接受碎片化的护理,频繁在不同机构就诊,更可能在教学诊所就诊,数据输入或临床推理可能不够准确。他们可能无法访问在线患者门户或记录结果。因此,这些患者的记录可能存在缺失或错误数据。驱动机器学习的算法可能会因此排除贫困和少数族裔患者的数据集,影响所需的护理。

好消息是,近年来对医疗算法偏见的认识不断提高。数据输入和结果正被检查是否存在种族、民族、收入、性别和年龄偏见。美国的医学专业学会也开始认识到基于种族的医学带来的危害,逐步停止在临床算法中考虑种族。当差异被识别后,算法和数据集可以修正,以实现更好的客观性。

什么是算法?

没有统一的法律或科学定义,但国家标准与技术研究院(NIST)将其描述为“明确规定的计算数学过程;一套规则,遵循后会得到预期结果。”

算法的示例是什么?

从广义上讲,算法就是回答问题或实现目标的逐步流程。例如,蛋糕配方就是一种算法。在金融领域,自动交易系统也是一种算法。

什么是机器学习?

IBM作为该领域的先驱,将机器学习定义为“人工智能(AI)的一个子集,专注于能够‘学习’训练数据中的模式,并随后对新数据做出准确推断的算法。”

底线

尽管看起来客观冷静,医疗专业人员用来做出某些决策的算法可能存在基于种族、阶级和其他因素的偏见。因此,不能盲目信任算法,而应进行严格分析。正如《麻省理工科技评论》2021年所指出的,“无论如何定义‘算法’,都不应成为免责的盾牌,掩盖设计和部署系统的人对其使用后果的责任。”

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论