我们如何看待医疗机器学习中的有偏见的临床数据?呼吁采用考古学的视角

如何看待医疗机器学习中的有偏见的临床数据?呼吁采用考古学的视角

来自麻省理工学院、约翰霍普金斯大学和艾伦·图灵研究所的研究人员认为,在AI系统中处理有偏见的医疗数据并不像俗语“垃圾进,垃圾出”所暗示的那么简单。AI偏见模型在医疗保健行业中变得流行起来。通常,当数据存在偏见时,人们会尝试通过收集来自少数群体的更多数据或创建合成数据来平衡事物。然而,研究人员认为这种技术方法需要更广泛的视角。他们表示,我们还应考虑历史和当前的社会因素。通过这样做,我们可以更有效地解决公共卫生中的偏见问题。作者们意识到,我们通常将数据问题视为技术上的困扰。他们将数据比作一个破裂的镜子,反映了我们过去的行为,这可能并不完全真实。但是一旦我们通过数据了解到我们的历史,我们就可以致力于解决和改进未来的实践。

在题为“将有偏见的数据视为AI辅助医疗保健中的信息工艺品”的论文中,三位研究人员认为,我们应把有偏见的医疗数据视为考古学或人类学中的有价值的工艺品。这些工艺品揭示了导致医疗不平等的实践、信仰和文化价值观。例如,一个广泛使用的算法错误地假设,病情较重的黑人患者需要与较健康的白人患者相同的护理,因为它没有考虑到医疗保健的不平等。研究人员建议,我们不仅应修复有偏见的数据或丢弃它,而应采用“工艺品”方法。这意味着要认识到社会和历史因素如何影响数据收集和临床AI的发展。计算机科学家可能无法完全理解他们所使用的数据背后的社会和历史方面,因此合作对于使AI模型在医疗保健中适用于所有群体至关重要。

研究人员在基于工艺品的方法中认识到一个挑战,即确定数据是否已进行种族校正,这意味着它们基于白人男性身体是比较标准的假设。他们提到了一个例子,其中一个肾功能测量方程进行了校正,假设黑人有更多的肌肉质量。研究人员需要准备好在研究过程中调查此类校正。在另一篇论文中,研究人员发现,在机器学习模型中包含自报种族的信息可能会对少数群体产生更大的负面影响。自报种族是一种社会构造,并不总是有帮助的。方法应该取决于可用的证据。

有偏见的数据集不应保持原样,但当作工艺品处理时,它们可以具有价值。来自国家卫生研究院(NIH)的研究人员强调了道德数据收集。了解不同环境中的偏见可以帮助为特定人群创建更好的AI。这种方法也可能导致制定消除偏见的新政策。研究人员仍在努力解决当前的医疗保健问题,而不是担心未来的假设性AI问题。