医疗AI应该更关注数据还是人?数据工程师反思机器学习模型的力量
2018-09-05 来源:raincent
机器学习的引入为各行各业的从业人员提供了得力助手,但由此也引发了一系列问题,如:人类在信赖机器学习模型的同时如何避免对机器的依赖?尤其是在医疗等关乎人类生命健康的领域。本文作者是一名医疗行业的数据工程师,他在工作中不断反思自己的工作给患者、医生等相关群体带来的影响,认为自己的工作生死攸关,需要更多地关注「人」而非「数据」。
最近,《华尔街日报》的一篇文章——《Models Will Run the World》(模型将玩转世界)在网上流传。我相信这种观点在很大程度上是有道理的。机器学习算法和模型在各行各业都越来越普遍,也越来越受人信赖。但是反过来看,这导致我们花在结果审查的时间上越来越少,反而更加依赖系统给出答案。我们已经依靠谷歌、Facebook 和亚马逊等公司来提供约会、朋友生日以及最佳产品等方面的信息。当我们从这些公司得到答案时,一些人甚至会不假思索地听之信之。
作一名在医疗行业工作的数据工程师是一件喜忧参半的事情。在过去一年半的时间里,我花了大量的时间来开发一些产品,帮助医护人员更好地做决定。特别针对医疗质量、医疗欺诈和药物滥用问题。
当我在研究各种指标和算法时,我不断地问自己一些问题:
• 这对患者的治疗有何影响?
• 这对医生的决定有何影响?
• 这会改善一个群体的长期健康状况吗?
在我看来,大多数医院都像企业一样运作,但希望他们的目标不是不碰底线就行了。我希望他们能先为病人和社区服务。如果真是这样,那么我们构建的算法和模型就不能仅仅关注于底线了(就像其他行业一样)。相反,他们真的需要花点时间考虑这些算法和指标对病人及其整体健康有何影响,这种衡量标准是否会以一种消极的方式改变医生的行为?
华盛顿健康联盟(Washington Health Alliance)很擅长从成本和医疗的角度报道改善医疗健康的各种方法,它写了一篇报道,旨在通过减少冗余的过程来降低医疗健康成本。
事实上,我也做过类似的项目。那时我正在思考,如果一些医生矫枉过正会产生什么后果?我相信很多医生都会适当调整他们的治疗过程。然而,要是调整过度会怎么样呢?
如果一些医生只是因为不想被贴上浪费的标签而大幅改变他们的行为,最后的结果弊大于利,这样下去会有什么后果?
医生可能会因为担心医院和病人花费太多而导致他们错过明显的诊断吗?或许更糟的是,未来他们可能会过度依赖模型进行诊断。就个人而言,在受到批评时我会过度纠正自己的行为,那么如何在医生身上避免这种现象?允许人自行做出正确决定和强迫他们依赖机器思维(如谷歌地图,有多少人真正记得自己要去的地方)之间的界限非常微妙。
但你思考是因为别人让你思考,还是因为你知道自己在做什么?
过度关注数字而忽略病人的反馈是有风险的,这也是我个人很担心的问题。一家销售衬衫或烤面包机公司的模型出错就只会影响销售和季度目标,但医疗保健模型出错可能意味着病人死亡或得不到适当治疗。因此,创建一个能够帮助我们更好地做出决策的系统可能华而不实。而作为人类的我们能否足够自律,不依赖模型来做最终决定?
作为医疗专业人员和数据专家,我们不仅有义务帮助我们的公司,也有义务关心病人。我们不仅需要数据驱动,还需要人心驱动。
我们可能不是护士或医生,但我们应该意识到,我们现在和将来创造的工具将直接影响护士和医生的决定。作为数据工程师、数据科学家和机器学习工程师,我们有能力制造出增强医疗专业人员能力的工具,我们可以产生巨大的影响。
因为我认为,模型将慢慢开始并越来越多地玩转我们的世界(它们已经用于贸易、医学诊断、亚马逊购物等)。但这意味着我们需要考虑所有的运作场景以及所有的结果,无论好坏。
原文链接:https://hackernoon.com/the-problem-with-machine-learning-in-healthcare-406c97cb311
标签: 谷歌
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。