由于具有如此广泛的潜在影响,随着AI越来越多深入地融入临床实践,为了更好地理解将技能运用到临床实践中所涉及的工具和道德含义,须要对年夜夫进行培训。

AI融入临床实践年夜夫需理解技能缺陷 戒备风险_人工智能_数据 智能助手

一些年夜夫认为AI并不是医学知识。
他们更聚焦于对病人的情形做出诊断,而不是理解如何利用打算机算法。
然而,随着大数据人工智能更多地被整合到临床实践中,年夜夫不可避免地须要理解这些方法。

美国东弗吉尼亚州医学院(EVMS)卫生学院副院长C.Donald Combs博士说,“阅读《新英格兰医学杂志》、《美国医学会杂志》和《自然与科学学术医学》已经不足了。
人们没有办法理解所有的最新信息,我们须要制订一种跟上信息变革的策略。

Combs对东弗吉尼亚医学院(EVMS)的学生表示,“我不得不接管这样一个现实:我们不理解的知识每天都在增加。

年夜夫们面临着越来越大的压力,他们必须节制大量的新信息:新的数据、更多的研究以及人工智能方法。
医学教诲须要让年夜夫们理解,如何从触手可及的大量数据中提取基本信息。

Combs说,“存在着大量的数据,我们的学生不必学习和节制所有的数据,由于算法可以做到这一点。
但是他们必须学会什么是有用的数据,并以不同的办法与患者互动。

Combs说,“医学生须要学习概率和人工智能中利用的方法。
我们有更多的数据和更好的模式识别软件,因此,我们可以用更少的韶光进行信息网络,理论上来说,这该当能给我们更多的韶光学习传统技能。

但年夜夫在接管培训时须要理解人工智能输出,并对人工智能方法提出质疑,以避免一些不屈安的探索。
人工智能技能的持续学习旨在使软件吸收新信息,并利用这些信息天生更准确的结果。

因此,系统开始测试输出的边界。
例如,随着药物输注速率的提高,机器学习技能将不断接管新的信息来确定剂量哀求,但是不屈安的输注速率会产生一些不屈安的剂量建议,而机器无法得知这一点。
这样的缺点可能会侵害患者。

精确的疑惑论将帮助年夜夫避免一些不可预见的情形和自动化偏差。
随着人工智能的发展,学习如何识别这些潜在的毛病和缺点将成为医学专业职员必不可少的过程。

人工智能系统有时须要更多的韶光和信息才能有效和高效地实现其目标,这就导致了不可预见的情形。
这些大量的韶光和数据量需求削弱了利用人工智能的好处。
例如,自动胰岛素泵在输入每次检讨的血糖水平之前,哀求患者输入所吃食品的信息,这会使患者感到烦恼,并且与人工智能的易用性自相抵牾。

有时也可能将自动化偏差引入实践。
当人工智能系统预测统统正常或证明年夜夫最初的假设时,如果人工智能系统奉告年夜夫患者没有任何问题,或者年夜夫的诊断得到了验证,这种自满感情可能是最强烈的。
年夜夫自动信赖人工智能的输出,不会质疑结果的准确性。

如果年夜夫没有接管关于如何理解和质疑人工智能输出的适当培训,那么,以上这些缺点可能难以避免。

Combs提醒说,由于人们常日不知道人工智能的结果所基于的繁芜公式,工具“只是在数据周围漫游,试图去回答一个问题”,这是一个黑盒问题。

黑盒的人工智能可能限定人工智能技能在临床实践中的运用。
由于尚不清楚人工智能输出背后的方法,年夜夫无法可靠地评估是否可以在实践中利用。
工具方法缺少透明度,年夜夫就很难明得用于构建工具的数据集是否准确地代表了患者的病情。
如果不能代表,人工智能系统的输出结果就可能不准确。
但是,如果年夜夫不知道这些信息,就无法确定它是否是一个可靠的工具。

年夜夫须要理解人工智能背后的方法论及其决策能力,以便理解其事情事理、结果如何、如何阐明其创造,并能够监督和批驳性地检讨其结果。

一些人认为,虽然这些问题令人望而生畏,但是最初将人工智能纳入日常实践的努力还是有效的。
类似于对新兴电子康健记录的批评,如今电子康健记录(EHR)技能的履行简化了年夜夫的事情流程。

人工智能也可以简化临床事情流程,但在此之前,年夜夫须要先通过培训理解技能毛病,并理解如何战胜这些障碍。