人工智能:我不能取代年夜夫_美国_患者
“虽然我是个接管过大量信息演习的措辞模型,但我不是有执照的医疗专业职员,我无法供应医疗诊断、治疗或建议。”在被问及“是否会取代年夜夫”时,谈天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。
不过,美国《纽约时报》创造,这款谈天机器人对年夜夫们颇有帮助,它提高了他们与患者进行同理心沟通的能力。
CNN称,6月尾发布的一份研究表明,面对患者提出的医疗诊断、照顾护士需求等问题,ChatGPT的回答“比年夜夫的回答更受欢迎,在内容质量和同理心方面的评价明显更高”。根据该研究,均匀而言,ChatGPT的回答质量比年夜夫高21%,同理心高41%。
举例来说,同样是回答“漂白剂溅入眼睛后是否有失落明风险”的问题,ChatGPT在回答中先是对患者受到的惊吓表示同情,随后简洁明了地给出并论证了“不太可能”的结论,末了给出了处理建媾和鼓励。相较之下,一位年夜夫的回答是“听起来,你会没事的”。
比拟一览无余。《纽约时报》称,借助ChatGPT,年夜夫们可以找到更稳妥的方法陈述坏,表达对患者痛楚的担忧,用更普通的措辞阐明医疗建议。
对此,有专家提出质疑。美国斯坦福医疗保健公司数据科学团队成员德夫·达什称,他和同事在测试ChatGPT等大型措辞模型时,收到了一些无效、抵牾乃至缺点的回答。他们对利用该类模型帮助年夜夫的前景持悲观态度。
年夜夫是否有必要借助人工智能,让患者的就诊体验更好?
专家认为,好的态度不即是好的医疗建议。美国匹兹堡大学医学院危重疾病伦理与决策项目主任道格拉斯·怀特阐明道,“大多数年夜夫对患者的感想熏染重视不敷,他们只是把病人的提问当作一系列须要办理的客不雅观问题,可能忽略了病人和家属的情绪问题。”
有时,年夜夫非常清楚同理心的必要性,但很难找到得当的表达办法。格雷戈里·摩尔是美国微软公司卖力康健和生命科学的高等管理职员,他想帮助一位身患晚期癌症的朋友。这位朋友的情形很糟糕,须要关于治疗和未来的建议。摩尔决定把这些问题交给ChatGPT。
“结果令我大吃一惊。”摩尔见告《纽约时报》。该人工智能给了他长长的、充满同情的回答,让他向朋友阐明缺少有效治疗方法的缘故原由,给了他一些应对坏的方法,乃至建议他“在努力帮助朋友的同时,也要妥善应对自己的悲痛和压力”。
摩尔惊异于人工智能的帮助,赶忙将其推举给年夜夫同行,但他见告《纽约时报》,大多数同行在犹豫,是否要利用ChatGPT来探求更富同情心的表达。
耶鲁大学医学院结果研究和评估中央主任哈兰·克鲁姆霍尔茨说,“年夜夫承认这样利用ChatGPT,就即是承认自己不知道如何与病人交谈。”
只管如此,那些考试测验过ChatGPT的人认为,年夜夫们该当多考试测验一下,看看人工智能能做些什么。
“该程序能够在几分钟内,准确完成年夜夫常日须要一个月才能完成的事情。”哈佛大学教授、《新英格兰医学杂志》编辑科哈尼年夜夫见告《纽约时报》,阅读转诊信和病史、决定是否接管患者是一项很耗时的事情,但ChatGPT能轻松、可靠地完成,极大地减轻了年夜夫的包袱。
美国得克萨斯州达拉斯市一家私人诊所的风湿病学家理查德·斯特恩表示,GPT-4已成为他的“虔诚伙伴”。它会对病人的电子邮件做出善意的回答,为事情职员供应富有同情心的答案模板,可以接管繁重的文书事情,还可以为患者向保险公司撰写申说信。
“与其说ChatGPT是患者的指南,不如说它是对年夜夫的支持。”不过,美国宾夕法尼亚大学医学教授兼高等副院终年夜卫·阿什对CNN强调,最好在对病人而言风险较低、“阔别临床打仗”的情形下利用它。
来源:中国青年报客户端
本文系作者个人观点,不代表本站立场,转载请注明出处!