英国最大专业医生服务平台Doctors.net.uk向1000位专业医生,做了一次关于ChatGPT、Bing AI和Google Bard的使用调查。
调查结果显示
英国20%的医生正在使用生成式AI来协助日常工作,ChatGPT使用率最高为16%,微软的Bing排名第二,谷歌的Bard(现改名为Gemini)排名第三。
在本次受调查的医生中,虽然只有20%的医生使用生成式AI,这一比例并不高,但表明生成式AI正在逐步成为医疗领域的主要工具。而使用情况在不同的医生群体中也有所不同,可能与他们的年龄、性别、职业角色以及对新技术的接受程度有关。
在性别分布上, 53%的受访者是男性,这可能反映了医疗行业中性别比例的现实情况。年龄方面,54%的受访者年龄在46岁或以上,这表明较年长的医生群体也在尝试和接受这些新技术。在职业角色方面,45%的受访者是GP合伙人或主要负责人,34%是受薪GP,18%是临时GP,而3%是GP注册医师。
在使用场景方面,28%的医生表示,会使用生成式AI工具来建议鉴别诊断,该应用场景相当关键。因为鉴别诊断是医疗业务中的一个关键环节,需要医生根据患者的症状和体征,从多种可能的疾病中确定最可能的诊断。
生成式AI工具通过分析大量的医疗数据,能够提供快速而准确的诊断建议,这对于提高诊断的准确性和效率具有重要意义。
除了鉴别诊断外,25%的医生会使用生成式AI工具来获取建议治疗方案;20%用于从先前的文档中总结患者的病情;33%用于其他目的,包括写邮件、医疗报告生成等。这些多样化的应用场景表明,生成式AI工具在医疗场景中具有非常广泛的应用潜力。
在使用工具方面,ChatGPT是医生使用最多的产品,大幅度超过同类竞品。这一结果并不令人意外,因为自OpenAI发布ChatGPT以来就因其强大的语言理解和生成能力而广受关注。它的成功应用在医疗领域,进一步证明了其在处理复杂和多样化的医疗信息方面的能力。
尽管ChatGPT等生成式AI在医疗领域显示出了巨大的应用潜力,但它们也存在一些局限性和风险。例如,生成式AI可能会产生错误信息,会对患者的诊断和治疗产生负面影响。此外,也可能会加剧医疗中的种族、性别和残疾不平等问题,也就是所谓的“算法歧视”。
由于生成式AI是基于大量的数据进行学习的,如果数据本身存在偏差或不公正,那么生成的结果就可能会对某些群体产生不利影响。例如,在某些疾病的诊断标准或治疗建议上,可能会因为数据中对不同性别或种族的样本不平衡,导致对某些群体的误诊或不恰当的治疗建议。
在患者隐私方面,也存在一些潜在的风险。由于生成式AI通常由互联网公司提供,他们对数据搜集通常都不是很透明,可能会对患者的隐私权构成威胁,因为患者的敏感医疗信息可能会被用于未经授权的目的。因此,在实际使用过程中需要制定严格的法规和政策,以确保生成式AI的使用不会侵犯患者的隐私权。
来源:AIGC开放社区