(上接1版)
此前,他曾利用人工智能和互联网技术研发中医人工智能辅助诊疗系统,将名老中医擅长诊治的优势病种覆盖基层卫生单位,构建名老中医远程带教体系,提升基层医生诊疗思维及能力和基层医疗服务能力。同时积累和挖掘真实世界大数据,实现名医经验的循证研究和发展提高。
但在过去的研究中,周常恩也常遇到瓶颈。“最难的是术语的规范化和医案的结构化,即产生高质量的临床数据。ChatGPT强的是逻辑分析和自然语言处理能力,可以利用它来进行术语规范化和医案结构化,提高对医案的分析能力。此外,中医智能诊疗产品的用户交互也很重要,可以利用ChatGPT提高和用户的交互能力,改善就医体验。”
他期待ChatGPT的成功能为中医人工智能诊疗算法升级提供借鉴。
医生会因此面临失业吗?
尽管ChatGPT的能力得到了大量认可,但受访的业内人士普遍认为,人工智能挑战医生的话题一直都有,ChatGPT会更加迅速全面和医生“硬杠”,但它并不能取代医生的存在。
林汉凌指出,诊疗过程中,视触叩听是必不可少的诊断手段,在这点上,目前的ChatGPT显然无法做到。临床诊断时,ChatGPT仍需要医生获取患者的体征和症状的主观信息。
医生这个职业不光要有医学理论知识,更要有临床实践,且每个患者身体状况因人而异,面对相同疾病不同患者的治法也不同。
魏永宝说,一旦出现非预先设定的变数,可能它随机应变的能力并没有想象中那么好。当然,如果未来人工智能真能产生自我意识,并能不断更新自我意识,那对人类医疗等各界影响就更加深远了。
此外,医学也是一门人文学科,治疗效果不仅靠技术,也要靠人文,疾病治疗过程中,人文关怀起到很重要的作用。
省立医院内分泌科主任医师梁继兴表示,一些柔性的部分,安慰、帮助,不带情感的人工智能机器人是做不到的。
不仅如此,ChatGPT也无法完全替代人类完成有创造性、实验性、实操性的工作。
“人工智能不可能完全替代医生,就好比手术机器人不可能替代外科医生一样。”杨春治说。
面临数据准确性、法律层面等问题
虽然以ChatGPT为代表的人工智能在医学上的应用前景令人兴奋,但它也存在提供信息不准确、有虚构和偏见等问题,使得其在这个专业门槛很高的医疗行业中应用时应该更加审慎。
问ChatGPT一些琐碎的问题可能不会有什么后果,但普通民众自行通过它寻医问药,一旦出问题就没有人能承担责任。
林汉凌表示,从法律法规层面来说,医生需要对医疗行为承担责任,而让人工智能来承担医疗责任,目前还不现实。
此外,ChatGPT的一些回答看似“一本正经”,但其准确性仍有人存在担忧。
梁继兴指出,人工智能的好坏取决于开发者们“投喂”给它的信息,网络上很多信息未必准确,比如网络上有很多广告、经验,有些人是拿网络AI写的文章来忽悠。
“现在想判断哪些文章是AI写的显得很困难。未来,我会利用ChatGPT帮助我学习,但还是会谨慎使用。”