医疗是“第0批”可以被大模型助力的领域,做大模型的公司正在做医疗的哪些事,我们都是知道的,很多事已经在发生了,并不是即将发生。
人工智能 (ai)正迅速地渗透到各行各业,并将对医疗领域产生前所未有的影响。gpt是一种基于深度学习的大语言模型,它正在以惊人的自然语言处理能力,引起广泛关注。那么它出现在医疗领域,究竟意味着什么?它如何改变我们对医疗的认知和实践?
近日,“医学界”联合创始人、首席医学官陈婕,与海创汇首席生态官檀林,湛庐文化副总编辑、《超越想象的gpt医疗》一书的策划安烨,张强医生集团创始人张强,鹰瞳airdoc创始人张大磊,共同探讨了这一话题—— gpt将给医疗带来什么?
以下是文字分享。
∆ 点击书封,马上入手
ai的“iphone时刻”
陈婕:人工智能并不是一个新词,它在很多年前就兴起了,那为什么这一次chatgpt会那么火?它实现了哪些飞跃性的突破?
但这与大众的关联性不大。alphago战胜李世石之后,大家觉得好像人工智能马上就要来到我们身边了,结果最后看到的是,我们进出小区、进火车站可以刷脸通行,仅此而已。
去年11月,chatgpt发布,这是一个真正革命性的问答服务。它提升了我们去获取信息和交流的体验,是一种创造性的新体验形式。它用自然语言,结合深度学习,把公网上2021年9月30日之前的所有数据,全部进行了向量化训练。我记得gpt-3的训练参数已经达到了1750亿,而gpt-4就更高,可能是大几千亿,相当于把人类在公网上所有的数据都进了训练之后,让我们拥有了一个浓缩的对世界认知的模型。而chatgpt只是这个模型的冰山一角,是一个应用的展示方式,但这个应用可以让每个人都能了解人工智能的威力,所以一下子就火起来了,60天月活就超过1亿。
后来,openai又与微软达成联盟,很多第三方基于大模型的应用也涌现出来了。这有点像乔布斯2007年发布苹果iphone之后,推动了整个web2.0时代移动互联网应用的大爆发。
英伟达ceo黄仁勋把这次chatgpt比做人工智能领域的“iphone时刻”,因为chatgpt的这种能力,用问答式的服务,让你不需要有任何学习曲线,且应用场景非常普遍,所以每个人都可以感知到人工智能的威力,大家就觉得这事一下子跟自己有关了。但其实,任何新技术起来的时候都是一样,大家一开始会对它寄予高度的期望,但后来发现会有一些问题。
张大磊:chatgpt实际上最开始并不是openai推出的一个商业产品,而是团队做出来的一个无心插柳的应用。它真正的价值在于降低了使用成本,如果和普通人去讲大语言模型、参数等,人们肯定不懂,但是chatgpt把生成式ai的“预测下一个单词”的能力,以一种非常简单的用户界面的形式提炼了出来。
它本质上是半成品,可以让更多没有计算机基础的人也能更多地用到算法模型,降低了使用者的成本。我相信未来会有越来越多这样的产品出来。
图源:锐景
医疗是大模型融入的“第0批”
陈婕:现在各行各业都在讨论如何去拥抱gpt,那么医疗会否成为第一批被gpt全面渗入的行业?理由是什么?
张强:我觉得第一批可能不会,因为医疗界还是比较传统和保守的,恰恰chatgpt本身一开始在医疗方面也没有涉及特别多,它只是一个通用模型,但是我们在今年5月1日就开始用了,已经用了一个多月了。
檀林:chatgpt是一个通用模型,医疗并不一定是chatgpt发展最快的一个场景。任何场景里需要有文字生成内容,进行摘要提取,做文档之间的语义搜索,类似这种需要有大量文档处理能力的场景下的行业,chatgpt都可以做很多提升。所以现在像律师、教育、科技、金融等领域,有非常多的场景已经应用起来了。
张大磊:在医疗领域,生成式ai会有非常多的作为,它可以应用在医疗的很多层面。大家看医疗领域,往往感受到的是人和人之间的互动,但实际上在现代医疗中,有大量的时间用于处理信息。最简单的例子,如果一个医生一天要花半小时去写病历,那半小时能不能变成3秒钟?同样,还有对当前状况和接下来趋势的判断,生成式ai可以辅助医生做到远比之前要好。
在鹰瞳airdoc,我们把一个人持续监测的眼底照片,用自己研究的算法模型全都学习一遍之后,就知道这个人明天血管是什么样、神经会怎么样,接下来每一天会是什么样,这样在整个治疗过程中,就可以去观察他的当前情况和预判之间的区别。
例如,之前我们和一家公司做过一个银屑病治疗效果的评估。患者在服药过程中,我们会告诉用户,如果是不干预的情况,这个病灶会怎么长,哪一天会长什么样,哪一周会长什么,哪一月会长什么样,如果患者开始用不同剂量的药时,病灶分别会变成什么样子,然后用户自己就可以对比治疗方案了。
我们还通过儿童和青少年的历史近视数据及发展变化,来判断当前一个不近视的小孩什么时候近视,已经近视的小孩18岁之前每个月近视到多少度,他做哪种干预方式会到多少度。这些大量的工作,本质上的规律是存在的,但规律比较复杂。如果里面有100个因素的规律,人脑是不容易去处理的,而这些工作用大模型做了之后,就可以更好地辅助到处理信息的环节上。
像创作内容的人,包括做图像、做视频的人,本质上来讲都是在处理内容。在医疗领域里处理信息的部分,我觉得可以第一批被大模型助力。我不认为医疗是第一批,我觉得医疗是“第0批”,因为做大模型的公司正在做医疗的哪些事,我们都是知道的,很多事已经在发生了,并不是即将发生。
张强:为什么说医疗不会是第一批?是因为医疗牵涉到医疗治疗、诊断这一块,是要非常慎重的,它可能要受到政策的监管,包括伦理的影响,所以跟其他行业相比可能会监管更严格。
但是医疗很需要gpt,这一点毫无疑问。我过去觉得人工智能一直离我很远,甚至作为一个医学专家,有时候看人工智能就像看小孩一样,觉得离我们人类实在是太远了。
就算是很厉害的沃森ai医生,可能也只是平均医生的水平,到一些实际应用中还会有很多问题,包括chatgpt通过美国执业医生的考试,也不代表它能看病,因为就算你是医学院里的学霸,考得比chatgpt还要好,但是刚出来的时候还不能做医生,你也不可能找chatgpt治病,就像大家到三甲医院去看病,可能更倾向于找副高职称的医生,而不会找刚毕业的医生,这个差距很大。
但我为什么说接触chatgpt以后就停不下来了?一开始,我把它作为一个简单的信息搜索工具,就像google一样,无非就是它会把搜索的东西总结出来给你,后来会对它很失望,因为它给的信息有时候是不准的,医生不能靠它的信息去判断或者把信息直接给患者。但是后来不断去尝试一些新问题的时候,发现它的能力是深不可测的。
我最早的应用不是在医学,而是在医生领导力的培训上跟它进行对话,当对话不断深入的时候,你能感受到它是有认知、有理解的,甚至能跟你有共情。举个例子,我们医生集团在运营中可能碰到各种各样的问题,比如诊所的停车场要开始收费了,护士长要考虑诊所帮患者送停车券。如果送,成本很高,如果不送,又感觉好像不好,像这种问题过去我们是没有答案的,因为每个人会站在自己的角度去考虑问题。
类似这种问题,gpt具备领导力,同时它又具备共情能力的时候,就可以先把张强医生集团的信息“喂”进去,然后在我们提出问题的时候,gpt给的第三方意见就特别好。
慢慢地我就开始将gpt用于管理,从6月份开始,我就已经很轻松了。我尝试用emily (虚拟助理名字)进行管理,emily的背后就是大语言模型,也就是说,我们的主管遇到一些问题,可以通过emily来解决。
我们也尝试把它应用在培训方面。因为我们今年有新的医生和助理进来,过去我们的培训是hr部门在进行,培训当中也会碰到各种各样的问题,我们在培训教材上也会遇到很多问题,但是大语言模型在生成教材方面具有极大的优势。我们已经把gpt用到了日常所碰到的一些医学问题或是医患沟通问题,或者服务流程问题上。
再者,因为大语言模型具有跟人建立关系的能力,它会成为你的老师、你的朋友,甚至成为你的情人。大家平常都专注在自己的事业、技术上,大部分人类的共情能力、换位思考能力,以及与人沟通的能力都是缺乏的,人类在这方面是很弱势的。
gpt就改变了这一点,它在跟我们交流的时候会建立一种亲密关系,这种亲密关系会建立信任,这就是未来医疗chatgpt应用的场景。我们过去说机器看病是不可信的,机器看病是缺少温度的,恰恰相反,chatgpt可以产生温度、可以产生信任。这就是为什么要担心法律问题,因为社会上的骗子就是通过温度和信任这两样东西骗了很多人的钱。
所以我认为,未来chatgpt对医疗一定会产生重大冲击。
图源:锐景
chatgpt会取代一部分医生
陈婕:今年3月,高盛发布了一个预测,预计全球有18%的工作岗位可由 ai实现自动化。医疗行业其实也肯定在18%中,你们觉得什么样的医疗是最容易被gpt或者说生成式ai所取代的?
张强:从整体来讲,未来只要是辅助性的工作,大部分会被 ai取代。包括医疗机构里的hr,或是助理、秘书之类的职务。但是医生会不会被取代?从长远来看,一部分医生会被取代。未来chatgpt知识积累到一定程度的时候,知识性的工作会被取代,未来会把图像接口引进来,类似于皮肤科这种靠形态学诊断的医生,可能会面临挑战。
所以 ai的出现,我相信没有一个行业可以逃得过去,就像互联网出来时那样,所有行业都会面临冲击,面临重组、重构,包括医院的业态,将来会不会消亡都不知道。我觉得医院现在的这个业态都已经过时了。未来很多工作必然会被chatgpt取代。
大家要对人工智能保持警戒之心,同时我们也要学习。医生要开始学习驾驭人工智能的能力,这个技能不是搜索、不是搞个数字人讲短视频,我认为将来的应用是在关系上,以及在一些决策上面。
举个例子。我们有一个病人以前确诊过淋巴瘤,做过化疗,这次出现皮肤上的红肿,所有医院诊断都是静脉炎,但是它与静脉炎不相符。我就把病人的病史给gpt,告诉gpt病人脚上出现了红肿痛,有硬块,第一次gpt的答案是不准确的,说可能是神经动脉血栓等乱七八糟的信息。好在我是一个临床医生,没有相信它。但我问它,过去一个淋巴瘤化疗过的病人,有没有可能现在会出现体表的多发性结节肿块。它马上就告诉我,这是转移性的,因为它是恶性肿瘤,它有转移到皮肤的可能,而且转移的部位大概会在哪些地方。但这还不够,我再去查文献,查出来的文献超声图像跟我们完全吻合。这就是临床当中的实际应用,但是你要看到“张医生”在里面起了一定的作用,但如果是换成一个“小张”医生,可能chatgpt起的作用是相反的。
陈婕:知识储备不够的医生就不被需要了,这是不是对年轻医生不公平的一件事?但是又不可能大家没有经过一些训练,就变成一个像张强医生这样的大咖,这是不是个悖论?
张强:年轻医生不是被淘汰,是年轻医生要会利用ai,快速地去成长。年轻医生如果学会驾驭人工智能,短时间内可能会弯道超车。未来也是这样,在很多行业,刚入门的年轻人在一年之内的知识,可能要超过从前5年、10年不断努力所获得的经验和知识。所以这对年轻人是一个利好的消息,他有大量的培训机会和知识积累。但如果你不会驾驭人工智能,而又是做知识性的工作,就很容易被取代。
外科医生从某种意义来讲也是可能会被取代的,如果外科医生只是动手,动手能力的要求将来会比知识的能力要求更低,越来越多的器械、越来越多的手术变得越来越微创化的时候,动手能力已经不是一个高学历的人所独有的优势,这恰恰又是人工智能的优势,所以怎样提升驾驭它的能力,这是我们未来要探索的。
陈婕:未来只有两类医生:懂得驾驭ai的医生,与不懂得驾驭ai的医生。当然我们也看到了很好的一个现象,如果我们用好ai,其实年轻医生也能站在巨人的肩膀上,然后去做更大的提升。
檀林:任何基于知识和规则的工作,我觉得都是可以被人工智能替代的。但是因为未来的工作场景可能是人机合作的场景,所以人可能需要的能力是怎么去领导知识比你更丰富、学习能力比你更强的机器。
因为机器现在还没有发展出来基于主观意义主动去行事的能力,这部分的主动性还是靠人去赋予的。所以它要达成的目标一定是人赋予它的,而不是它自己产生的意识,自作主张去做的,所以驾驭能力非常重要。对于老医生、新医生,甚至对于病人,在跟ai产生互动关系的过程中,目标感、意义感是我们要一直攥在手里的。
陈婕:您提到“驾驭”这个词,我用gpt写这次谈话的开场白的时候,觉得我其实可以被取代,未来是用一个虚拟数字人,再加上 gpt生成的内容,就可以做一次很好的主持,那么人该如何驾驭机器?
檀林:“驾驭”这个词也不一定非常准确,微软提的一个词叫“copilot” (智能副驾),更多的是你把机器当成是一个算法同事、一个助手。所有新的工作场景,更多的是共创型的,即用即学和即学即用,这是互相成就的。里德·霍夫曼写了本书叫《impromptu》,就是跟gpt-4通过问答对话方式创作出来的。
以后可能很多的工作场景都是问答型的,因为人还是有主观能动性的,就像让机器写开场白,也是给了它一堆指令,让它写成什么样子,这个prompt (提示)是你给它的。所以现在为什么 prompt engineer (提示工程师)在美国收入比一般的码农还要高,就是这个道理,因为他有更多的行业洞察或人生经验,可以用最简洁的表达、指令和prompt (提示)去规训机器 ai,然后一起达成目标。所以机器是经由你的指令,帮助你达成目标的工具,或者是助手。
安烨:我来提供一个新视角。微软(中国)公司首席技术官韦青说,gpt时代来临,有点像电的发明。现在还是点煤油灯的阶段,我们每个人应该进入新电力时代,需要去学习这种工具,然后让这个工具更好地服务于我们。
《超越想象的gpt医疗》一书中提出了一个点,就是gpt提供了一种医生、患者的三方关系,就是“副驾”的作用,不是替代的作用,相当于给人创建了一个助手,通过人机协作,做一些比较繁琐的文书工作、病历输出工作,来部分地解放医生,所以gpt能够在一个新的层次上去提升医生的生产力,或者是我们每个人的生产力。
图源:锐景
未来的风险是什么?
陈婕:每一个技术进步都是两面性的,那么当gpt或agi融入医疗后会带来哪些风险和挑战?
张强:确实,医疗风险和伦理问题是人工智能的最大瓶颈。现在的人工智能大语言模型出来以后,将来可能面临的冲击的点会很多,包括社会关系、人际关系、人的社交模式都要发生改变,就像以前用煤油灯现在用电,将来人跟人的交际都可能是gpt对gpt。
未来的新场景是不是对患者更好,我是比较乐观的。我觉得这种风险如果跟真人比起来,机器的风险可能更小,因为现在人到三甲医院去看病,可能很多医生的态度不友好,给的信息也不充分、不一定准确,机器再怎么样,在这方面还是很有优势。
这种风险怎么去化解?将来可能是要通过循证医学。要有医生和科学家去对比,gpt的风险到底是比人的风险更大还是更小。
另外,要解决法律问题,人犯错误会承担责任,机器没有情感,怎么追责?如果gpt是一个“副驾”的概念,将来机器出问题了,被追责的是用机器的这个人。法律关系理顺了以后,gpt在临床实际应用中,一旦突破这个瓶颈,会进入到一个全新的世界。
张大磊:面对风险,我觉得有两种类型的思维方式,有一些人是封闭心态,包括很多做agi (通用人工智能)的人,一直说“碳基生物是硅基生物的 (引导加载程序)”,但我自己是持开放心态的,我一直相信“君子善假于物”,一定可以把这个东西用好。我们不刻舟求剑地去想现在的环境下如何用agi,而是想想在整个agi时代,怎样基于agi做一个属于agi时代的思维方式。agi时代和现在的时代之间的连接,需要很多校准的工作,在算法里叫做alignment (对齐),有的校准技术因素,有的校准价值观,有的要校准社会制度,有的要校准伦理,这都是能做到的。
对一个传统公司来说,从研发到测试的时间占比,比如80%研发,20%实验测试;对很多agi的应用来讲,可能是一半时间研发,一半时间做alignment,需要校准、对齐很多非技术类的因素,但这些都是可解决的问题,而且我相信当大家把问题解决了之后,才是一个更完备和更完善的agi应用。
檀林:我持谨慎乐观意见。马斯克之前为什么在2015年要投一个开源的人工智能研究项目,即openai,初心是因为他当时看到全球最主要的人工智能领域的科学家和专家,都被像谷歌这样的大厂所垄断。谷歌的创始人又是一个极度的技术进步主义、乐观主义,他认为世界的所有问题,包括政治问题、自然灾害,甚至是战争、疾病,一切的问题最后都可以用技术进步来解决。
我不完全认同这个观点。技术进步是非常有必要的,但这就像启蒙时代人类犯的错误一样,当时也非常乐观,认为人的理性可以推动人类社会一直向前发展。但是启蒙主义带来的是,大家在追求工具理性到极致的情况下,人性中的另一部分就被湮灭了。
所以人做决定不是完全基于理性的,我们现在对大脑还有很多是不了解的。在这种情况下,完全寄托于现在我们自己都解释不清楚的人工智能,来解决人类的一些问题,这有点太过乐观了,所以埃隆·马斯克说,大模型或chatgpt是“dangerously good”,它其实很危险,因为很多东西还没法解释。我对完全的技术乐观主义是不太认同的,我持谨慎乐观的态度。
陈婕:技术的进步,并不能解决所有的问题。那么ai或gpt,没有办法解决哪些问题?为了让gpt更好的赋能医疗,还有哪些我们需要去做?
檀林:ai发展到一定程度,能不能进化出一种自我意识,特别是主体意识,是个担忧。最害怕的就是ai的能力不断提升,但它的目标跟人类的目标偏离了。它不一定对人类有任何恶意,只不过能力迭代得太快,超出人跟它对话的能力之后,你可能就是一个蚂蚁,而它是一个大人。
就像霍金说的那样,人类要去修个大坝,还会去管大坝底下蚂蚁的死活吗?蚂蚁的目标跟修大坝人的目标绝对是不一致的,但是人对蚂蚁没有任何恶意,只不过是两者的世界无关。所以我们现在要让它建立跟人共情的能力,它要真正通过感知人、更深层次地理解人,而不是从我们给它的语言模型去表达。
安烨:我一直在想,这不就是“制造曲别针”概念吗?一开始ai用材料做曲别针,到后来没有材料了,它会选择一切可用的手段,来提升自己制造曲别针的能力,最后就拿人做曲别针了。这让我想起了迈克斯·泰格马克《生命3.0》,他提出我们怎样把人类的价值和目标去赋予到机器身上,这是非常重要的。我们应该去拥抱技术,但是我们要做一个警觉的乐观主义者。
陈婕:请嘉宾们用简短的一句话对今天的话题讨论“gpt会对医疗带来什么样影响”,做一个总结。
安烨:我用8个字去总结gpt对我们的影响:超越想象,重塑一切。大家一定要去拥抱技术,去一起进化。
檀林:我用简短的一句话总结,就是里德·霍夫曼在《impromptu》一书里的引言:我们现在迎来了一个新的启蒙时刻。康德曾经说“勇于智慧”,要勇敢地运用你的理性去拥抱这个启蒙时刻,这个理性就是独立思考的能力。
张大磊:gpt医疗不再是一个大家想象中要不要来的问题,而是它会且即将成为生活的一部分,就像空气一样随时随地都在。从业者或每个人怎么把它用好,是我们要思考的;先用好的人,一定在这个时代里有巨大的先发优势。
陈婕:我用“医学界”的经营理念“科学、专业、善良”来作为今天的总结。我觉得gpt它是始于科学的,但是最后我相信应该是要忠于善良的。我相信这是最好的时代,也是最坏的时代。如果我们一直坐在这里,等着被gpt挑战,那这一定是个最坏的时代,因为我们可能都被取代,但如果我们提前去理解它,利用先发优势抓住这些机会,相信对于我们来说就是一个最好的时代。
∆ 点击书封,马上入手
cheers cheers cheers
//湛庐文化//
与最聪明的人共同进化!
bd@cheerspublishing.com,
拜托点下“在看”
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
2024-08-27
金沙娱场城app copyright © 2024 金沙娱场城app-老版金沙app下载客户手机端 北京智识时代科技有限公司 金沙娱场城app的版权所有