法治日报演习生 张广龙

早上8点,四川省绵阳市游仙区忠兴镇兴合村落村落医宋文卓来到卫生室,第一件事便是打开电脑登录AI(人工智能)赞助诊疗系统,这是他近段韶光养成的一个新习气。

“宋年夜夫,我心跳有点快,觉得上不来气,偶尔还会咳嗽几声。
”卫生室刚开门,年近九旬的村落民涂婆婆便在老伴的陪同下前来看诊。
宋文卓一边讯问症状,一边将病情输入系统,然后点击AI辅诊按钮,系统迅速与拥有海量多发病、常见病等病例的国家核心知识库对接,通过提取和剖析患者的历史病历信息,给出“急性上呼吸道传染”等诊断建议。
宋文卓结合自己的临床履历进行综合评估,终极确定涂婆婆是急性上呼吸道传染。

随后,系统根据年夜夫的选择,给出了推举用药,列出推举依据、检讨建议等。
宋文卓参考选定治疗药物,让老人先吃药不雅观察。

AI医疗便捷与风险并存

在宋文卓看来,AI辅诊系统的运用,不仅提高了诊断的准确性和效率,还能帮助年夜夫更好地应对繁芜病例,降落误诊漏诊风险,看病用药也更加安全放心。

AI赞助诊疗系统在绵阳市游仙区基层医疗机构的运用,是我国推进“AI+医疗”的一个生动缩影。
《“十四五”医疗装备家当发展方案》明确提出加快智能医疗装备发展;《关于进一步完善医疗卫生做事体系的见地》提出发展“互联网+医疗康健”,加快推进互联网、人工智能等在医疗卫生领域中的运用……近年来,我国不断加强顶层设计,推进“AI+医疗”的发展。

多名业内人士和专家在接管《法治日报》采访时指出,医疗领域已经成为探索AI运用的主要场所,目前在一些医院紧张运用于分导诊、预问诊、病历天生等场景,助力患者就医更加便捷,提升了医疗做事质量,未来AI赞助诊疗将会成为一种趋势,但也须要当心背后隐蔽的法律风险,这些风险不仅涉及患者个人隐私保护,还关系到算法透明度和公正性等问题。

多地上线AI辅诊

提升患者就诊体验

近日,来到北京大学公民医院进行甲状腺和瘢痕检讨,检讨项目包括B超、血液检讨等。
缴费完成后,年夜夫提醒可在系统预约检讨韶光。
打开手机,像“自助值机”一样,在可选韶光段,把检讨项目约在相对集中的韶光,这样就可以“一次跑完”,在最短的韶光内完成所有检讨,避免了因现场排队改约和检讨韶光不同而带来的反复奔波。

这只是AI赞助医疗的一个缩影。
梳理公开资料创造,“AI+医疗”目前已在多个医院落地。

在华中科技大学同济医学院附属协和医院,如果患者不知道挂哪个科室,AI可以来帮忙。

该院今年5月推出了“AI聪慧门诊”,涵盖智能分导诊、智能加号等功能。
以彼时的“智能加号”功能为例:患者可点击“登记做事”“在线登记”,进入须要预约的科室,如果选择的专家号“满诊”,则可点击下方的“申请加号”,在跳转页面选择该专家的加号日期。
确定免费预约后,AI会自动发起对话,讯问病情等干系情形,然后天生“病情卡片”,再综合评估病情严重程度,判断加号资格,末了发送给专家确定是否通过。

此外,该院还推出“智能候诊室”功能。
患者登记后,由“年夜夫数字人”与患者前辈行沟通,提前理解患者症状、病程等,为年夜夫面诊做准备。

在浙江省公民医院,数字康健人“安诊儿”可以陪伴患者就诊。

据理解,“安诊儿”可以为患者供应覆盖就医前、中、后的AI陪诊做事。
诊前,患者可以向其描述自己的症状,“安诊儿”根据症状为患者匹配科室和年夜夫,帮助患者预约登记;诊中,“安诊儿”可合理安排就诊流程,全程供应AR智能导航,还可以让患者在线上直接取号,并供应叫号提醒,乃至能在支付宝上完成医保缴费,节约患者的就医韶光;诊后,患者离开医院,其还会连续供应电子病历、处方和报告查询等做事。

在北京友情医院,AI能帮年夜夫写病历。

今年5月,云知声门诊病历天生系统在北京友情医院运用。
该系统能在繁芜的医院环境中识别医患对话,精准捕捉关键信息,分离医患角色,并从中剔除与病情无关的内容,天生专业术语表达的信息择要,以及符合病历书写规范哀求的门诊电子病历。
数据显示,在门诊病历天生系统的帮助下,北京友情医院干系科室门诊病例录入效率大幅提升,年夜夫问诊韶光大幅缩短。

法律风险不容忽略

当心算法歧视问题

多名受访的业内人士指出,人工智能在医疗领域的广泛运用,能为患者供应更便捷的做事,提高了医疗做事的效率和精准度,让优质医疗资源更普惠,但其背后的法律风险也不容忽略。

在山西大学法学院讲师陈川看来,传统医疗诊断过程强调年夜夫对患者人格肃静和自主权的尊重与保护,年夜夫在作出医疗决策时,需综合考虑患者的既往病史和当前症状,并依照干系法律法规与伦理规范,制订适宜的治疗方案。
然而,医疗人工智能存在“自动化偏见”风险,即年夜夫在诊断过程中可能会过度依赖人工智能技能,从而忽略自身专业判断和对患者个体需求的考虑。
这种过度依赖可能导致年夜夫将困难的医疗决策不恰当地交给人工智能处理。
当年夜夫过度依赖人工智能时,患者的治疗决策可能被剥夺,转而交由机器进行处理,导致患者失落去对自身康健管理的自主权。

此外,算法透明度不敷和算法歧视问题也不容忽略。
“虽然2023年7月国家网信办联合国家发展改革委等部门公布的《天生式人工智能做事管理暂行办法》提出了算法透明性哀求,但在详细履行过程中,算法的实际事情事理和决策过程每每难以被外界理解和监督。
由于算法透明度不敷,患者无法理解医疗人工智能是如何得出诊断结论的,导致其知情权和选择权无法得到充分保障,可能会陵犯患者的知情赞许权和自主决定权。
”陈川说。

她提出,算法歧视问题还会导致不同地区在医疗资源上的不平等征象。
不同开拓者在演习算法时可能无意间引入偏见,导致天生式人工智能在面对不同群体患者时作出歧视性决策。
例如,某些医疗人工智能系统在筛查病人时,诊断结果不准确或存在系统性低估。
再比如,算法模型的演习数据如果紧张来自某些特定群体,可能会导致其面对分外群体时产生偏见。

陈川认为,目前,人工智能在医疗领域的运用仍处于探索阶段,易因误诊、数据透露等行为引发问责和归责问题。
我国民法典规定医疗危害任务适用差错任务原则,也考虑到医疗东西所致危害的任务承担问题。
但人工智能能够独立天生医疗诊断结果或建议,因此在现行法律框架下,对医疗人工智能运用的追责十分繁芜,传统的任务形式难以大略套用到医疗人工智能上。

线上购药本末倒置

审核环节形同虚设

除了“AI+医疗”作为一种新兴模式在实际运用过程中可能存在一定法律风险外,一些线上医疗问诊、线上购药平台在引入AI赞助后,虽然给患者带来便捷,但也暴露出不少问题。

在调查中创造,一些互联网医疗平台采取“先选购药品,再因药配方,乃至由人工智能软件自动天生处方”这样本末倒置的操作办法。

前不久在某购药平台下单处方药骨化三醇软胶囊后,平台提示“请选择线下已确诊疾病”。
在“疾病栏”随机勾选了几项,“处方/病历/检讨报告栏”空着,并确认“已确诊此疾病并利用过该药,且无过敏史、无干系禁忌证和不良反应”,很快便通过了验证,提交清单后,系统跳至问诊版块。

紧接着,有“医师”接诊,连续发来数条信息,个中第一条强调“互联网医院只对复诊用户供应医疗做事”,后续几条信息均为确认有无过敏史或处于分外期间。
在没有回答的情形下,对方就发来一张处方单和购买链接。

北京市民杨木(化名)也有过类似经历,他疑惑屏幕背后接诊的不是真的执业医师:“在××平台购买处方药时,觉得对方跟机器人没有差别,只要打字过去,对方就会在几秒钟内迅速赞许,根本没有给出任何专业见地。
”有一次,他故意描述一些不是欲购药品适应病症的情形,结果对方仍旧很快开了处方。

多名业内人士认为,“隔空”诊疗并不适宜所有患者,常见病、慢性病的复诊,是较永劫光以来互联网诊疗的定位。
不过,对付作甚复诊,业内一贯短缺详细标准,导致涌现一些监管真空。

“如果是正规互联网医院,有执业资格的年夜夫开具的电子处方,该当有年夜夫的署名、互联网医院电子章。
不用除有些小型互联网医疗平台存在用人工智能、机器人等工具自动天生处方,一些大平台会用AI等来赞助年夜夫问诊,比如问病人几岁、哪里不舒畅等,但是处方必须哀求年夜夫来开。
”北京某三甲医院一刘姓年夜夫说。

他还把稳到,不少平台为谋取利益,采取“AI开处方,客户直接取药”的模式,处方开具、审核环节形同虚设,要么直接跳过开具处方这一流程,要么对用户上传的处方并不实际审核,这类行为严重违反了我国药品管理制度,也给患者用药安全埋下风险隐患。

在线上康健平台咨讯问诊会不会透露个人信息,也是多名受访患者提出的疑问。

有一次,杨木的后背上起了不少红疹子,便在某康健平台进行问诊,结果没过几天,他就陆续接到多个广告电话和短信,有讯问是否须要植发的、有推销护肤产品的,乃至还有借贷公司打来的推销电话。

“问诊时,平台采集的个人信息和康健情形能不能保存好,这些信息会不会流向第三方?”杨木很是担心。

此前,工信部曾通报过多个互联网医疗App在个人信息网络及利用方面存在严重问题,包括超范围采集个人隐私信息、未经本人赞许向他人供应个人信息、网络与医疗做事无关的个人信息等。

“与其他类型App比较,医疗类App透露个人信息可能会导致更严重的法律问题。
如果个人康健信息被透露,不法分子可能利用这些信息履行精准诱骗,比如利用‘病急乱投医’的生理向患者造孽售卖或推广药品。
”前述刘年夜夫说。

完善干系法律框架

切实保障患者权柄

受访专家指出,为了有效应对“AI+医疗”在实际运用中潜在的法律风险,须要从法律和政策两个层面进行系统化完善。
只有建立健全法律框架和监管机制,明确医疗大模型的任务归属和数据利用规范,才能在推动医疗人工智能发展的同时,切实保障患者的合法权柄。

“首先要建立完善医疗人工智能法律框架。
目前,《天生式人工智能做事管理暂行办法》未涉及医疗领域人工智能规定,须要在其根本上结合医疗领域的特点制订干系法律法规,突出强调医疗人工智能的赞助浸染。
”陈川说,为了帮助医疗事情职员、患者更好地利用人工智能系统、理解人工智能得出诊断结果的运行机制,我国可以配套制订医疗人工智能利用指南,以增强医疗人工智能系统及其结果的可阐明性;还需完善其他法律规定,数据安全法、《涉及人的生命科学和医学研究伦理审查办法》等为制订医疗人工智能管理办法供应了根本,应依据人工智能发展现状出台适用医疗人工智能的管理办法。

陈川还提到,强化医疗人工智能算法监管刻不容缓。
一方面,为确保医疗人工智能的安全性和可靠性,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查;另一方面,基于数据的动态性和人工智能技能的不断迭代升级,应哀求研发者提前研判算法运用过程中产生的安全风险并提出针对性应对方法,在算法生命周期内定期开展算法风险监测事情,针对算法的数据利用、运用处景、影响效果等进行自我安全评估。
此外,可开启公众年夜众监督举报、监管部门巡查等多种方法。

北京中医药大学法律系教授邓勇也认为,随着医疗大模型的发展,这一家当合规运营与监管显得加倍主要,须要确定自身的产品定位并获取对应的资质,避免无资质开展相应活动。
“合规方面,紧张应该确定自身的产品定位,如属于互联网诊疗产品的,须要联系或建立对应的实体医疗机构并申请设置相应的互联网医院,并在医师资源、病历管理、药品配送、处方开具上知足相应哀求,如仅作康健管理,不涉及诊疗活动的,必须明确自身产品不具有‘医疗目的’,仅‘预期用于康健管理、目标人群为康健人群、记录统计康健信息’用。

他提出,还应该采纳数据洗濯等办法确保去除公开数据中的违法和不良信息及个人信息,担保演习数据合法合规。
医疗大模型网络用户数据的哀求,须要遵照合法、正当、必要的原则,不网络与所供应做事无关的个人信息。

“医疗大模型网络用户数据的红线行为包括:未公开网络利用规则;未昭示网络利用个人信息的目的、办法和范围;未经用户赞许网络利用个人信息;违反必要原则,网络与其供应的做事无关的个人信息;未经赞许向他人供应个人信息;未按法律规定供应删除或更正个人信息功能或未公布投诉、举报办法等信息。
”邓勇说,网络互联网公开数据时,为确保其合法合规,还须要履行奉告赞许程序、匿名化程序、供应谢绝渠道等操作。
此外,应该看重数据标注机制,通过标注防止天生色情暴力、歧视性信息等违法和不良内容,实现内容安全。

针对线上医疗问诊暴露出的问题,陈川认为,亟须明确人工智能的法律任务,建立科学合理的任务分配机制,强化医务职员的主体任务,明确AI处于赞助性地位,细化各领域参与者的任务,不能将医疗诊断彻底交给AI,应遵照“事前预防—事中监控—事后问责”的原则。
“医务职员在行医过程中须履行把稳责任,即医务职员须把稳识别和鉴定AI诊断结果,否则应该承担任务。

来源: 法治日报