【原创】感染事件防控,不应长鸣警钟
本帖最后由 -Espresso- 于 2019-7-10 08:29 编辑感染事件防控,不应长鸣警钟 ——换一个视角看感染事件Tips:这篇文章是我在读了万维钢老师的两篇专栏文章《线性思维和系统思维》(精英日课第二季)、《蝴蝶无效应,安全有小事》(精英日课第三季)之后的一些感想,文中图片和大量实例均来自于万老师的文章,有兴趣请阅读万老师的原文。由于行文仓促,不妥之处请多指教~ 近期感染事件的频发,让网上各种对如何做好感染事件防控的反思和讨论文章热度极高。有几个出场率比较高的说法例如“要加强医务人员的道德教育,要以患者为中心,加强安全意识教育”、“对于感染防控要警钟长鸣,日日紧抓不放松”、“要防范蝴蝶效应,千里之堤毁于蚁穴,感控无小事”等等。而对于这件事,我有些不同的看法。我认为那些看似决定了成败的细节,并不能为这些重大事故负全责,让我们先从蝴蝶效应讲起。一、倒霉的蝴蝶
蝴蝶效应是我们熟知的一个概念,你听到的版本大概是这样的:一只南美洲亚马逊河流域热带雨林中的蝴蝶,偶尔扇动几下翅膀,可以在两周以后引起美国得克萨斯州的一场飓风。
没错,我听到的版本也是这样的,并曾经拿这个举例子,形容微小的细节可能带来很大的后果。我相信这个例子也是一些感控工作者曾经说服(吓唬)临床医护人员好好执行不起眼的工作细节时用过的方法。可是,如果细究起来,我们关于蝴蝶效应本身的理解,可能都错了。
我们中国古代也有很多类似的说法,比如“失之毫厘谬以千里”或者“一着不慎满盘皆输”。跟蝴蝶效应类似,其实说的都是一个“非线性系统”。你不知道你的哪一个细节的影响会以指数爆炸的方式无限放大,最后造成了不可挽回的结果。所以我们一定要找到这个细节,在今后的工作中注意。但是,抓住那只“蝴蝶”,真的管用吗?
让我们先来看看“蝴蝶效应”这个东西到底是怎么来的。
1961年,美国数学家Edward Lorenz在用计算机模拟天气变化的时候,发现了一件有趣的事情:本来有个参数数值是0.506127,而我们的Edward Lorenz为了省事起见,给省略了几位小数,给写成了0.506,这种事在我们的日常工作中再经常不过,误差小到了万分之二,这能有什么影响呢?结果Edward Lorenz发现,这个模拟的结果可不是相差万分之二,而是完全让天气变成了另一个状况,等于说预测出来的天气从大晴天变成了大暴雨。
这个发现着实令人绝望。谁能保证我们工作中的每个数据都能精确到极限呢?如果没有精确到极限那么是否结果就会不同?
先别忙,数学家早就知道,对于“非线性系统”,结果有的时候对初始数值就是非常敏感,初始值差一点点,结果就会相差巨大,那可真是“失之毫厘谬以千里”,这也是“混沌”这个概念的起源。相对的,如果是“线性系统”那就简单了,初始值差一点,那结果也会差一点。
Edward Lorenz有感于“非线性系统”的这个性质,打了一个夸张的比喻:这简直就是说巴西的蝴蝶震动翅膀,带来了德州的一场飓风啊!
故事说完了,那么回到最初的问题:蝴蝶真的能导致飓风吗?
并不能。请注意,Edward Lorenz只是打了一个夸张的比喻,蝴蝶没有真的引起飓风。
“非线性系统”虽然复杂,但是并非完全不可控,蝴蝶效应这件事,不应该把事情都怪在蝴蝶头上。事实上,我们现在的天气预报具有相当高的准确性,气象局通过卫星云图和气象数据观测预测未来天气,重要的是,他们根本就不管蝴蝶的事儿。天气并不是一个特别夸张的变化多端的系统,可能是我们“幸运”的Edward Lorenz当初碰到了一个特别、非常、极其敏感的算法模型。
所以,蝴蝶并不会引起飓风,小事并不是导致大事的元凶。
如果这个说法让你无法理解,那我们就先从“导致”这件事说起。
下面这张图,可能是多数人心中蝴蝶效应的真实写照。 图片来源于万维钢精英日课第三季专栏文章《蝴蝶无效应,安全有小事》
你看这一堆多米诺骨牌,最大的那块有一人来高好像能把后边的墙给砸烂,最小的那块像手指甲那么小你不得不用镊子才能把它放稳。
那你说,我们加固那块最小的骨牌,能避免最后整体的倒塌吗?其实并不能,因为中间其他任意一张骨牌倒下,都会导致后面所有的骨牌倒下,你抓住了那只蝴蝶,还会有别的蝴蝶。你不可能关注每一块骨牌,也不能照顾到所有细节,你应该关注的是:是谁把骨牌这样排列的。
蝴蝶总要震动翅膀,最小的骨牌终将倒下,你应该关注系统,而不是导火索。
二、危险的系统
那什么样的系统容易出危险呢?
1979年,美国宾夕法尼亚州的三里岛核电站发生了一次重大的反应堆融毁事故,所幸没有人员伤亡,但是光后期的清理就耗费超过10亿美元。于是美国政府请了一位叫做Charles Perrow的社会学专家帮助分析原因,结果他的研究从此改变了人们对重大事故的看法。
其实核电站是一个非常不容易出问题的东西,并不像公众想的那样,切尔诺贝利核电站是个例外,那是个完全没经验的设计。
(Tips:关于这场重大事故的起因,官方有两个互相矛盾的解释。第一个于1986年8月公布,完全把事故的责任推卸给核电站操纵员。第二个则发布于1991年,该解释认为事故是由于压力管式石墨慢化沸水反应堆(RBMK)的设计缺陷导致,尤其是控制棒的设计。)
三里岛核电站是老式设计,安全性跟今天的核电站不能比,但也非常不容易出问题。Charles Perrow发现,三里岛的事件有三个原因同时导致。
第一,反应堆的给水系统在正常情况下应该供水,但是系统出故障了没有供水。这个问题其实在设计方案中考虑到了,核电站还有两个备用的系统可以自动供水,但很不巧,备用系统在之前维护时被关闭了而且没有按规定打开。
第二,反应堆没有了水,温度就会上升,这时有个泄压阀就自动开启降低温度,等温度降下来了就自动关闭。但很不巧,泄压阀故障了没有自动关闭,于是导致了反应堆冷却剂外流。
第三,如果工作人员能正确判断发生了什么,也能立刻采取有效措施,但很不巧,工作人员看到的显示是泄压阀已经关闭,因为设计是指示灯只显示是否已经命令泄压阀关闭,而不是显示它是否真的关闭,工作人员被误导了。
事情说完,那么问题来了,这个事故中谁是那只倒霉的蝴蝶呢?是那个负责操作的工作人员吗?并不是,上述三件事情是在13秒内同时发生的,工作人员完全来不及反应。
其实这三件事情,只要有一件不发生,那么大事故就不会发生,但是无巧不成书,其实很多大事故都有类似惊人的巧合。三里岛核事故是一个“perfect storm”,几个因素恰好一起暴发,最终导致了一个剧烈的后果。
从这件事出发,Charles Perrow总结,几乎所有的重大事故(飞机坠毁、化工厂爆炸等)都有两个共同特征:
第一是复杂(complex),所谓复杂,就是这个系统各个部分相互关联,不是简单连接。显然核电站是个复杂系统,其中有各种反馈回路,有些部分之间的关联可能是隐藏的,可能连设计者都想不到。如果有一个你没想到的回路在事故中开启了,就会非常麻烦。
第二是极致耦合(tight coupling),所谓极致耦合,就是这个系统没有缓冲区,错一点都不行,一步错步步错,没有任何容错率。出现这种情况往往由于系统过于追求效率,所有东西都是环环相扣可丁可卯,错一点都不行。
举个例子来说,我们的城市公路就是个不复杂、耦合也不紧密的系统,哪个地方路面坏了不至于马上波及别的路面,凑合着还能用你躲着点就成;城市交通也不复杂,但是耦合比较紧,如果刚才那个坏掉的路面恰巧是交通要道,再恰巧出点小事故,那整条路肯定会堵车;而像道路管理单位或部门就是个复杂系统,里面有规划的、修路的、还有管理的,但是他们耦合并不紧,哪个部门出点小状况并不会对整体有很大的影响。但是像核电站和化工厂这种,又复杂耦合又紧,那就容易出大事故。
三、警钟长鸣?
当事故发生后,有人喜欢强调“安全意识”,总爱说:“狠抓安全意识,年年讲月月讲天天讲,警钟长鸣!”可是警钟长鸣和强调安全意识效果如何?
首先,安全意识通常关注了那只蝴蝶。如果飓风真的是蝴蝶震动翅膀导致的,那你确实就应该好好地教育这些蝴蝶别没事儿扑腾翅膀。但是前面我们讲了,显然蝴蝶是无辜的。
其次,警钟长鸣可能不是个好的方法。如果你们家新装的天然气报警器没事儿就提醒你家里燃气泄漏,然后上班的你接到手机报警后火急火燎的跑回家一看什么事儿都没有。一次两次三次,我想你忍不了几次就会扔了它。这个道理,我想那个喊“狼来了”的孩子一定会懂。
四、换个视角看感控
如果我们换一个视角,应该如何看待工作不大后果不小的感控工作呢?
首先,从临床医护的视角看。如果说把感控人员看成是合法的间谍,恐怕一点也不为过。
(人格分裂为临床医护人员)哼!搞感控这帮人天天拿着个放大镜,到处挑我们的毛病,有事儿没事儿就偷偷摸摸来我们这看来看去翻箱倒柜,还到处提问看能不能找出我们工作的漏洞,他还是正当工作你还拿他没辙,你说气不气。所以每次看到这帮人就得有超强的反侦察能力,一旦看到戴口罩的陌生可疑人员进入,马上口罩帽子戴起来,小手洗起来,东西收起来,操作规范起来,就指望着把这帮人赶紧对付走,然后我们该干嘛干嘛,别耽误我们的干活效率。
(人格分裂为感控人员)哼!你们这帮临床人员,一点都不讲究,你看你看,看完病人不洗手,看见我之后啥都不摸就乱洗手,这边皮肤消毒完都不待干就穿刺,病房消毒记录登记又错了,这换药室谁又把换药包里没用完的东西藏柜子里啦?
上面的内容虽然纯属虚构,如有雷同,那一点也不巧合……
反过来,从感控工作者的视角看。作为有责无权的感控人,推进工作那叫一个困难,一件小事说来说去也没有什么动静。看看隔壁医务部那一呼百应的阵仗,是不是有点羡慕?
所以感控工作者很无奈,只能拿着一些发生或的重大事故给临床培训,用“安全意识、警钟长鸣”“感控工作无小事”这样的招数,去说服临床按规矩办事。但是,无小事就等于无大事,敢于忽略小事你才能有功夫做好大事。不过没办法,因为很多大事儿改不了,那只好从小事下手,然后找一个方法对付着过。这样做的坏处是,有时候错事儿干多了干时间长了,就忘了正确的事儿该怎么干了,继而心安理得的违规,潜在的危险慢慢积少成多。
跳出日常工作,从系统运行的视角来看。医疗机构运行相当复杂,涉及很多环节,但其实整体耦合并不算特别紧密,偶尔哪里卡个壳,出点小状况并不会怎样。但是临床科室因为种种原因追求极致效率,再加上医院资源分配制度的引导,就可能让某些医疗行为行成一种相对复杂而又极致耦合的危险系统。临床想要最多的效益,那就要用最少的人,耗费最小的成本开展最多的工作,所有人员、设备、耗材、物资可丁可卯,制度规范,那是挂墙上让人看的,实际工作能省则省,能快则快,有些东西该忽略忽略,多挣一点是一点。临床人员极速狂飙,医院管理层睁一眼闭一眼,只剩下一旁战战兢兢的感控人员,一边盯着细节一边祈祷不要出事。
最后,从管理者的角度来看。对于医护人员感控的“行为管理”(比如安全注射)或许过于关注“行为”本身了,各种制度手册是行为管理的核心,你能干什么,不能干什么,干了不该干的会如何惩戒,怎么扣绩效,这些东西或许还是在关注“蝴蝶”。或许我们的“行为管理”应该更加关注“行为”的触发机制,关注发生问题所处的时间、环境、和其他事件的相互关系,也就是关注系统。
或许,在每次重大事件发生之后,作为医院管理者应该更加致力于为医疗机构的运行打造一个有缓冲、有余闲、有稳定反馈回路的运行系统,让每个人都能在这个系统中游刃有余。
蝴蝶无效应,感控有小事,请让蝴蝶安心的舞动翅膀,请让警钟在需要时再敲响。
尾巴:伸手摘星,即使徒劳无功,亦不致满手污泥。
路过学习了,谢谢老师的分享 写得真好,思维很开阔!看问题看得全面系统! 角度新奇,观点犀利。有理有据,大开眼界! 本帖最后由 久的永永 于 2019-7-10 17:00 编辑
额,关注系统,知易行难,谁来关注?怎样关注?疲于奔命,提高效率,关注眼前,算不算穷人思维?雪崩发生时,每一片雪花都认为自己是无辜的 老师的文章写得真好,虽然蝴蝶效应的思想已根深蒂固,不易改变,但我们的最终目的都是一致的。学习了 路过学习,谢谢分享! 伸手摘星,即使徒劳无功,亦不致满手污泥。
{:1_17:} 学习了,老师说的有理有据 系统的问题怎么解决{:1_6:} 作为有责无权的感控人,推进工作那叫一个困难,一件小事说来说去也没有什么动静。看看隔壁医务部那一呼百应的阵仗,是不是有点羡慕? 路过学习,谢谢老师分享{:1_1:}
路过学习,谢谢分享! 系统的问题得从医院层面来解决,目前任重道远! 角度新奇,观点犀利。有理有据,大开眼界! 的确细节决定成败,感控无小事,但是做起来有些举步维艰,最该培训教育的就是领导层,应该持证上岗 写得真好,思维很开阔!看问题看得全面系统! 蝴蝶无效应,感控有小事,请让蝴蝶安心的舞动翅膀,请让警钟在需要时再敲响。
似乎是这么回事! 换个视角看感控事件,开阔思维,谢谢老师的分享 关注细节,及时发现问题,解决问题,是重中之重!谢谢分享!