Однако еще хуже потери уверенности в себе защитная реакция. Некоторые хирурги готовы видеть ошибки везде, только не у себя. У них нет ни вопросов, ни страхов в отношении собственных возможностей. В результате они не делают выводов из своих ошибок и ничего не знают о своих ограничениях. Как мне сказал один коллега, это редкое, но опасное явление — хирург, не ведающий страха: «Если ты совершенно не боишься, когда оперируешь, то неизбежно грубо нарушишь интересы пациента».
Сама атмосфера на M&M призвана противодействовать обоим вариантам неправильного отношения к ошибкам — как сомнению в собственных силах, так и отрицанию своей вины, поскольку мероприятие представляет собой культурный ритуал, прививающий хирургу «верный» взгляд на ошибки. «Что бы вы сделали иначе?» — спрашивает председательствующий в случаях, когда вреда можно было избежать. Ответ «ничего» редко является приемлемым.
В своем роде совещание M&M на удивление продуманный и человечный институт. В отличие от суда или СМИ, оно признает, что большинство человеческих ошибок невозможно предотвратить наказаниями в принципе. Согласно духу M&М, избегание ошибок, главным образом, вопрос воли: нужно всегда быть достаточно информированным и бдительным, чтобы предвосхищать бесчисленные возможности неблагоприятного развития событий, и стараться предупредить каждую из потенциальных проблем, прежде чем она возникнет. Если ошибка случается, в этом нет ничего ужасного, но этого следует стыдиться. На самом деле этика M&M может показаться парадоксальной. С одной стороны, она подкрепляет характерную для Америки нетерпимость к ошибкам, с другой — само существование этого совещания, а также то, что оно непременно присутствует в еженедельном расписании, означает признание того, что ошибки — неотъемлемый элемент медицины.
Почему они случаются так часто? Лусиан Лип, ведущий эксперт по ошибкам в медицине, отмечает, что во многих других сферах деятельности — будь то производство полупроводников или обслуживание клиентов в «Ритц-Карлтон» — количество ошибок попросту не учитывается так тщательно, как в больницах. Авиационная индустрия снизила частоту операционных ошибок до одной на 100 000 полетов, и бóльшая часть из них не имеет негативных последствий. В General Electric в ходу «Шесть сигм»: цель этой концепции — сделать производственные дефекты такими редкими, чтобы, согласно терминологии статистики, они более чем на шесть стандартных отклонений отличались от случайности — почти один брак на миллион.
Конечно, пациенты намного более сложны и индивидуальны, чем самолеты, и медицина не сводится к производству определенного продукта или даже ассортимента продуктов; вполне возможно, что она сложнее практически любой другой сферы человеческой деятельности. Тем не менее все, чему мы научились в последние 20 лет, — благодаря когнитивной психологии, инженерии, учитывающей человеческий фактор, изучению таких бедствий, как аварии на АЭС Три-Майл-Айленд и химическом заводе в Бхопале, — подтверждает: все люди ошибаются, более того, ошибаются часто и предсказуемо, по определенной схеме. Системы, не учитывающие этих реалий, могут усугубить, а не предупредить ошибки.
Британский психолог Джеймс Ризон утверждает в своей книге «Человеческая ошибка»{2}, что наша предрасположенность к просчетам определенного типа является платой за поразительную способность мозга мыслить и действовать интуитивно: быстро просеивать информацию от органов чувств, которая постоянно на нас обрушивается, не тратя время на попытки осмыслить каждую ситуацию. Таким образом, системы, рассчитывающие на совершенство человека, несут, в терминологии Ризона, «латентные ошибки». Медицина изобилует подобными примерами. Возьмем выписку рецепта — механическую процедуру, опирающуюся на память и внимание, на которые, как мы знаем, полагаться нельзя. Неизбежно врач когда-нибудь да укажет неверную дозировку или назначит не то лекарство. Даже если рецепт выписан правильно, всегда имеется риск, что его неверно прочтут. (Компьютеризованные системы заказа лекарств могут практически исключить подобные накладки, но внедрены лишь в немногих больницах.) Медицинское оборудование, часто создаваемое производителями без учета того, что им будут пользоваться люди, — еще одна сфера, изобилующая латентными ошибками: врачи обречены на проблемы при использовании кардиологического дефибриллятора, поскольку этот прибор не имеет стандартной конструкции. Можно также предположить, что изнуряющая перегруженность, вечный хаос и недостаточная коммуникация в команде врачей представляют собой латентные ошибки нашей системы.
Джеймс Ризон делает еще одно важное наблюдение: бедствия не только случаются, но и накапливаются. В сложных системах единственный сбой редко приводит к вредным последствиям. Люди поразительно хорошо приспосабливаются, когда ошибка становится очевидной, и многие системы имеют встроенные защитные механизмы. Например, фармацевты и медсестры привычно проверяют и перепроверяют предписания врачей. Но ошибки не всегда становятся явными, а поддерживающие системы, предназначенные для обнаружения и исправления ошибок, сами часто отказывают вследствие латентных ошибок. Фармацевт забывает проверить один из тысячи рецептов. Сигнал тревоги в приборе не срабатывает. Единственный присутствующий на тот момент хирург-травматолог застревает в операционной. Когда ситуация ухудшается, это обычно происходит из-за цепи накладок, которые, накапливаясь, вызывают катастрофу.
На M&M ничто из этого не учитывается, поэтому многие эксперты сомневаются в таком подходе к анализу ошибок и улучшению показателей в медицине. Недостаточно спросить врача, что он мог или хотел бы сделать иначе, чтобы он сам и остальные могли учесть это в следующий раз. Врач часто является последним действующим лицом в цепочке событий, приводящих его к провалу. Специалисты по ошибкам убеждены, что пристального изучения и коррекции требует сам процесс, а не участвующие в нем индивиды. В определенном смысле они хотят индустриализировать медицину и уже могут привести примеры успеха, скажем клинику Шоулдайса — «специализированную фабрику» по проведению герниопластики — или, если рассмотреть вопрос шире, все направление анестезиологии, в котором были восприняты их рекомендации, что привело к выдающимся результатам.
В центре эмблемы Американского общества анестезиологов одно слово: «Бдительность». Когда вы погружаете пациента в сон при общей анестезии, то получаете почти полный контроль над его телом. Тело парализовано, головной мозг в бессознательном состоянии, аппараты контролируют дыхание, сердцебиение, кровяное давление — все жизненные функции. Из-за сложности оборудования и тела человека варианты неблагоприятного развития событий практически бесконечны, даже при малой операции. Анестезиологи, однако, убедились, что, если проблемы обнаружены, их можно решить. В 1940-х гг. происходила одна смерть из-за анестезии на каждые 2500 операций, между 1960-ми и 1980-ми гг. смертность стабилизировалась на уровне одного-двух случаев на 10 000 операций.
Однако Эллисон (Джип) Пирс всегда считал даже этот уровень чрезмерно высоким. С 1960-х гг., когда молодой анестезиолог начал практиковать в Северной Каролине и в Университете Пенсильвании, он вел подробные досье обо всех смертельных случаях при анестезии, известных ему по чужому или собственному опыту. Один из таких случаев особенно потряс Пирса. Его друзья привезли в больницу 18-летнюю дочь, чтобы под общим наркозом удалить зуб мудрости. Анестезиолог поставил ей дыхательную трубку в пищевод, а не в трахею — довольно частая ошибка — и не заметил этого, что уже редкость. Без доступа кислорода девушка умерла в считаные минуты. Пирс знал, что один случай смерти на 10 000 операций, с учетом того, что анестезия в США, по оценкам, делается 35 млн раз в год, означает 3500 подобных смертей, которых можно было бы избежать{3}.
В 1982 г. Пирс был избран вице-президентом Американского общества анестезиологов и получил возможность повлиять на этот показатель. В том же году в информационном тележурнале АВС «20/20» вышло расследование, вызвавшее серьезные сдвиги в сфере анестезиологии. Сюжет начинался с обращения: «Если вы собираетесь подвергнуться анестезии, значит, вы готовитесь к долгому путешествию, в которое не следует пускаться, если есть хоть какой-то способ этого избежать. В большинстве случаев общий наркоз безопасен, но существует риск из-за человеческой ошибки, небрежности и фатальной нехватки анестезиологов. В этом году 6000 пациентов погибнут или получат повреждение мозга». В программе было описано несколько ужасных происшествий в разных частях страны. В промежуток времени между небольшим кризисом, вызванным этой программой, и резким ростом страховых выплат за недобросовестное лечение, который тогда произошел, Пирс сумел мобилизовать общество анестезиологов на решение проблемы ошибок.
Он обратился за идеями не к врачу, а к инженеру Джеффри Куперу, ведущему автору революционной статьи 1978 г. «Предотвратимые проблемы при анестезии: исследование человеческого фактора»{4}. Скромный и дотошный человек, Купер в 1972 г. в возрасте 26 лет был принят на работу в биоинженерный отдел Массачусетской больницы общего профиля и занялся разработкой приборов для исследований в области анестезиологии. Его, однако, интересовало происходящее в операционных, и он часами наблюдал за работой анестезиологов. Прежде всего, среди прочего он отметил крайне неудачную конструкцию наркозных аппаратов. Например, поворот тумблера по часовой стрелке в почти половине приборов уменьшал концентрацию мощных анестетиков, а в других — увеличивал. Купер решил воспользоваться методом так называемого анализа критических случаев, применявшимся с 1950-х гг. для изучения нештатных ситуаций в авиации, чтобы оценить роль оборудования в ошибках анестезиологов. Метод заключается в проведении подробных опросов с целью получить максимум деталей об опасных инцидентах, их развитии и сопутствующих факторах. На основе этой информации ищутся паттерны, общие для разных случаев.