Сила этики. Искусство делать правильный выбор в нашем сложном мире — страница 36 из 56

Доктор Накаути подошел к воплощению своей мечты взвешенно, его подход включает в себя строгую научность и крайнюю осторожность. Я встречалась с ним в его «Лаборатории Накаути» в Исследовательском институте стволовых клеток Лорри И. Локи в Стэнфорде в феврале 2019 года. Он воплощал обнадеживающую уверенность без малейшего намека на высокомерие. По его мнению, этические проблемы, связанные с выращиванием человеческих органов у свиней, не являются непреодолимыми.

Например, некоторые опасаются, что человеческие клетки могут выйти за пределы необходимого органа, возможно, даже дойти до мозга животного, что потенциально способно повлиять на его мыслительный процесс. Доктор Накаути, как никто другой, обеспокоен риском создания свиней с человеческими чертами. Он продемонстрировал мне несколько «этических нарушений», которые, с его точки зрения, его команда может контролировать, объяснив, что количество человеческих клеток, которые они в настоящее время внедряют, настолько мало, что они никогда не смогут составить нечто вроде мозга[518]. Кроме того, исследователи на данный момент освоили использование «клеток-предшественников»[519], которым предопределено развиваться только для формирования целевого органа, чтобы избежать дифференцирования человеческих клеток для формирования человеческого мозга или человеческих гонад. У ученых даже есть метод, использующий так называемые «суицидальные» гены, которые можно применить специально для уничтожения любых человеческих стволовых клеток, которые накапливаются в мозгу.

Как сказал мне доктор Накаути, его исследование будет продвигаться постепенно, под контролем этики. Его работа может служить примером применения подхода «когда и при каких обстоятельствах», при котором научные инновации на каждом этапе продвигаются вместе с этической ответственностью. И он постоянно помнит о потенциальных пациентах и их семьях. Проводя это исследование в соответствии с установленными этическими принципами и в партнерстве с такими учреждениями, как Министерство образования и науки Японии и Стэнфордский университет, по мере развития науки доктор Накаути может также влиять на глобальную дискуссию по вопросам этики. Он прекрасно понимает, что аналогичные исследования, скорее всего, попытаются провести и другие лица, менее приверженные этике.

Оценка заражения и мутации заключается не в подсчете положительных и отрицательных сторон, а в комплексном и вместе с тем индивидуальном анализе всех возможностей и рисков после того, как заражение будет принято во внимание. В связи с этим доктор Накаути и его команда разграничивают управляемые риски и риски, которыми невозможно управлять. В то же время они отдают приоритет тем возможностям, которые имеют решающее значение, а не тем, что важны в меньшей степени.

В 2019 году я дала двум группам студентов задание очертить векторы заражения и мутации при исследованиях свиных трансплантатов для человека, в том числе движущие силы и потенциальные последствия[520]. Они выявили от 15 до 20 возможных рисков, от передачи новых вирусов и пугающего образа «свиньи с мозгом человека» до роста незаконной торговли органами, поощрения преступников (проблема Хэ Цзянькуя) и жестокого обращения с животными. Однако это исследование, утверждали они, внесет свой вклад в знания о трансплантации органов и расширит объем общемедицинских знаний, что может спасти жизни, которые без него спасти не удалось бы.


Пытаясь жить в мире с размытыми границами, мы порой ошеломлены тем, чего не можем знать и не понимаем. Нам следует начинать с поиска исключений из правил – жизненно важных преимуществ и рисков, неприемлемых для человечества. На передовой риск потерять важнейшую возможность спасти одну жизнь, или, потенциально, тысячи жизней, может стать самым непреодолимым. Даже если рисков значительное количество, а шансов всего один или два, единственное преимущество спасения одной жизни настолько существенно, что на риск идти стоит. Это не означает, что мы бросаемся вперед очертя голову, потому что на нас по-прежнему лежит ответственность активно снижать риски там, где это возможно.

Наконец, формулировка вопросов, связанных с размытыми границами, требует рассмотрения преимуществ и рисков в более широком контексте. В этом случае одним из глобальных факторов риска могут быть беспилотные автомобили, в частности влияние беспилотных автомобилей на автомобильные аварии и доступность органов. Согласно данным Министерства здравоохранения и социальных служб США, примерно 9 % всех донорских органов в Соединенных Штатах с 1988 года поступили от людей, погибших в автомобильных авариях[521]. К счастью, совершенствование безопасности, что, как ожидается, будут предлагать беспилотные автомобили, может значительно сократить количество этих смертельных случаев[522]. Однако при этом получается, что остается гораздо меньше органов для трансплантации, что еще больше усугубляет кризис с их дефицитом. Как повлияет этот фактор на ваше мнение о трансплантации человеку органов от животных?

Еще одно важное соображение, заставляющее нас учитывать контекст при формировании мнения об инновациях доктора Накаути, затрагивает глобальное неравенство. По данным ВОЗ, доступ к спасающим жизнь трансплантатам лучше всего в богатых регионах, таких как США и Европа, и хуже всего в странах с низким и средним уровнем дохода[523]. Нехватка органов почти по всему миру также выступает как движущая сила для экономики на черном рынке, международной торговли органами и «трансплантационного туризма», когда те, кто ищет органы, выезжают за границу, чтобы купить то, что им нужно. По данным ВОЗ, подпольная торговля органами обеспечивает от 5 до 10 % выполняемых в мире операций по трансплантации почек[524], и источниками этих органов могут выступать бедные и уязвимые люди в развивающихся регионах: они продают свои почки, чтобы расплатиться с долгами.

Как напоминает нам Дилейни Ван Райпер, молодая женщина, участвующая в исследованиях CRISPR, принимая решения в сфере этики, мы не должны забывать о заинтересованных сторонах и последствиях, которые кажутся нам бесконечно далекими от нас. Особенно о тех, которые связаны с технологиями, размывающими границы.

Для сложных этических задач, представляющихся настолько фантастическими, что к ним неприложимы любые обычные системы координат, я разработала полезный инструмент, который я называю этическим спектром, или шкалой этики[525]. Упражнение по применению такой шкалы поможет вам сориентироваться при принятии решения, отталкиваясь от двух вопросов: «Что я сам думаю об этой теме и что думает общество?» и «Что у этой задачи общего с другими дилеммами и какие новые измерения открываются на передовой?».

Если объяснять на пальцах, эта шкала, по большому счету, представляет собой линейную диаграмму, на которой вы располагаете возможные варианты, возникающие на передовой, соотнося их с более привычными примерами. Вначале нарисуйте линию и обозначьте на ее концах исключения, крайности (обычно бинарные, поэтому это не лучшие результаты). Если бы вы хотели, к примеру, оценить, насколько вам с вашими близкими поможет робот, осуществляющий уход за пожилыми людьми, крайностями в выбранном вами диапазоне могли бы стать «полное отсутствие ухода» и «сиделка-человек, работающий/ая на полную ставку». Отвечая на два приведенных выше вопроса, решите, где на этой шкале вы разместите осуществляющих уход роботов, а также более привычные примеры сиделок. Например, вы можете добавить сюда санитарок, помощников-волонтеров, профессиональных медсестер, дома престарелых и другие возможности. Сравнивая эти варианты, вы увидите, что по отношению к разным аспектам – таким, как качество медицинской помощи, стоимость услуг, доступность и влияние на членов семьи, – проявляются сходства и различия. Это упражнение может предоставить вам более широкую систему координат, в которой вы сумеете оценить, что лично вы думаете о роботах, осуществляющих уход за людьми, что думает о них общество и что у вашей задачи общего с другими дилеммами, а также в чем она уникальна. В дальнейшем это понимание облегчит вам использование предлагаемой этической схемы, например на этапе информации или оценки заинтересованных сторон, добавленных вами в условия задачи.

Еще один способ шире применять упражнение со шкалой – рассматривать различные аспекты. Возможно, вы захотите оценить применение роботов, осуществляющих уход за пожилыми людьми, в сравнении с иными сценариями, когда роботы заменяют людей в отношениях. Что еще может оказаться на этой шкале в таком аспекте? Вы могли бы добавить сюда, например, роботов-администраторов в отеле, голосовых помощников Siri или Alexa, кукол Барби, которые говорят благодаря подсоединению к Wi-Fi, роботов, работающих на складе Amazon, терапевтических чат-ботов, роботизированных кукол для секса, партнеров по шахматам при игре на iPad и роботов-поваров в ресторанах быстрого питания. Поймите, что на вашей шкале будет крайними вариантами. Задайте себе вопрос: какие инновации на этой шкале для меня допустимы, а с какими я никогда не стал бы иметь дело? Затем подумайте, где на вашей шкале будут находиться роботы, осуществляющие уход за пожилыми людьми (или любая другая дилемма), лично для вас, в сравнении со всеми остальными инновациями, которые вы перечислили.

Размещение вашей этической проблемы на шкале в соответствии с тем, как она соотносится со знакомыми примерами, не будет заменой этической схеме и не даст вам полного ответа на ваш вопрос. Но зато это может дать вам представление о том, что для вас важно