интервалы между событиями. Именно благодаря способности мозга создавать время — отражать и запоминать эти интервалы, а затем воспроизводить их — мы чувствуем время. Но если время создается мозгом, почему не реализуется кажущаяся рациональной идея отображать время таким, какое оно есть, — с минимальной погрешностью, точно и аккуратно?
Чтобы приблизиться к пониманию того, почему время отображается в мозге в измененном виде, вспомним о той пользе, которую приносит нам чувство времени: мы пользуемся им для обоснования своих решений[189]. Наш успех как вида зависит от того, насколько хорошо мы рассчитываем свои действия с учетом ожидаемого результата (вознаграждения или наказания), а потому логично, что наш мозг должен был обзавестись эффективными инструментами для выявления связи между сенсорными событиями (то есть звуком, светом или запахом) и последствиями, которые они предсказывают. Например, зрительный сигнал (обнаружение добычи) при условии приложения усилий предсказывает вознаграждение определенной величины (размер добычи) через некий промежуток времени (необходимый, чтобы догнать и поймать добычу). Зная, что зрительный сигнал сулит вознаграждение, хищник может оценить эту возможность, сопоставив выгоду с временными затратами, необходимыми для ее получения. Люди постоянно принимают решения, требующие оценки временных затрат на получение вознаграждения (например, пойти ли в ближайший приличный ресторан или поехать в очень хороший на другом конце города). Но как определить цену времени?
Ученые из разных областей пытались выяснить, что должна представлять собой цена времени — то есть как следует соотносить время с поставленной целью, чтобы цель была достигнута[190]. С точки зрения экологии разумная цель состоит в следующем: животное должно добывать пищу в своей среде обитания так, чтобы размер вознаграждения был оптимальным. Был предложен алгоритм, описывающий достижение этой цели: ценность отсроченного вознаграждения (r) вычисляется делением ожидаемого вознаграждения на время (t), необходимое для его получения, — то есть удельное вознаграждение определяется как (r/t)[191]. Но если вы окажетесь перед выбором: выстоять короткую очередь за маленьким вознаграждением или длинную за большим — всегда ли вы предпочтете маленькую очередь, если она сулит более высокое удельное вознаграждение? Вовсе не обязательно! Это зависит от ожидаемого удельного вознаграждения для случая, когда вы вообще не будете стоять в очереди. Назовем эту величину фоновым удельным вознаграждением и попытаемся выяснить, почему оно должно влиять на наше решение при выборе того или иного варианта.
Рассмотрим разницу во времени между получением крупного вознаграждения, но позже, и маленького, но раньше. Какое вознаграждение вы могли бы получить за это время, если исходить из величины фонового удельного вознаграждения? Потеря фонового вознаграждения из-за ожидания в длинной очереди — это альтернативные издержки времени при предпочтении варианта «больше и позже» варианту «меньше и раньше». Таким образом, применительно ко времени стояния в длинной очереди за большим вознаграждением вопрос будет звучать так: не лучше ли выбрать короткую очередь, получить меньшее вознаграждение и прибавить к нему ожидаемое вознаграждение от того, что в оставшееся время вы не будете стоять в очереди? Когда фоновое удельное вознаграждение невелико (меньше, чем разница между двумя предлагаемыми вариантами удельного вознаграждения), вариант «больше и позже» выгоднее, а когда фоновое удельное вознаграждение велико (больше, чем разница между двумя предлагаемыми вариантами удельного вознаграждения), выгоднее будет вариант с короткой очередью. Такой подход к оценке возможностей с точки зрения альтернативных издержек времени также помогает понять, есть ли вообще смысл вставать в очередь за вознаграждением. Если фоновое удельное вознаграждение больше, чем удельное вознаграждение любого из предлагаемых вариантов, следует отказаться от этих вариантов, поскольку отказ принесет большую выгоду. Таким образом, получение максимального вознаграждения при поиске пищи в среде обитания требует соотнесения той или иной возможности с ее ценой, выраженной в затратах времени. Но как определить альтернативные издержки времени?
Недавно мы разработали алгоритм принятия решений TIMERR («интегрированная максимизированная оценка удельного вознаграждения на основе обучения»), который максимизирует размер вознаграждения, получаемого животным при добывании пищи в своей среде обитания[192]. Алгоритм основан на предположении, что животное ориентируется на временной интервал из недавнего прошлого, чтобы определить удельное вознаграждение среды обитания. Животное оценивает возможность, вычисляя, будет ли итоговое удельное вознаграждение среды обитания больше, чем уже достигнутое (рис. 9А). Этот простой алгоритм можно представить в виде формулы для расчета ценности вознаграждения заданного размера с заданной временной отсрочкой — это так называемая субъективная ценность (рис. 9В). Субъективная ценность отсроченного вознаграждения — это размер моментального вознаграждения, которое рассматривалось бы как равноценное. Если взглянуть на алгоритм TIMERR с этой точки зрения, станет очевидно, что альтернативные издержки времени, необходимого для получения данного вознаграждения, вычитаются из размера вознаграждения. В общем случае снижение субъективной ценности любого отсроченного вознаграждения можно выразить в виде функции дисконтирования времени. Субъективная ценность вознаграждения, выраженная функцией дисконтирования времени, уменьшается в TIMERR в привязке к временному интервалу, который животное использует для оценки удельного вознаграждения среды обитания, основанной на опыте (рис. 9С). Животное оценивает привлекательность предложения, опираясь на временной интервал для ретроспективного анализа (отрезок, за который был накоплен опыт принятия решений), и чем больше это время, тем больше терпения проявляет животное (готово ждать дольше ради того же вознаграждения).
РИС. 9. Схема алгоритма TIMERR. (А) Алгоритм принятия решений TIMERR (справа) предполагает, что ценность вознаграждения рассчитывается путем суммирования предлагаемого удельного вознаграждения (определяемого ценностью отсроченного вознаграждения r и временем его отсрочки t) с известным по опыту удельным вознаграждением среды обитания (определяемым общим вознаграждением R, полученным за временной интервал, взятый для ретроспективного анализа, Time) и выбора наиболее выгодного варианта. Этот алгоритм можно представить графически (слева): животное (закрашенный серый кружок) оценивает, какое из предлагаемых вознаграждений даст наибольшее достижимое удельное вознаграждение, основываясь на ретроспективном анализе временного интервала Time, в течение которого было получено вознаграждение R. (B) Субъективная ценность отсроченного вознаграждения (равная величине немедленного вознаграждения r1 при t = 0, которое считается равноценным отсроченному вознаграждению r2, t2) может быть получена из алгоритма TIMERR (справа) и изображена на графике (слева) как точка пересечения с осью y прямой, которая выражает итоговое удельное вознаграждение. Важно, что альтернативные издержки времени (R/Time x t) учитываются как известное по опыту удельное вознаграждение (R/Time), умноженное на время, потраченное на его получение (t). (C) Уменьшение субъективной ценности вознаграждения заданного размера с увеличением времени, необходимого для его получения, выражается в виде функции дисконтирования времени (врезка) и показано на графике путем перенесения в будущее (справа) субъективных ценностей вознаграждения, взятых через равные интервалы отсрочки (слева, темные кружки). Субъективная ценность снижается по гиперболической кривой, что подтверждается экспериментально. (D) Алгоритм TIMERR, согласно которому субъективное удельное вознаграждение равно разнице между предлагаемым удельным вознаграждением (ожидаемое вознаграждение, деленное на ожидаемую отсрочку) и полученным в прошлом удельным вознаграждением (слева), позволяет вывести выражение (в центре) субъективного восприятия времени, ST(t). Деление ST(t) на Time дает ограниченную вогнутую (то есть выпуклую вверх) функцию от объективного времени (справа), кривизна которой увеличивается при уменьшении интервала, взятого для ретроспективного анализа (Time = 50), и уменьшается при увеличении этого интервала (Time = 500)
Этот алгоритм показывает, как должно вести себя животное, чтобы получить максимальное вознаграждение, — но насколько хорошо он объясняет закрепившееся поведение, при котором решения принимаются с учетом фактора времени? По сути, TIMERR вмещает длинный список будто бы разрозненных, но часто наблюдаемых схем принятия решений, многие из которых часто интерпретируются как свидетельства иррационального поведения людей и животных[193]. TIMERR представляет это кажущееся нерациональным поведение как весьма разумный процесс принятия решений животным, располагающим ограниченными данными об изменчивой среде (и ограниченной возможностью их получить).
Объясняет ли это, почему время не должно отражаться в мозге объективно? Разрабатывая алгоритм TIMERR, мы исходили из того, что субъективное удельное вознаграждение, рассчитываемое как отношение субъективной ценности к субъективному восприятию отсрочки, — это величина, которая отражает, насколько предлагаемое удельное вознаграждение больше, чем известное по опыту удельное вознаграждение среды обитания (рис. 9D, слева). Таким образом, субъективное удельное вознаграждение точно отражает изменения объективного удельного вознаграждения. Если посмотреть под другим углом, этот постулат рав