Эта система оценки была крайне сложной: в 15 секторах, поделенных на 67 исследовательских областей, задействованы около 1500 оценщиков[119]. После 2008 года оценка по этой системе была приостановлена, вероятно из-за того, что процедура была признана излишне тяжеловесной. Новая система, переименованная в Research Excellence Framework (REF), была введена в действие с 2014 года. Как и в случае RAE, полученные результаты влияют на объемы государственного финансирования, распределяемого между университетами. На самом деле процедура изменилась мало, оценку по-прежнему производит специальный комитет, определяющий место факультета в одной из пяти категорий: от одной до четырех «звезд» и «без места» для самых слабых[120]. Как и раньше, эти процедуры основаны прежде всего на мнении коллег, избираемых из числа представителей внешних институций. Эксперты посещают оцениваемые факультеты, анализируют их отчеты с целью составить представление об общем качестве преподавания и исследований, не используя при этом четко определенных количественных показателей. Публикации, разумеется, принимаются в расчет, но они являются лишь одним из элементов, из которых складывается общая оценка, носящая, по большому счету, качественный характер. И хотя британская система не основана на библиометрических данных, ее можно сравнить с неоправданно сложным механизмом, затратным как по времени, так и по деньгам.
Практика прямого учета библиометрических данных в формулах финансирования университетов возникает в 1990-е годы сначала в Австралии, а затем, с 2003 года, в бельгийской Фландрии[121]. Целью оценивания при этом является не улучшение практик и организации исследований, а наказание институций, которые оказываются наименее эффективными по выбранным показателям, через урезание их бюджета. Это механическое применение библиометрии, которое заставляет академические институции гнаться за количеством публикаций, уже подвергалось суровой критике[122]. В Австралии подобные критические выступления заставили правительство отказаться от системы рейтингов, и в 2007 году она была заменена другой системой, основанной на экспертной оценке, «формируемой с опорой на ряд количественных показателей»[123]. Речь идет не о полном отказе от количественных индикаторов, а скорее о том, чтобы использовать их с учетом контекста, рассматривая те или иные критерии как помощь при вынесении оценки, вместо того чтобы принимать их за абсолютную и бесспорную истину только потому, что они выражены цифрами.
Как и следовало ожидать, работы, посвященные последствиям оценивания, основанного на количественных характеристиках статей, показывают, что исследователи сознательно подстраивают свое поведение под критерии, используемые при их оценке[124]. Как замечает Майя Бовалле в своей книге о показателях эффективности, введенных в академических организациях под влиянием новой менеджерской идеологии, «как только тот или иной показатель сконструирован и введен в использование, результаты по нему улучшаются уже просто потому, что на нем оказывается сконцентрировано всеобщее внимание»[125].
К счастью, организаций, механически включающих библиометрию в формулы финансирования, пока единицы, в то время как их большая часть не разделяет подобные подходы. Так, Совет канадских академий, проведя опрос об использовании библиометрических показателей при распределении финансирования в десятке стран, в заключение своего отчета подчеркивает, что «напрямую увязывать выделение денежных средств с количественными показателями является слишком большим упрощением и не представляет собой реалистичной стратегии»[126]. Остается лишь пожелать, чтобы другие организации подписались под этими словами, преодолев выжидательную и некритичную позицию, подобную той, что занимает, к примеру, Институт Франции[127].
Измерять и контролировать
Жаркие споры на предмет использования библиометрических показателей при оценке исследователей чаще всего оставляют за кадром важнейший аспект оценивания, а именно роль экспертной работы самих исследователей в этом процессе. Стремление таких институтов, как Европейский научный фонд (ESF), Европейский исследовательский совет (ERC) и Агентство по оценке научных исследований и высшего образования Франции (AERES), использовать ранжирование журналов по категориям A, B и C для упрощения и даже механизации индивидуального оценивания де-факто представляет собой своего рода тейлоризацию оценивания, деквалификацию необходимого для него экспертного знания.
Рейтинги журналов порождают легкопредсказуемые негативные эффекты, которые вовсе не компенсируются их весьма ограниченной потенциальной пользой. Например, некоторые статьи будут предлагаться в неподходящие для них журналы по той причине, что последним присвоен рейтинг A, и это будет только повышать риск их отклонения редакцией журнала. Другое предсказуемое последствие: новым динамичным журналам станет сложно пробивать себе дорогу, поскольку им не удастся быстро получить хорошее место в рейтинге, в результате чего исследователи будут неохотно предлагать им статьи. Мы не призываем здесь к увеличению числа журналов. В силу неизбежной ограниченности ресурсов невозможно бесконечно открывать новые журналы по данной дисциплине. Разумеется, невозможно и запретить создавать новые журналы, но когда на кону деньги налогоплательщиков, вполне законным является требование, чтобы решения о выделении субсидий были основаны на определенных критериях, подходящих для оценки журналов. Так, представляется оправданным утверждение, что журнал, 90 % авторов которого принадлежат к одной лаборатории, не отвечает потребностям всего научного сообщества и не заслуживает государственных субсидий.
Импакт-факторы и рейтинги журналов имеют еще одно косвенное последствие, о котором редко говорится. Стремление исследователей улучшить свои позиции ведет к отказу от изучения локальных, маргинальных и немодных тем. Такая тенденция особенно опасна для гуманитарных и социальных наук, объекты которых имеют по определению более локальный характер, чем у естественных наук. Очевидно, что некоторые темы менее годны для экспорта. Учитывая, что самые цитируемые журналы — англо-американские (а вовсе не международные), шансы опубликовать статью в престижном издании зависят от того, интересна ли данным журналам ее тематика. Исследователю, стремящемуся публиковаться в самых известных журналах, выгоднее изучать экономику США, чем специфику Банка Франции, поскольку последняя тема мало интересует американский журнал[128]. Социолог, работающий по интернациональной, а значит, делокализованной теме или занимающийся теорией, имеет больше шансов экспортировать свои статьи, чем социолог, занимающийся эмпирическим исследованием тех или иных аспектов своего общества. Например, сравнение между Хабермасом и Луманом легче найдет спрос на международном рынке, поскольку у него нет локального эмпирического содержания, которое уменьшило бы его привлекательность для американского журнала. А вот у желающего осуществить сравнительное исследование покупательского поведения на юге Франции и в Бретани могут возникнуть проблемы с интернационализацией результатов. Но неужели этот объект исследования менее важен, чем флуктуации Нью-Йоркской фондовой биржи? Угроза обесценивания и утраты интереса к локальным, но социологически значимым объектам исследований станет вполне реальной, если показатели цитируемости будут использоваться механически, без учета индексикальности (пользуясь этнометодологическим термином) объектов исследования гуманитарных и социальных наук[129]. Исследователи перестанут изучать некоторые темы из страха, что их не будут публиковать журналы категории А. Любопытно, что такие журналы чаще всего иностранные и на английском языке, тогда как журналы на национальных языках, как правило, попадают в класс В или С. Трудно не заметить своеобразной формы колониализма в некоторых рейтингах, предлагаемых Европейским научным фондом (ESF). Действительно, если судить только по общему числу ссылок, то почти неизбежно, англо-американские журналы будут всегда занимать верхние строчки рейтинга. Их, как правило, чаще цитируют в силу простого демографического эффекта: потенциальное число читателей по той или иной специальности больше для английского, чем, например, для французского языка[130]. Однако это число ни в коей мере не указывает на интернациональное или национальное происхождение этих ссылок. Особенно остро это ощущается в социальных и гуманитарных науках по причинам, о которых мы говорили выше.
В качестве одного из основных показателей интернационализации журнала можно рассматривать географическое происхождение публикующихся в нем авторов. Например, в 2000–2012 годах 81 % авторов American Journal of Sociology (AJS) работали в США, тогда как доля британских авторов в British Journal of Sociology составляла 61 %. Так, мы видим, что первый журнал — в основном американский, то есть локальный, и менее международный по степени своей открытости, чем второй или даже чем канадский аналог AJS, в котором только 72 % авторов — канадцы. Для измерения международной заметности этих журналов можно также посмотреть на языковое разнообразие цитирующих их статей. И здесь обнаруживается, что 97 % ссылок на American Journal of Sociology приходится на англоязычные статьи и только 3 % — на статьи на других языка