Науковедческие исследования. 2015
Шрифт:
Известно, что такие крупные и густонаселенные страны, как Китай, Индия, Россия, Бразилия и Южная Африка (страны БРИКС), создали свой собственный рейтинг ведущих вузов. В этом рейтинге за 2014 г. самый крупный российский вуз – МГУ им. Ломоносова – занял 3-е место, вслед за двумя крупнейшими китайскими вузами.
И все было бы просто, если бы в других рейтингах место нашего вузовского лидера не изменило свою позицию. Так, по известному Шанхайскому рейтингу (Academic ranking of world universities), МГУ в 2014 г. занял 84 место, по версии британского рейтинга QS World university ranking МГУ занимает 114-е место, а в рейтинге University subject ranking – 151-е 3 .
3
Режим
В мою задачу не входит решать, какой из упомянутых рейтингов является объективным. Важно лишь понять, что так называемые количественные наукометрические методы оценивания качества профессорско-преподавательского состава, проводимых научных исследований, уровня востребованности выпускников и объема цитируемых публикаций сотрудников в соответствующих вузах подвержены влиянию субъективного фактора, так как набор индикаторов в каждом рейтинге и методы подсчета их числовых значений зависят от того, кто эти индикаторы выбирает, как их вычисляют, каким образом проверяют достоверность данных и т.д. Предположение о том, что чисто количественные методы избавляют нас от субъективности, не столько ошибочно, сколько наивно.
Есть, конечно, мнение, что при оценивании организаций как потенциальных реципиентов инвестиций, необходимых для проведения высококачественных научных работ, предпочтительнее пользоваться не количественными, а качественными методами, т.е. экспертными оценками. Поэтому я позволю себе привести здесь цифры одного рейтинга, составленного при помощи экспертных оценок. По версии Times Higher Education World Reputation Rankings (ТНЕ) (репутационный рейтинг), в 2015 г. в числе 100 наиболее престижных вузов, определенных по результатам опросов 10 507 авторитетных ученых из почти 150 стран, оказались два российских: МГУ им. М.В. Ломоносова и Санкт-Петербургский государственный университет (СПбГУ). Первый занял 25-е место, второй вошел в рейтинг впервые, попав в группу университетов на 71–80-м местах 4 .
4
Режим доступа: http://www.poisknews.ru/theme/edu/13883/?print
Сравнивая результаты чисто количественных наукометрических и качественных экспертных методов рейтингования, мы видим, что все они дают разные результаты в зависимости от субъективных установок специалистов, отбиравших индикаторы для рейтингования, и исполнителей этой работы, которые, естественно, внесли свой вклад в ее конечный результат.
К тому же следует заметить, что отбор экспертов, в свою очередь, производится на основе наукометрических данных в различных индексах цитирования при помощи, например, ранжирования ученых по количеству цитат или по индексу Хирша. И при этом в различных индексационных списках показатели эти могут быть различными. Так, например, количество цитат в индексационной системе РИНЦ и Академии Гугл у одних и тех же авторов достаточно сильно различается. Я думаю, что оценка эффективности исследований, проводимых научными или вузовскими коллективами, научными институтами, лабораториями, научными школами и направлениями, можно и нужно оценивать иначе.
В сообществе ученых, как и в других профессиональных сообществах, существуют свои авторитеты, мнение которых о той или иной научной работе иногда является решающим. Но, конечно, в отличие от некоторых видов обычных юридических приговоров, эти часто подвергаются пересмотру. Наука по самому существу представляет собой принципиально критическую деятельность, которая в значительной мере состоит в пересмотре уже признанных знаний и замене их новыми. Тем не менее авторитет признанных научным сообществом ученых часто оказывается не только чрезвычайно устойчивым, но и более надежным и объективным, чем результаты наукометрических расчетов и вычислений.
Ученый А признает научный результат, содержащийся и описанный в статье ученого Б, заслуживающим внимания, в высшей степени интересным или сразу же принимает его как открытие
Наиболее правдоподобно, что, став признанным экспертом, Б будет публиковать свои статьи в журналах с наиболее высоким импакт-фактором. Такой ход событий является достаточно типичным, и я сошлюсь на пример с публикациями всего двух статей Курта Гёделя, после появления которых он стал безусловным математическим авторитетом высшего уровня.
Таким образом, оценка эффективности результатов научной деятельности определенного ученого, осуществленная экспертами высшего уровня, без использования наукометрических методов, может иметь в глазах компетентных лиц, научных менеджеров или потенциальных инвесторов, желающих поддержать тот или иной научный проект, больший вес, чем подсчеты количества цитат или индекса Хирша.
К тому же следует иметь в виду, что с того момента, когда чисто наукометрические индексы становятся решающим фактором в оценке эффективности деятельности отдельного исследователя или исследовательского коллектива, погоня за цитатами часто приводит к нарушению всех норм научной этики и крайне затрудняет получение объективных оценочных результатов.
В одном из заседаний руководимого мною науковедческого семинара участвовал проректор по учебной части весьма респектабельного и почтенного российского университета, который откровенно сказал, что по инициативе ректората было проведено собрание будущих выпускников нескольких факультетов этого университета, на котором им было предложено после окончания университета в обязательном порядке во всех своих публикациях цитировать друг друга, и особенно своих профессоров и преподавателей.
Для оправдания этого по меньшей мере странного предложения упомянутый проректор сослался на опыт, распространенный в китайских университетах, выпускники которых непрерывно цитируют в отечественных и зарубежных изданиях друг друга и своих преподавателей.
Существуют методы «накрутки» публикаций. Некоторые научные работники рассылают во множество журналов модифицированные варианты одной и той же статьи, не содержащие никаких новых фактов, теоретических положений, эффективных исследовательских программ или описания новых научных методов. В конечном счете это не только приводит к удлинению списка публикаций, но и содействует увеличению числа цитат.
Когда оценка эффективности научной деятельности дается не на основании тщательного изучения самих полученных результатов, а на основании вторичных признаков – числа цитат, индекса Хирша, количества публикаций или импакт-факторов журналов, публикующих данного автора, оценка не является такой объективной, как при качественной экспертной оценке, полученной с помощью действительно авторитетных ученых.
Я думаю, что наиболее актуальной задачей современного науковедения является поиск методов бинарной ориентации, которые могли бы надежно сочетать как количественные, так и качественные подходы к оценке результатов научной деятельности и отдельных ученых, и научных коллективов. Если для научных менеджеров более доступными являются количественные методы оценки, то для самих ученых важна экспертная оценка надежных научных авторитетов. Трудность заключается лишь в том, что до сих пор не выработаны механизмы однозначного и бесспорного оценивания весомости самих этих авторитетов.