Знаете ли вы, почему погибла Римская империя? У историков есть на это разные ответы, но иногда забывают один из главных: в Римской империи не развивалась наука, поскольку не было ее количественного измерения.
Это потому, что среди римских цифр не было нуля, т. е. начальной точки отсчета всех количественных измерений и оценок. В отличие от Древнего Рима, украинская наука богата "нулями" - учеными, чей вклад в мировую науку близок к нулю. От этого нулевого уровня и должен начинаться отсчет успехов и неудач украинской науки. Такие "нули" есть во всех научных дисциплинах, их немало среди академиков НАНУ, руководителей научных институтов и кафедр вузов.
В принципе, карьера ученого должна определяться объективными факторами, такими как его творческие достижения и их оценка со стороны коллег, и все формальные процедуры - конкурсы, аттестации, защита диссертаций - направлены на отбор лучших. Так откуда же тогда на руководящих должностях в научных коллективах появились "нули"? Во времена СССР к этому побуждала ненаучная активность, такая как руководство компартийными, комсомольскими и даже профсоюзными организациями научных учреждений, "родительские лифты" (так называемые научные династии). При старении научных коллективов к ним присоединились ученые, которые по возрасту или по другим причинам отошли от активной научной работы, и им оставалось только руководить. До последнего времени этих коллег ничто не беспокоило. Ведомственное распределение средств, даже в условиях сокращений финансирования науки, гарантировало им беззаботную жизнь. Ведомственные проверки деятельности учреждений ничем не угрожали, поскольку происходили по известному принципу: "Ты меня уважаешь? Ну и я тебя уважаю. А следовательно, мы оба уважаемые люди". И вот буквально в последнее время мы наблюдаем довольно непривычную активность "нулей". Одним из ее проявлений я считаю появление в ZN.UA интервью с профессором Малицким под выразительным заголовком "Проблема объективного оценивания качества работы исследователя выходит далеко за рамки упрощенных наукометрических индексов".
Отрицая наукометрию, можно долго дискутировать, кто больший, а кто меньший "нуль", а кто из этих "нулей" является "выдающимся деятелем науки". Можно издавать статьи и монографии, научные журналы, в которых науковедение без количественных критериев и оценок является разговором ни о чем, т. е. создавать то, что каким-то образом еще называется наукой. Ведь уважаемый профессор занимает должность директора Института исследований научно-технического потенциала и истории науки им. Г. Доброва НАН Украины, а должность обязывает. Потому что вряд ли кто-то из активно работающих ученых согласится с его тезисом: "С помощью таких наукометрических показателей, как публикационная активность в зарубежных журналах с импакт-фактором и индекс Хирша, отечественная бюрократия прилагает настойчивые усилия по внедрению такой системы оценивания в украинской науке". Скорее, наоборот - ее внедрение отчаянно саботируется, что и демонстрирует это интервью. А относительно вопроса, почему такое выступление появилось сейчас, - еще интереснее.
Дело в том, что наконец начал действовать принятый почти два года назад закон "О науке и научно-технической деятельности". В нем много недостатков, но он предусматривает создание Национального научного комитета, 24 члена которого должны быть научными лидерами, иметь выдающиеся научные достижения, безупречную научную репутацию и доверие в научной среде. Этот комитет начал работать, и ученые очень надеются, что он наконец изменит нынешнюю, очень непроизводительную систему организации науки. Эта система, в которой средства на науку распределяются между министерствами и ведомствами (одним из которых является НАНУ), далее - между их подразделениями, а уже потом доходят до научных работников, именно и углубляет катастрофу, поддерживая существование "нулей". Ее заменит прямое финансирование ученых и их творческих коллективов через научные фонды. И здесь каждый ученый, обращающийся за финансированием в эти фонды, должен будет доказать, что его проект имеет шанс на успех. А для этого ему придется отвечать на вопрос о его месте в мировой науке и о том, насколько весомыми были его предыдущие достижения. И только так могут отсекаться "нули". Для этого и нужны показатели наукометрии. Пусть не совсем совершенные, но они объективны и свободны от подделок.
А ситуация в украинском научном сообществе действительно катастрофическая. Кто-то может сказать, что это не так, перестаньте, все чудесно. И здесь каждый раз возникает вопрос: по каким критериям оценивать? Обратимся к официальному документу - отчету о деятельности НАН Украины за 2016 г. Такие отчеты издаются ежегодно, согласно последнему из них в НАНУ работало около 30 тыс. сотрудников, половина из которых - научные работники. За год они издали около 20 тыс. статей. Поскольку большинство их печаталось в журналах без импакт-фактора и в нерецензированных изданиях, то ценность публикаций установить невозможно. Но можно оценить производительность в создании научно-технологической продукции, чем славилась НАНУ в прошлом. Так вот, 30-тысячный коллектив, израсходовавший за год 2,759 млрд грн, смог заключить только три лицензионных соглашения с Беларусью и четыре - с другими странами на передачу объектов интеллектуальной собственности. Вдумайтесь в эти ужасные цифры.
К сожалению, упадок затронул и Институт биохимии им. Палладина НАНУ. Прошло ровно 50 лет с того времени, как я пришел сюда работать. К тому времени в лаборатории, где я начинал свой научный путь, был создан препарат - кровезаменитель на базе новейших в то время достижений науки. Многим тысячам людей он спас жизнь. И если бы кто-то мне тогда сказал, что через 50 лет мы предложим нашей медицине взять банку с глицином, высыпать его, наштамповать из него таблеток и продавать больным, я бы перекрестился. Но это реалии. Для справки: если дома сварить холодец, то 30% его белкового содержимого будет составлять именно глицин. Его достаточно во всех продуктах белковой природы. Биохимия - наука с неограниченными возможностями, и мне очень жаль коллег, занимающихся такими примитивными вещами.
Теперь о наукометрических индексах. Web of Science, Scopus и позднее Google Академия возникли как системы поиска в массиве научных публикаций. Один из важных инструментов такого поиска - цитирование, и со временем ученые увидели, что базы цитируемых работ отдельных авторов, их организаций, даже стран или работ, напечатанных в определенных журналах, могут быть созданы автоматически и очень просто. Автоматически и беспристрастно отслеживая каждую публикацию, можно оценить ее пользу для научного прогресса, а оценка использования работ отдельного автора или учреждения может указать на целесообразность их существования в научной сфере. Информативным показателем, конечно, является общее количество цитирований за определенный период времени, а еще лучше - это количество с изъятием самоцитирований (т. е. тех, в которых ученый цитирует свои работы). Полезным является также і10-индекс - число статей, цитируемых более 10 раз. Среди статей, имеющих менее 10 цитирований, могут быть статьи, авторы которых цитируют сами себя или их цитируют другие авторы случайно, или друзья этих авторов по их просьбе. Поэтому есть определенная вероятность того, что эти результаты никому не понадобятся. А вот h-индекс (индекс Хирша) - это показатель, определяющий количество публикаций, имеющих как минимум то же число цитирований, что и число напечатанных статей. Он позволяет откорректировать случаи, когда одна работа по цитированию затмевает остальные статьи автора. Рейтинг журналов определяется импакт-фактором (IF) - средним числом цитирования статей в этом журнале за два предыдущих года. Этот показатель также важен относительно публикаций отдельного ученого, поскольку лучшие журналы с высоким IF имеют больше возможностей для отбора лучших статей для публикации.
Господин Малицкий справедливо утверждает: "В показателях цитируемости, включая индекс Хирша, есть определенный смысл, когда эти оценки используются внутри научного сообщества". Но удивляет, продолжая такими словами: "К сожалению, число цитирований на самом деле не всегда отражает стопроцентное качество исследования". Хочется спросить господина профессора: а как он определяет качество исследования в процентах? Да еще и по всем отраслям знаний. Какие здесь методы предложит? И здесь мне приходится сделать определенные объяснения. Показатели цитируемости не связаны непосредственно с качеством исследования. Они указывают на другое - на уровень использования другими исследователями и научным сообществом в целом результатов конкретного исследования, выполненного конкретными авторами. Ведь ни одна научная работа не возникает из ничего, она использует достижения предшественников и будет или не будет использоваться последователями. Поэтому цитируемость - показатель вклада этих достижений в научный прогресс. Цитируемые статьи - это статьи, очень нужные для создания новых знаний. А нецитируемые - ненужные. Их можно было бы не выполнять, именно они составляют "научный мусор". Но наука - вещь непредсказуемая, и самому ученому трудно предвидеть судьбу своих работ. Даже у величайших ученых были отдельные работы, шедшие в мусор. Поэтому для оценки работы ученого используют показатели, интегральные по многим его публикациям и за определенный отрезок времени. Одним из них именно и является индекс Хирша. Если этот показатель, вычисленный за последние несколько лет, близок к нулю, то это прямо указывает на нецелесообразность финансирования исследований такого ученого за счет государства.
Профессор Малицкий обеспокоен тем, что наукометрические индексы могут искусственно накручиваться авторами работ. Действительно, можно самому процитировать другую свою работу, попросить товарища сделать то же. Но такие действия могут изменить эти индексы только у "нулей", немного подняв их до ненулевого уровня. А что касается ученых, собирающих десятки и сотни цитирований на статью, то это почти никак не повлияет на их индексы, да и потребности такой нет. А далее уважаемый коллега уже оперирует какими-то несистемными и нелогичными аргументами, которые должны были бы убедить читателя, какие плохие и вредные наукометрические индексы. В частности, он ссылается, не указывая источников, на ученых, которые "доказывают, что ажиотаж вокруг работ, имеющих высокий индекс цитирования, погоня за высокими индексами приводят к потере глубины исследований у британских ученых". А чем измерялась глубина исследований? Чтобы как-то по-научному такое звучало, надо было обязательно это уточнить. Видному украинскому науковеду должно быть известно, что предостережения относительно использования наукометрических индексов высказываются и анализируются в мировой литературе довольно давно и на более высоком доказательном уровне. Но эта система принята во всем мире, и отказываться от нее никто не намерен. Более того, ее принимают во внимание и новые страны, в том числе и Россия, которая все время была образцом для украинских научных бюрократов.
Пытаясь понять, что именно предлагает г-н Малицкий, игнорируя индексы цитирования, приходишь к выводу: единственным количественным показателем успешной деятельности ученого, по его мнению, будет оставаться только количество его публикаций. Конечно, в это число могут входить публикации в журналах мирового уровня, если они есть. Они будут рассматриваться с полным игнорированием их использования (цитируемости) в научном сообществе и на одном уровне с изданными в отечественных журналах, без учета их соответствия мировому уровню. Погоня за количеством публикаций порождает не только плагиат, но и самоплагиат, когда один и тот же результат повторяется в нескольких публикациях. Эта система сохранена в годовых отчетах, которые сейчас практикуются в институтах НАНУ, результат снова попадет в годовой отчет НАНУ, и именно такое положение вещей устраивает "нулей". Ведь кто тогда будет побеждать в конкурсах научных проектов? Достойные работы других разбавятся в "научном мусоре", массово продуцируемом "нулями". Они лучше используют админресурс, будут активнее в генерировании и сборе одобрительных отзывов. И тогда уже конкурсы научных проектов превратятся в фарс.
Г-н Малицкий справедливо обратил внимание на то, что и индексы цитирования, и рейтинги научных журналов очень зависят от сферы знаний. Но как ученый он должен был бы заинтересоваться причиной этого. А она очень простая. Если сфера знаний стремительно развивается и в нее вливаются новые ученые, то этих последователей (тех, кто цитирует) будет больше, чем предшественников (тех, кого цитируют), и индексы цитируемости предшественников будут высокими. Но если развития не происходит или оно происходит медленно, то тех, кто цитирует, будет не больше или даже меньше, чем тех, кого цитируют, и индексы цитируемости будут низкими. Следовательно, индексы цитируемости, усредненные по области знания, несут информацию о скорости научного прогресса в той или другой сфере. Конечно, на это накладываются традиции написания статей в каждой области, но ведь и их можно оценить.
Большая ценность наукометрических индексов заключается в том, что они позволяют провести сравнение и получить интересные результаты в тех случаях, когда другим способом сделать это невозможно. Например, сравнить достижения академика и аспиранта. Почему бы и нет? Такие сравнения желательно проводить для ученых, работающих в одной области и - желательно - в одном институте НАНУ. Например, академик Сергей Костерин, руководитель большого отдела, вместе со своими сотрудниками за четыре года (2013-2016) напечатал 56 статей (по Google), процитированных 47 раз, причем 36 статей не цитировались совсем. Это преимущественно работы в украинских журналах. А что касается наукометрических индексов, h = 4, а і10 = 0. За этот же период аспирантка Мария Декалюк, после аспирантуры еще год работавшая младшим научным сотрудником, напечатала вместе с руководителем и коллегами только семь статей, но они цитировались 252 раза. У нее
h = 7, а і10 = 6. Подсчитываем: по публикациям преимущество академика в восемь раз, но по цитируемости - более чем пятикратное преимущество аспирантки. По h-индексу значительное преимущество аспирантки, а вот і10-индексы сравнивать просто невозможно, поскольку при делении на нуль получаешь бесконечность. Но интереснее будет сравнить импакт-факторы, являющиеся суммарными показателями журналов, в которых печатались их статьи. У академика он довольно скромный, IF = 15,39. Это объясняется тем, что львиная доля его публикаций была в отечественных журналах и в низкоимпактных российских изданиях. Вместе с тем у аспирантки он просто блестящий: IF = 48,76 (и это только за семь статей!). Этому тоже есть объяснения. Журналы Nanoscale i NanoLetters, в которых печатались ее работы, принадлежат к изданиям самого высокого профессионального уровня в нанонауках, и благодаря авторитету указанных изданий ее результаты были мгновенно подхвачены и использованы другими исследователями.
В целом состояние отечественных научных журналов очень беспокоит, в этом я согласен с г-м Малицким. Большинство из них стали сборниками научного мусора, публикация в них не создает информационного потока, а служит только для упоминания в служебных отчетах и диссертациях. В таких "мусоросборниках" статьи могут и рецензироваться, но в таком случае не исключено образование относительно закрытого круга авторов и рецензентов, обслуживающих друг друга. Это не содействует привлечению лучших авторов. Как я и ожидал, переход на английский язык издания сам по себе не улучшает репутацию наших журналов, да и иностранных авторов не привлекает. Он имеет и негативный эффект, так как суживает сферу использования профессионального украинского языка, усложняет развитие терминологии, использование научных журналов в учебном процессе. Но, с другой стороны, открывает наши журналы для прямой конкуренции с иностранными изданиями. Такой конкуренции именно и боится г-н Малицкий, когда утверждает: "...Преимущественная концентрация усилий украинских ученых на публикации результатов в зарубежных изданиях негативно сказывается на качестве отечественных научных изданий. Поэтому сейчас нужна целенаправленная государственная поддержка наших научных изданий, чтобы можно было повысить их качество". Интересно, где возьмутся те движущие силы, которые будут побуждать украинских ученых печатать лучшие работы в "мусоросборниках"? И какая насущная необходимость поддерживать эти "мусоросборники" на государственном уровне? И поможет ли им государственная поддержка?
Давайте все же выясним, могут ли из наших "мусоросборников", при надлежащей информационной и финансовой поддержке, вырасти журналы мирового уровня с высокими показателями цитируемости. Во-первых, конечно, для этого нужен высокий уровень результатов, напечатанных в указанных журналах. Этого достичь нелегко, поскольку лучшие работы ученые всегда будут пытаться напечатать в лучших журналах. Это будет определять и признание ученого в международном сообществе, и шансы на совместные научные гранты. Но это еще не все. Решающим для цитируемости другими является фактор доверия к напечатанным результатам. Представим себе на минуточку, что по случайному стечению обстоятельств две независимые группы ученых получили один и тот же весомый результат и решили его напечатать в двух разных академических изданиях, созданных для первоочередного обнародования научных открытий. Один из них - это доклады Национальной академии наук США, известный под сокращенным названием PNAS, а второй - доклады НАН Украины. И вот представим, что работы одновременно вышли в печати. Какую из опубликованных статей вы выберете, чтобы процитировать, и почему? Не надо отвечать, поскольку ответ известен. Репутация журнала здесь очень много значит. Импакт-фактор (IF) - это прежде всего показатель доверия к научному изданию. В PNAS рукопись проходит предварительный редакционный отбор. Дальше ее читают и рецензируют лучшие в мире специалисты (параллельно 3-4 рецензии). На этих этапах отклоняется 85-90% рукописей. Окончательное же решение о публикации принимает американский академик, часто являющийся и нобелевским лауреатом. Он рукопись или редактирует, или отклоняет. Многие ученые считают свои исследования открытиями и мечтают их напечатать в PNAS, но только 10% или менее получат такую возможность. А в докладах НАН Украины достаточно завизировать рукопись одному из членов НАНУ - и работа в печати. Чувствуете разницу? Наивно думать, что таким нашим журналам поможет какое-то дополнительное финансирование. Но формально уравнять публикации в таких двух разных журналах можно, чем, собственно, и пользуются "нули".
Но среди отечественных журналов есть и очень приятные исключения. Несколько лет назад я напечатал статью в журнале "Експериментальна Онкологія", по предложению его редакции. Сознаюсь, при ее написании я не очень старался. Но, к моему удивлению, эту статью уже цитируют на уровне среднего числа цитирований журналов Nature и PNAS. Это свидетельствует о высокой репутации этого нашего журнала в кругу специалистов. Профессор Малицкий упоминает один из математических журналов с высоким рейтингом. Таких журналов может стать и больше. Но посмотрим правде в глаза: воскрешение многих наших научных изданий уже невозможно, и закапывать в них работы, являющиеся настоящими достижениями науки, очевидно, было бы преступлением.
Подумаем о будущем нашей науки. Мы не можем осуждать ученых, которые выезжали и выезжают работать за границу. Поскольку оставаться в стране, вынуждено деградировать под руководством "нулей", печататься в редактированных ими "мусоросборниках" - патриотично ли это?