Чи знаєте ви, чому загинула Римська імперія? Історики мають на це різні відповіді, часом забуваючи одну з головних: у Римській імперії не розвивалася наука, бо не було її кількісного виміру.
Це тому, що серед римських цифр не було нуля, тобто початкової точки відліку всіх кількісних вимірів та оцінок. На відміну від Стародавнього Риму, українська наука багата "нулями" - вченими, чий внесок у світову науку близький до нуля. Від цього нульового рівня й має починатися відлік успіхів і невдач української науки. Такі "нулі" є в усіх наукових дисциплінах, їх чимало серед академіків НАНУ, керівників наукових інститутів та кафедр вишів.
У принципі, кар'єра вченого має визначатися об'єктивними чинниками, такими як його творчі досягнення та їх оцінка з боку колег, і всі формальні процедури - конкурси, атестації, захист дисертацій - спрямовані на відбір кращих. То звідки ж тоді на чільних посадах у наукових колективах з'явилися нулі? В часи СРСР до цього спонукали ненаукова активність, така як керівництво компартійними, комсомольськими і навіть профспілковими організаціями наукових установ, "батьківські ліфти" (так звані наукові династії). При постарінні наукових колективів до них приєдналися вчені, котрі за віком або з інших причин відійшли від активної наукової роботи, і їм залишалося лише керувати. До останнього часу цих колег ніщо не турбувало. Відомчий розподіл коштів, навіть в умовах скорочень фінансування науки, гарантував їм безтурботне життя. Відомчі перевірки діяльності установ нічим не загрожували, бо відбувалися за відомим принципом: " Ти мене шануєш? Ну і я тебе шаную. А отже, ми обоє шановані люди". І ось буквально останнім часом ми спостерігаємо досить незвичну активність "нулів". Одним із її проявів я вважаю появу в DT.UA інтерв'ю з професором Малицьким під промовистим заголовком "Проблема об'єктивного оцінювання якості роботи дослідника виходить далеко за межі спрощених наукометричних індексів".
Заперечуючи наукометрію, можна довго дискутувати, хто є більший, а хто менший "нуль", а хто з цих "нулів" є "видатним діячем науки". Можна видавати статті й монографії, наукові журнали, в яких наукознавство без кількісних критеріїв та оцінок є розмовою ні про що, - тобто створювати те, що якимось дивом ще називається наукою. Адже шанований професор обіймає посаду директора Інституту досліджень науково-технічного потенціалу та історії науки ім. Г. Доброва НАН України, а посада зобов'язує. Бо навряд чи хтось із активно працюючих вчених погодиться з його тезою: "З допомогою таких наукометричних показників, як публікаційна активність у закордонних журналах з імпакт-фактором та індекс Гірша, вітчизняна бюрократія щосили намагається впровадити цю ж систему оцінювання в українській науці". Радше, навпаки, - її впровадження відчайдушно саботується, що й демонструє це інтерв'ю. А стосовно питання, чому такий виступ з'явився зараз, - це цікавіше.
Річ у тому, що нарешті почав діяти прийнятий майже два роки тому закон "Про науку і науково-технічну діяльність". У ньому багато вад, проте він передбачає створення Національного наукового комітету, 24 члени якого повинні бути науковими лідерами, мати визначні наукові здобутки, бездоганну наукову репутацію та довіру в науковому середовищі. Цей комітет почав працювати, і вчені дуже сподіваються, що він нарешті змінить нинішню дуже непродуктивну систему організації науки. Ця система, в якій кошти на науку розподіляються між міністерствами та відомствами (одним із яких є НАНУ), далі - між їх підрозділами, а вже потім доходять до науковців, - саме й поглиблює катастрофу, підтримуючи існування "нулів". Її замінить пряме фінансування вчених та їх творчих колективів через наукові фонди. І тут кожен науковець, що звертатиметься по фінансування до цих фондів, муситиме довести, що його проект має шанс на успіх. А для цього йому доведеться відповідати на запитання, яке його місце у світовій науці та наскільки вагомими були його попередні досягнення. І лише так можуть відтинатися "нулі". Для цього й потрібні показники наукометрії. Хай не зовсім досконалі, але вони - об'єктивні й вільні від підробок.
А ситуація в українській науковій спільноті справді катастрофічна. Хтось може сказати, що це не так, перестаньте, все чудово. І тут щоразу постає запитання: за якими критеріями оцінювати? Звернімося до офіційного документа - звіту про діяльність НАН України за 2016 р.. Такі звіти видаються щороку, згідно з останнім із них у НАНУ працювало близько 30 тис. співробітників, половина яких - наукові працівники. За рік вони видали близько 20 тис. статей. Оскільки більшість їх друкувалася в журналах без імпакт-фактора і в нерецензованих виданнях, то цінність публікацій встановити неможливо. Але можна оцінити продуктивність у створенні науково-технологічної продукції, чим славилася НАНУ в минулому. Отож, 30-тисячний колектив, який витратив за рік 2, 759 млрд грн, спромігся укласти лише 3 ліцензійні угоди з Білоруссю та 4 - з іншими країнами на передачу об'єктів інтелектуальної власності. Вдумайтесь у ці жахливі цифри.
На жаль, занепад торкнувся й Інституту біохімії ім. Палладіна НАНУ. Минуло рівно 50 років відтоді, як я прийшов сюди працювати. На той час у лабораторії, в якій я починав свій науковий шлях, було створено препарат кровозамінник на базі найновіших досягнень тогочасної науки. Багатьом тисячам людей він урятував життя. І якби хтось мені тоді сказав, що через 50 років ми запропонуємо нашій медицині взяти банку з гліцином, висипати його, наштампувати з нього таблеток і продавати хворим, я б перехрестився. Але це реалії. Для довідки: якщо вдома зварити холодець, то 30% його білкового вмісту становитиме саме гліцин. Його є вдосталь в усіх продуктах білкової природи. Біохімія - наука з необмеженими можливостями, і мені дуже жаль колег, які займаються такими примітивними речами.
Тепер про наукометричні індекси. Web of Science, Scopus і пізніше Google Академія виникли як системи пошуку в масиві наукових публікацій. Один із важливих інструментів такого пошуку - цитування, і згодом вчені побачили, що бази цитувань праць окремих авторів, їх організацій, навіть країн або праць, надрукованих у певних журналах, можуть бути створені автоматично, і дуже просто. Автоматично й неупереджено відстежуючи кожну публікацію, можна оцінити її користь для наукового прогресу, а оцінка використання праць окремого автора чи інституції може вказати на доцільність їх існування в науковій сфері. Інформативним показником, звісно, є загальна кількість цитувань за певний період часу, а ще краще - це кількість із вилученням самоцитувань (тобто тих, у яких вчений цитує свої роботи). Корисними є ще і10-індекс - число статей, цитованих більше 10 разів. Серед статей, що мають менше 10 цитувань, можуть бути статті, автори яких цитують самі себе або їх цитують інші автори випадково чи друзі цих авторів на їхнє прохання. Тому є певна ймовірність того, що ці результати нікому не знадобляться. А ось h-індекс (індекс Гірша) - це показник, що визначає число публікацій, котрі мають, як мінімум, те ж саме число цитувань, що й число надрукованих статей. Він дозволяє відкоригувати випадки, коли одна робота за цитуванням затьмарює решту статей автора. Рейтинг журналів визначається імпакт-фактором (IF) - середнім числом цитування статей у цьому журналі за два попередніх роки. Цей показник також важливий щодо публікацій окремого вченого, оскільки кращі журнали з високим IF мають більше можливостей для відбору кращих статей для публікації.
Пан Малицький слушно стверджує: "У показниках цитованості, включно з індексом Гірша, є певний сенс, коли ці оцінки використовуються всередині наукової спільноти". Проте дивує, продовжуючи такими словами: "На жаль, кількість цитувань насправді не завжди відображає стовідсоткову якість дослідження". Хочеться спитати пана професора, а як він визначає якість дослідження у відсотках. Та ще й по всіх галузях знань. Які тут методи запропонує? І тут мені доводиться зробити певні пояснення. Показники цитованості не пов'язані безпосередньо з якістю дослідження. Вони вказують на інше - на рівень використання іншими дослідниками та науковою спільнотою в цілому результатів конкретного дослідження, виконаного конкретними авторами. Адже жодна наукова робота не виникає з нічого, вона використовує досягнення попередників і буде чи не буде використовуватися послідовниками. Отож цитованість - показник внеску цих досягнень у науковий поступ. Цитовані статті - це статті, які дуже потрібні для створення нових знань. А нецитовані - які непотрібні. Їх можна було б не виконувати, саме вони становлять "наукове сміття". Проте наука - річ непередбачувана, і самому вченому важко передбачити долю своїх робіт. Навіть у найвидатніших вчених були окремі праці, що йшли у сміття. Тому для оцінки роботи вченого використовують показники, інтегральні за багатьма його публікаціям і за певний відтинок часу. Одним із них саме і є індекс Гірша. Якщо цей показник, вирахуваний за останні декілька років, близький до нуля, то це прямо вказує на недоцільність фінансування досліджень такого вченого за рахунок держави.
Професор Малицький занепокоєний тим, що наукометричні індекси можуть штучно накручуватись авторами робіт. Справді, можна самому процитувати іншу свою роботу, попросити товариша зробити те ж саме. Але такі дії можуть змінити ці індекси лише в "нулів", трохи піднявши їх до не-нульового рівня. А що стосується вчених, які збирають десятки й сотні цитувань на статтю, то це майже ніяк не вплине на їхні індекси, та й потреби такої нема. А далі шановний колега вже оперує якимись несистемними і нелогічними аргументами, що мали б переконати читача, які погані й шкідливі наукометричні індекси. Зокрема, він посилається, не вказуючи джерел, на вчених, котрі "доводять, що ажіотаж навколо праць, які мають високий індекс цитування, гонитва за високими індексами призводять до втрати глибини досліджень у британських учених". А чим вимірювалася глибина досліджень? Щоб якось по-науковому таке звучало, годилося б обов'язково це уточнити. Чільному українському наукознавцеві мало би бути відомо, що застереження стосовно використання наукометричних індексів висловлюються й аналізуються у світовій літературі досить давно і на більш високому доказовому рівні. Проте ця система прийнята в усьому світі, і відмовлятися від неї ніхто не має наміру. Більше того, її беруть до уваги і нові країни, в тому числі й Росія, що весь час була взірцем для українських наукових бюрократів.
Намагаючись зрозуміти, що саме пропонує пан Малицький, ігноруючи індекси цитування, доходиш висновку: єдиним кількісним показником успішної діяльності вченого, на його думку, залишатиметься лише кількість його публікацій. Звісно, до цього числа можуть входити публікації в журналах світового рівня, якщо вони є. Вони розглядатимуться з повним ігноруванням їх використання (цитування) в науковій спільноті й на одному рівні з тими, котрі вийдуть у вітчизняних журналах, без урахування їх відповідності світовому рівню. Гонитва за кількістю публікацій породжує не лише плагіат, а й само-плагіат, коли один і той же результат повторюється в кількох публікаціях. Ця система збережена в річних звітах, що зараз практикуються в інститутах НАНУ, результат знову потрапить у річний звіт НАНУ, і саме такий стан речей влаштовує "нулів". Бо хто тоді перемагатиме в конкурсах наукових проектів? Достойні роботи інших розбавляться у "науковому смітті", що масово продукується "нулями". Вони краще використають адмінресурс, будуть активнішими в генеруванні та зборі схвальних відгуків. І тоді вже конкурси наукових проектів перетворяться на фарс.
Пан Малицький слушно звернув увагу на те, що й індекси цитування, і рейтинги наукових журналів дуже залежать від галузі знань. Проте як учений він мав би зацікавитись, яка ж причина цього. А вона дуже проста. Якщо галузь знань стрімко розвивається і в неї вливаються нові вчені, то цих послідовників (тих, хто цитує) буде більше, ніж попередників (тих, кого цитують), і індекси цитування попередників будуть високими. Але якщо розвитку не відбувається або він відбувається повільно, то тих, хто цитує, буде не більше або навіть менше, ніж тих, кого цитують, і індекси цитування будуть низькими. Тож індекси цитування, усереднені за галуззю знань, несуть інформацію про швидкість наукового прогресу в тій чи іншій галузі. Звісно, на це накладаються традиції написання статей у кожній галузі, але ж і їх можна оцінити.
Велика цінність наукометричних індексів полягає в тому, що вони дозволяють провести порівняння й отримати цікаві результати в тих випадках, коли іншим способом зробити це неможливо. Наприклад, порівняти досягнення академіка й аспіранта. Чом би й ні? Такі порівняння бажано проводити для вчених, які працюють в одній галузі і - бажано - в одному інституті НАНУ. Скажімо, академік Сергій Костерин, керівник великого відділу, разом зі своїми співробітниками за 4 роки (2013-2016) надрукував 56 статей (за Google), що цитувалися 47 разів, причому 36 статей не цитувалися зовсім. Це переважно роботи в українських журналах. А що стосується наукометричних індексів, h = 4, а і10 = 0. За цей самий період аспірантка Марія Декалюк, яка після аспірантури ще рік працювала молодшим науковим співробітником, надрукувала разом із керівником та колегами лише 7 статей, але вони цитувалися 252 рази. У неї h = 7, а і10 = 6. Підраховуємо: за публікаціями перевага академіка у 8 разів, але за цитуванням - більш ніж п'ятикратна перевага аспірантки. За h-індексом значна перевага аспірантки, а ось і10-індекси порівнювати просто неможливо, бо при діленні на нуль отримуєш нескінченність. Але найцікавіше буде порівняти імпакт-фактори, що є сумарними показниками журналів, у яких друкувалися їхні статті. В академіка він досить скромний, IF = 15,39. Це пояснюється тим, що левова частка його публікацій була у вітчизняних журналах та в низько-імпактних російських виданнях. Натомість в аспірантки він просто блискучий, IF = 48,76 (і це лише за 7 статей!). Цьому теж є пояснення. Журнали Nanoscale i NanoLetters, в яких друкувалися її праці, належать до видань найвищого фахового рівня в нанонауках, і завдяки авторитету зазначених видань її результати були миттєво підхоплені й використані іншими дослідниками.
На загал, стан вітчизняних наукових журналів дуже непокоїть, у цьому я згоден із паном Малицьким. Більшість їх стали збірниками наукового сміття, публікація в них не створює інформаційного потоку, а служить лише для згадування у службових звітах та дисертаціях. У таких "сміттєзбірниках" статті можуть і рецензуватися, проте в такому разі не виключене утворення відносно замкненого кола авторів та рецензентів, що обслуговуватимуть одне одного. Це не сприяє залученню найкращих авторів. Як я й очікував, перехід на англійську мову видання сам собою не поліпшує репутацію наших журналів, та й іноземних авторів не приваблює. Він має й негативний ефект, бо звужує сферу використання професійної української мови, ускладнює розвиток термінології, використання наукових журналів у навчальному процесі. Але, з іншого боку, відкриває наші журнали для прямої конкуренції з іноземними виданнями. Такої конкуренції саме й боїться пан Малицький, коли стверджує: " … переважна концентрація зусиль українських учених на публікації результатів у закордонних виданнях негативно позначається на якості вітчизняних наукових видань. Тому зараз потрібна цілеспрямована державна підтримка наших наукових видань, щоб можна було підвищити їх якість". Цікаво, де візьмуться ті рушійні сили, які спонукатимуть українських вчених друкувати найкращі роботи у "сміттєзбірниках"? І яка нагальна потреба підтримувати ці "сміттєзбірники" на державному рівні? І чи допоможе їм державна підтримка?
Давайте все ж таки з'ясуємо, чи можуть із наших "сміттєзбірників" за належної інформаційної та фінансової підтримки вирости журнали світового рівня з високими показниками цитування. По-перше, звісно, для цього потрібен високий рівень результатів, друкованих у зазначених журналах. Цього досягти нелегко, бо кращі роботи вчені завжди намагатимуться надрукувати у кращих журналах. Це визначатиме і визнання вченого в міжнародній спільноті, і шанси на спільні наукові гранти. Але це ще не все. Вирішальним для цитування іншими є фактор довіри до видрукуваних результатів. Уявімо собі на хвилиночку, що, за випадковим збігом обставин, дві незалежні групи вчених отримали один і той самий вагомий результат і вирішили його надрукувати у двох різних академічних виданнях, створених для першочергового оприлюднення наукових відкриттів. Одне з них - це Доповіді Національної Академії Наук США, відоме під скороченою назвою PNAS, а друге - Доповіді НАН України. І ось уявімо, що праці одночасно вийшли з друку. Яку з опублікованих статей ви оберете, щоб процитувати, і чому? Не треба відповідати, бо відповідь відома. Репутація журналу тут дуже багато важить. Імпакт фактор (IF) - це передусім показник довіри до наукового видання. У PNAS рукопис проходить попередній редакційний відбір. Далі його читають і рецензують найкращі у світі спеціалісти (паралельно 3-4 рецензії). На цих етапах відхиляється 85-90% рукописів. Остаточне ж рішення про публікацію приймає американський академік, що часто є й нобелівським лауреатом. Він рукопис або редагує або відхиляє. Багато вчених вважають свої дослідження відкриттями і мріють їх надрукувати у PNAS, проте лише 10% або й менше отримають таку можливість. А в Доповідях досить завізувати рукопис одному з членів НАНУ - і робота в друці. Відчуваєте різницю? Наївно думати, що таким нашим журналам допоможе якесь додаткове фінансування. Але формально урівняти публікації в таких двох різних журналах можна, чим, власне, й користуються "нулі".
Проте серед вітчизняних журналів є і дуже приємні винятки. Кілька років тому я надрукував статтю в журналі "Експериментальна Онкологія", на пропозицію його редакції. Зізнаюсь, пишучи її, я не дуже старався. Проте, на мій подив, цю статтю вже цитують на рівні середнього числа цитувань журналів Nature і PNAS. Це свідчить про високу репутацію цього нашого журналу в колі спеціалістів. Професор Малицький згадує один із математичних журналів із високим рейтингом. Таких журналів може стати й більше. Проте погляньмо правді у вічі: воскресіння багатьох наших наукових видань уже неможливе, і закопувати в них роботи, які є справжніми досягненнями науки, мабуть, було б злочином.
Подумаймо про майбутнє нашої науки. Ми не можемо засуджувати вчених, котрі виїжджали й виїжджають працювати за кордон. Бо залишатися у країні, вимушено деградувати під керівництвом "нулів", друкуватися в редагованих ними "сміттєзбірниках" - чи це є патріотизм?