У статті анонімних авторів «Академічний КВК: команда професорів проти команди академіків» порушена важлива проблема об’єктивної оцінки результатів наукової діяльності вчених, яка справді дуже актуальна для української науки. Автори намагаються заповнити цю прогалину, порівнюючи наукові досягнення двох вибраних груп учених (по 5), названих ними «команда академіків» і «команда професорів». Потім на основі результатів цього порівняння автори доходять висновку, що професори мають вищий рейтинг, ніж академіки, тож останні одержують винагороду за свою працю незаслужено. Цей висновок еквівалентний запитанню: «Кого ж вибирають у НАН України, якщо є більш гідні претенденти?». Оскільки з «команди академіків» тільки мене обрано в академію недавно (у травні 2003 р.), то, природно, мені на нього й відповідати.
Перш ніж перейти до основної теми, коротко прокоментую деякі положення статті. Автори пишуть із приводу доплат за академічні звання: «У Європі нічого схожого немає. І в Росії вже немає. Чому б керівництву НАН України не взяти приклад з академіків РАН?..» Насправді в Росії доплати за академічні звання вищі, ніж в Україні (приблизно 500 і 800 доларів США для членкорів й академіків, відповідно). Крім того, дивує іронія авторів статті в зв’язку з позитивними зрушеннями в НАН України, а також із приводу дій президента НАН України й вищих посадових осіб держави, котрі домоглися цих знакових покращань.
Сучасна наука вимагає дедалі більших видатків, тож суспільству не може бути байдуже, хто та як займається наукою. Існують методики експертної оцінки, і до них завжди вдаються у відповідальних випадках, таких як конкурси на обіймання наукових вакансій і посад, на керівництво великими науковими проектами тощо. На жаль, експертна оцінка — справа дуже дорога, копітка й часто зазнає впливу суб’єктивних чинників. Тож світове наукове співтовариство знайшло простіші, у певному сенсі «механічні» критерії та методи оцінки рейтингу наукових працівників. Вони успішно використовуються на Заході. До них належать: кількість друкованих робіт ученого за певний період; рейтинги (так звані імпакт-чинники) часописів, де його статті опубліковано; індекс цитування, тобто кількість посилань у статтях інших учених на праці даного автора.
Названі критерії також не без недоліків, таких як проблема співавторства, залежність від наукової «моди» на ті чи інші дослідження й від PR-активності вченого. Але їхня головна перевага полягає в тому, що вони об’єктивні. Підтвердженням успішності застосування цих методів може бути робота Інституту наукової інформації США (ISI), на діяльність якого американці — люди досить прагматичні — витрачають чималі гроші. В ISI сформовано найповнішу в світі базу даних за всіма галузями знань, і він випускає кілька часописів, частину з яких присвячено проблемі цитування. Приміром, часопис «Науковий індекс цитування» (Scientific Citation Index) був донедавна доступний і в Україні. Проте з 2000 року Національна бібліотека України ім. В.Вернадського його не одержує через брак фінансування. На жаль, інформація ISI платна (так, збір й узагальнення даних про цитування праць конкретного вченого коштує близько 2000 доларів США).
Тепер розберемося з критеріями. З кількістю статей нібито все ясно: хто більше публікується, той і працює краще. Але як бути з оцінкою якості публікацій? Вихід знайшли в тому, щоб оцінювати якість статті за рейтингом часопису, де її опубліковано. Імпакт-чинники наукових часописів регулярно публікуються в часописі Scientific Citation Index. Усі часописи дорожать своїми рейтингами й опікуються їхнім зростанням, зокрема й шляхом підвищення вимог до якості статей. Тож правило — що вищий імпакт-чинник часопису, то вищий рівень статті — переважно виконується.
Залишається з’ясувати роль індексу цитування. Якщо на статтю посилаються, отже, хтось з інших учених використовував її в своїй роботі. Таким чином, що більше таких посилань, то вагоміший вплив статті на світовий науковий процес.
Давайте розберемося, яким же чином автори статті в «ДТ» порівнюють рейтинги вчених. Вони з цього приводу пишуть: «...ми зупинилися на базі Національного ядерного центру даних (НЯЦД) у Брукхевені, США, ... було розпочато додатковий пошук у деяких часописах... за останні вісім років, а також використані пошукові системи в Інтернеті. Ці результати додано до результатів із бази НЯЦД й каталогів ЦНБ. Результати аналізу в балах наводимо в таблиці 1».
Отакий метод. А далі йде таблиця 1 із загадковими балами. Думаю, в уважного читача виникає багато запитань до авторів стосовно їхньої «технології». Приміром, які результати пошуку окремо в базі НЯЦД, в додаткових часописах і каталогах ЦНБ, а також отримані за допомогою пошукових систем в Інтернеті? І яким же чином обчислювалися бали, внесені в таблицю 1? Ясно, що без відповідей на ці запитання і без оприлюднення відповідних даних цінність результатів, наведених авторами в таблиці 1, дуже низька. Для обгрунтування цього твердження я збираюся провести дослідження рейтингів тих самих учених, але зробити це так, щоб будь-яка людина, котра має доступ до Інтернету, могла перевірити одержані результати.
Ясна річ, було б непогано скористатися базою ISI, та позаяк вона платна, від неї доведеться відмовитися. На щастя, у тій галузі науки, яка нас цікавить (фізика атомного ядра й елементарних частинок), існують дві загальнодоступні бази даних, які досить повно відбивають публікації в цій галузі. Перша — це вже згадувана база в Брукхевені — NSR (//www2.nndc.bnl.gov/nsr/). Вона містить публікації в ядерній фізиці з 1910 р. Друга — база даних прискорювального центру в Стенфорді (США) — SPIRES (//www. slac. stanford. edu/spires/hep/), де можна знайти дані про публікації в галузі фізики високих енергій із 1974 р.
Отже, у базах NSR і SPIRES зроблено пошук публікацій кожного з учених за 1996—2003 рр. (8-річний інтервал заданий авторами статті), і його результати представлено в таблиці.
З таблиці видно, що кількість моїх публікацій становить 48 (у базі SPIRES) і 41 (NSR), тоді як кількість статей «професорів» у сумі дорівнює 24 й 70. Аби врахувати якість публікацій, обчислено добуток кількості статей кожного вченого у певному часописі на його імпакт-чинник (за 2002 р.), потім ці твори підсумовувалися. Одержані результати такі: Здесенко — 105, 5 і 95,4, «професори» в сумі — 43,3 й 93,0. Таким чином, результати пошуку в базах даних NSR і SPIRES істотно відрізняються від наведених авторами статті в «ДТ», й аж ніяк не на користь «команди професорів».
Слід особливо наголосити, що дані нашого пошуку може перевірити кожен охочий. Для цього на сайті бази даних необхідно набрати прізвище вченого й указати період пошуку. Питання про те, чи не було пропущено якісь публікації, також можна перевірити.
Для повноти картини залишилося сказати кілька слів про індекс цитування, що є показником корисності опублікованих статей. На жаль, я можу навести лише власні дані, оскільки вивчення цитування «команди професорів» потребує значного витрачання часу й коштів. У принципі, вони самі можуть надати дані про цитування, оскільки кожен учений, вивчаючи з професійної необхідності наукову літературу в своїй галузі, як правило, фіксує всі посилання на свої статті. А стосовно моїх показників, то за 1996—2003 рр. кількість посилань на мої наукові праці становить 729 (самоцитування, ясна річ, виключено), тобто понад 90 посилань за рік, що в кілька разів перевищує середньосвітовий рівень цитування на одного автора чи авторський колектив. Повний список моїх наукових праць (за роками) й перелік усіх статей інших авторів (із бібліографічними даними), у яких вони цитуються, можна знайти на сайті ІЯІ НАН України (//lpd.kinr.kiev.ua).
Таким чином, об’єктивна оцінка результатів наукової діяльності вчених має грунтуватися на критеріях, напрацьованих у світовій практиці, а саме: кількість публікацій, імпакт-чинники часописів, індекс цитування. Застосування такої методики, безсумнівно, сприятиме підвищенню рівня й міжнародного престижу української науки.