UA / RU
Поддержать ZN.ua

Научный карго-культ: как стимулирование количества публикаций превращает украинскую науку в имитацию

Автор: Дмитрий Маслов

Украина стремительно наращивает количество научных публикаций. Если считать абсолютное количество статей в международных наукометрических базах, мы выглядим как страна с динамичной научной системой. Но стоит посмотреть глубже — и этот оптимизм рассыпается. Рост количества не означает роста качества. Систему можно заставить продуцировать тексты — но можно ли заставить ее заниматься наукой, а не ее имитацией?

Поводом для этого разговора стала публикация о научных журналах в базах Scopus и Web of Science. В ней рост количества журналов и публикаций подается как доказательство успеха науки, а попадание в престижные международные издания — как универсальный маркер качества. Отсюда вытекает простая формула: больше публикаций в «правильных» журналах означает лучшую науку.

Дополнительным аргументом служит то, что несколько украинских журналов вошли в верхние квартили (то есть оказались в «элитной лиге» научных изданий) сразу в обеих базах, причем значительная их часть связана с историческими науками. На основании этого делается вывод об отсутствии дискриминации гуманитарных наук и о том, что интерес к украинской истории, усиленный войной, открыл гуманитариям путь к международному признанию.

Из этой же логики вытекает практический вывод: журналы, которые не индексируются в международных базах, нужно постепенно выводить из оборота. После усиления таких требований в 2018 году количество украинских журналов и статей в международных базах действительно выросло. Но у этих «достижений» есть темная сторона.

Когда больше не значит лучше

В 2016–2018 годах публикации в журналах баз Scopus и Web of Science стали обязательным условием для получения ученых званий, а потом — и лицензии на образовательную деятельность. Результаты оказались ошеломляющими: по количеству публикаций на одного исследователя мы опережаем США, Японию, Германию и другие научно сильнейшие государства.

Источник: рассчитано на основе (Scimago Lab, 2025; Trading Economics, 2025; UNESCO, 2025
Фото предоставлено автором

Но для науки необходимы не только исследователи, а и ресурсы: деньги на лабораторное оборудование, полевые исследования, опросы, доступ к литературе и программному обеспечению. Поэтому более целесообразный показатель — количество публикаций на единицу инвестиций.

Источник: рассчитано на основе (Scimago Lab, 2025; Trading Economics, 2025; UNESCO, 2025
Фото предоставлено автором

На этом графике развитые страны оказались внизу, а Украина — рядом с Ираком, Пакистаном и Тунисом. Значит ли это, что наша наука в десятки раз эффективнее, чем в Японии или США? Если судить по наукометрии — безусловно. Но на самом деле много статей совсем не означает много науки.

Читайте также: Украинские ученые получили бесплатный доступ к ведущим научным ресурсам мира

Современная наука переживает глубокий кризис из-за одержимости количественными показателями. Фокус сместился с научных открытий на достижение самого большого количества публикаций, цитирований и самых высоких мест в рейтингах. Результат? Лавина «мусорных» публикаций, фальсификаций и имитации.

Когда рекорды становятся проблемой

Для сравнения: в 1950-х годах ученые публиковали вторую статью в среднем через 22 года после первой. В 2010-х — уже через три года. Производительность выросла больше чем в семь раз. Но стала ли наука лучше?

Проблемы начались с якобы благородной идеи: создать «объективную» систему оценивания. Вдобавок к субъективному процессу экспертного рецензирования ввели счетчики: количество статей, цитирований, индекс Хирша.

Но сработал закон Гудхарта: когда показатель становится целью, он перестает быть хорошим показателем. Некоторые представители академического сообщества начали использовать новые правила для искусственного повышения показателей: плагиат, разделение исследований на маленькие статьи, платные услуги «бумажных фабрик», «хищнических изданий» и «картелей цитирований». Вместе с тем люди, не желающие манипулировать показателями, оказывались внизу рейтингов и без финансирования. А самые умелые манипуляторы делали карьеру и продолжали лоббировать систему.

В 2024 году скандал всколыхнул философское сообщество: три «фейковых» журнала попали в десятку самых престижных изданий в рейтинге CiteScore. В математике университеты без математических кафедр оказались лидерами по количеству высокоцитированных работ, обогнав Принстон и Стэнфорд. Хищнических некачественных журналов не существовало до широкого применения наукометрии и распространения рейтингов изданий.

Производительность в написании статей не имеет границ — и этого не понимают защитники наукометрии. Сегодня уже есть авторы, публикующие сотни (!) научных статей в год, — и их становится все больше. В то же время, для сравнения, производительность бизнеса ограничена. Если фирма произведет слишком много, то не сможет все продать, и придется или снижать цену, или просто уничтожить часть продукции. Погоня же за наукометрическими показателями приведет к тому, что искусственный интеллект и фермы по майнингу научных публикаций обгонят любого честного научного работника. Это уже происходит, и Украина впереди в этих гонках.

Читайте также: Три года войны — а в международных научных базах до сих пор появляются "совместные публикации" украинцев и россиян

Одно из самых наглядных свидетельств кризиса в науке — постоянный рост в международных наукометрических базах доли отозванных статей. Речь идет о публикациях, которые после выхода изымают из научного оборота из-за серьезных нарушений: фальсификация данных, плагиат, манипуляции с рецензированием или методологические ошибки, делающие выводы недостоверными. Это значит, что современные методы борьбы с манипуляциями в публикациях неэффективны. Но как тогда можно доверять науке, если вероятность подтасовки увеличивается ежедневно?

Источник: рассчитано на основе (Scimago Lab, 2025; RetractionWatch, 2025
Фото предоставлено автором

Методологическая ошибка

Корень проблемы — в попытке посчитать то, что не подлежит подсчету. Научные открытия принципиально разные. Одна статья может изменить парадигму и повлиять на жизнь миллионов, другая же просто будет занимать место в журнале. Сравнивать статьи и подсчитывать их — то же самое, что сравнивать желтое, кислое и грустное.

Производительность можно измерять только для качественно однородных вещей. Научный продукт по определению уникален — это новое знание, отличное от предыдущего. Поэтому какие-либо попытки количественного оценивания науки методологически ошибочны.

Кто выигрывает от хаоса?

За кризисом стоят не только методологические ошибки, но и экономические интересы. Большая пятерка издателей — Elsevier, Wiley, Taylor & Francis, Springer Nature и SAGE — зарабатывает миллиарды на публикациях. Их норма прибыли достигает 40%, что характерно для монополий. Эта бизнес-модель паразитирует на науке: исследователи бесплатно пишут статьи, бесплатно их рецензируют, а потом их же университеты или сами ученые покупают доступ к результатам за сумасшедшие деньги. Чем больше статей, тем больше прибыли издателей. Доходы Elsevier выросли в пять раз с 1995 года — именно тогда начали массово внедрять наукометрические показатели. От этой системы выигрывают и те университеты и научные работники, которые уже наладили промышленный процесс манипуляций и имитаций.

Украинская специфика

В Украине ситуация особенно драматична из-за объединения жестких требований публиковаться в международных изданиях и мизерного финансирования науки.

Результат — массовая имитация. Исследователи вынуждены «штамповать» публикации, чтобы выполнить формальные требования, но реальных ресурсов для серьезных исследований почти нет. Поэтому Украина и лидирует по «производительности» — но это производительность бумаготворительности, а не наукотворчества.

Но для МОН, кажется, этих рекордов недостаточно. В 2024 года утвердили новую методику аттестации, которая тоже использует наукометрические показатели как основной метод оценивания. По итогам аттестации государство определяет научные учреждения, которые по формальным показателям признаны лучшими (категория «А»), и именно они получают дополнительное финансирование. Поэтому можем ожидать новых рекордов «производительности». Ирак, берегись.

Читайте также: Как не превратиться в научные задворки цивилизованного мира. Молодая история амбициозного Academ.City

Заместитель министра образования Денис Курбатов утверждает, что любая формула «точно лучше ручного режима». Но такая формула на самом деле направлена на уничтожение экспертизы, а не на ее развитие. Ведь это не имеет отношения к качеству науки.

Последняя инициатива МОН — «Национальная система исследователей» — предусматривает формирование рейтинга для всех научных работников на основе количества статей, патентов и других количественных показателей. Для 2650 первых мест предусмотрены стипендии 10 тыс. грн. Последствиями этой системы будут новые рекорды по количеству публикаций и еще более худшее положение для исследователей, которые хотят заниматься наукой, а не графоманией или подделкой документов о патентах.

Путь к спасению

Выходом может быть кардинальное изменение системы оценивания. Нужно отказаться от подсчета публикаций и вернуться к содержательной экспертизе коллег. Да, это субъективные оценки, но благодаря им наука развивалась на протяжении всей своей истории до 1990-х годов и внедрения наукометрии. Эта система не совершенная, субъективные оценки страдают от предубеждений, но это компенсируется механизмами слепого рецензирования, привлечением нескольких экспертов вместо одного и т.п. Вместе с тем система наукометрических оценок объективно ошибочна, она убивает науку.

Современные цифровые технологии могут сделать экспертное оценивание более прозрачным: создать открытые платформы, где видно, кто и как оценивает исследование, где репутация эксперта влияет на вес его мнения. И это не будет быстрым процессом. Простых решений уже нет.

Для быстрого реагирования можно ввести временное ограничение: не более трех публикации на миллион долларов финансирования, что ближе к показателям развитых стран. Это может сместить акцент с количества на качество. Лучше одна значимая публикация, чем сотни имитирующих науку.

Наука — это не игра в статистику, а сложный процесс поиска истины. Продолжая поддерживать нынешнюю систему «бумажных рекордов», мы рискуем окончательно заменить реальных ученых на эффективных менеджеров по цитированию и искусственному интеллекту. Пришло время признать: качество не рождается из принудительного количества. Или мы вернем в академическую среду живую экспертизу и культуру содержательного диалога, или наша наука так и останется ярким, но пустым фасадом в отчетах международных баз. Спасение академического сообщества предполагает сложный путь восстановления доверия к экспертному оцениванию.