Наукометрія в Методиці оцінювання ефективності діяльності наукових установ України

Затверджено нову Методику оцінювання ефективності наукової, науково-технічної та інноваційної діяльності наукової установи, яка застосовується під час проведення її державної атестації. Методика доволі велика, заплутана і містить багато додатків, однак сказано, що оцінювання має здійснюватися на засадах «поєднання кількісного та якісного оцінювання статистичних, наукометричних даних», тому не можу просто так злегковажити і не поглянути на наукометричні моменти, що згадані у цій Методиці. 

Найбільше наукометричного знайшлося у Додатку 2 «Класифікаційна оцінка наукової установи за її науковим потенціалом і досягненнями за попередні роки». Показник, який чомусь обізвали «Престиж» враховує:
  • Кількість публікацій у закордонних наукових журналах, що індексуються у наукометричних базах Web of Science Core Collection і Scopus, за останні 3 роки, у розрахунку на одного наукового працівника; 
  • Кількість наукових видань (журналів), засновником (співзасновником) яких є наукова установа, за науковим напрямом, що індексуються у наукометричних базах Web of Science Core Collection, Scopus, ERIH PLUS, PubMed, MathSciNet, Chemical Abstracts, GeoRef; 
  • Кількість наукових працівників (за основним місцем роботи), які є членами редакційних колегій наукових видань (журналів), які індексуються у наукометричних базах даних Web of Science Core Collection та/або Scopus та не видаються цією науковою установою. 
Чому публікація в українському журналі, що індексується в Scopus, на думку авторів Методики, не така престижна як публікація в російському, чи румунському? Які такі іміджеві переваги отримає установа якщо її журнали включені в ERIH PLUS? Чим завинили реферативні бази інших дисциплін, що не потрапили у перелік? 

Також, Додаток 3 «Показники діяльності наукової установи» та Додаток 7 «Відомості щодо публікаційної активності» містять рядки – Кількість публікацій у наукових журналах, що індексуються в Web of Science Core Collection і Scopus. Щоправда, тут ви знайдете й вимогу вказати кількість статей у наукових виданнях, включених до Переліку наукових фахових видань України, а також «улюблені» статті у наукових періодичних виданнях, які включені до інших наукометричних баз даних. 

Знову велике питання – хто і як перевірятиме усі ці дані? Я тільки згадав про наукометричні дані, а методика вимагає вказати кількість аспірантів, кількість компонувань інтегральних мікросхем, кількість зареєстрованих ОПІВ за кордоном, загальну площу приміщень… 


У тексті документу сказано, що МОН реєструє подані установами заявки та матеріали і передає їх експертним групам, які й повинні перевірити достовірність наведеної у таких матеріалах інформації. Потім експертна група подає експертний висновок експертній комісії, а вже експертна комісія подає висновок на затвердження МОН. 

Уявіть, що за монстри входитимуть у склад цих груп, якщо вони справді сподіваються сумлінно перевіряти усі ці дані від усіх наукових установ України отримані у паперовій формі? 

За результатами оцінювання установи розділять на 4 класифікаційні групи. Нагорі опиняться наукові установи-лідери, що демонструють високий науковий потенціал, а внизу наукові установи-оксюморони, для яких наука не є основним видом діяльності. 

Переліку обіцяних 7 наукових напрямків я так щось у Методиці і не побачив, але це знову додаткове навантаження на членів експертної групи, адже перевірити усю цю інформацію з прив’язкою до конкретних галузей буде ще важче. 

Методика не просто з'явилася з-під пера МОН – її погоджено з НАН, НАМН, Науковим комітетом… і схоже, що всіх наших керівників від науки задовольняє така гора даних для оцінювання ефективності діяльності установ. 

Хочу дочекатись перших результатів оцінювань, щоб спробувати дізнатись – чи можна отримати такі ж 4 групи, але без необхідності врахування чисельності жінок віднесеної до загальної чисельності наукових працівників та нових або істотно вдосконалених послуг?

6 коментарів:

  1. Немає сил і часу знову аналізувати і писати про цю "новацію". Чому? Ну чому не зробити усю цю муть заповненям форми у онлайні? Зробити максимально уніфіковано і без можливості різного трактування.

    ВідповістиВидалити
    Відповіді
    1. Мабуть, коли пишуть такі тексти, то не думають як потім всі ці дані зібрати, перевірити, порівняти... А потім підозрюю ми отримаємо - як змогли так і подали й перевірили(

      Видалити
  2. Анонім20.08.19, 01:48

    "Web of Science Core Collection і Scopus" внесли до групи "Престиж"??? А чому не виділили хоча б квартиль журналів у Скопусі, або імпакт у ВОС? Що престиж це публікація не у конкретному науковому журналі з добрими показниками, а просто у чому завгодно з цих двох баз? Кумедні якісь ті хлопці та дівчата з МОНу. Тупо написано. Але під одну гребінку написали про "закордонних наукових журналах, що індексуються у наукометричних базах Web of Science Core Collection і Scopus". Логіка у народа з МОН зрозуміла (хочуть, щоб ці статті читала відповідно дуже широка аудиторія зарубіжних журналів (це якщо, журнал добрий та має таку зарубіжну аудиторію), але можна було б це виписати більш правильно, з привязкою наприклад до 1 або 2 квартилю, та відповідного імпакту журнала у ВОС. Тому, за зміст постанови - трійка, а за форму - два бали.

    ВідповістиВидалити
    Відповіді
    1. Припустімо, що просто "Престиж" - невдала назва для показника. Але що саме хотіли врахувати, на що вплинути... - залишається загадкою?

      Видалити
  3. Анонім20.08.19, 13:06

    Хотіли, щоб наші вчені-автори світилися виключно у зарубіжних виданнях. Це як частина державної пропаганди національної науки на міжнародному рівні. Ідея правильна, але реалізація як у радянському обкомі.

    ВідповістиВидалити
    Відповіді
    1. Ой так, можливо, і хотіли, але знову поранили "непрестижну" вітчизняну періодику. Як варіант, могли б запровадити показник "Міжнародна співпраця" і міряти кілометри між співавторами, щось подібне як в Лейденському рейтингу... натомість рубанули тупо - у закордонних журналах((

      Видалити