niedziela, 9 sierpnia 2015

Eksperymentalna uczelnia flagowa

W środowisku akademickim jest wiele pomysłów na to, jak poprawić jakość polskiego szkolnictwa wyższego i poziom nauki. Reformy w tej branży to na pewno setki problemów i pułapek: konserwatywna kadra profesorska, układy koleżeństwie i grupy wzajemnego wsparcia, zbędne etaty, tytułomania, brak motywacji do podnoszenia jakości pracy dydaktycznej, roszczenia płacowe, nieprzejrzystość postępowań awansowych, ustawiane konkursy itd. To praca dla dużego zespołu, wysoko zmotywowanych, kompetentnych i pracowitych ludzi. Na razie nie zanosi się, by takowy miał się cudownie wyłonić z chaosu. Zamiast więc reformować szkolnictwo wyższe razem z całym jego balastem, warto skoncentrować się na wybranych jego obszarach. Dobrym pomysłem są uczelnie flagowe. Panowie profesorowie z dużych uczelni przekonali władze państwowe, że to ich ośrodki powinny być flagowe. Zapomnieli tylko powiedzieć reszcie społeczeństwa, co zaoferują w zamian za większe finansowanie. Uważam, że z dowolnej średniej wielkości uczelni w kraju można w ciągu kilku lat stworzyć liczącą się w skali międzynarodowej jednostkę. Wystarczy tylko lokalne wdrożenie kilku pomysłów, które w skali kraju, głównie ze względu na opór środowiska, niechybnie zakończyłyby się porażką.

1. Jawność postępowania w konkursach na stanowiska, standaryzacja wymagań wobec kandydatów, udział z głosem doradczym w komisjach konkursowych ekspertów spoza uczelni (w tym zza granicy), możliwość zaskarżenia wyniku konkursu.
2. Obiektywna ocena okresowa pracowników z udziałem ekspertów spoza uczelni.
3. Ustalanie wysokości wynagrodzenia wg wykonywanych funkcji i zadań, a nie ze względu na stopień/tytuł naukowy.
4. Zwolnienie “uczelni flagowej” z obowiązku posiadania minimum kadrowego. Dawałoby to większą elastyczność w polityce kadrowej.
5. Profesjonalne zarządzanie - ograniczenie znaczenia wybieralnych ciał kolegialnych do roli doradczej, powoływanie rektora w drodze konkursu.
6. Wprowadzenie przyzwoitych progów punktowych dla kandydatów na studia.
7. Odpowiednia liczba etatów dydaktycznych (bez obowiązków naukowych).
8. Ocena wykładowców nie tylko na bieżąco przez studentów, ale również przez absolwentów.
9. Ocena doświadczonych pracowników wg sukcesów ich wychowanków (motywacja do ich promowania i umożliwiania samodzielnej pracy naukowej, jak również do zabiegania o najlepszych kandydatów).
10. Szkolenia, wykłady i warsztaty dla pracowników w celu podnoszenia ich kwalifikacji dydaktycznych.
11. Nieskrępowana tytułami i stopniami naukowymi możliwość zatrudniania praktyków na stanowiskach dydaktycznych.
12. Brak sztywnej struktury organizacyjnej z podziałem na zakłady i katedry, a przez to możliwość łatwego tworzenia nowych zespołów badawczych i specjalności naukowych oraz wygaszania innych.
 
Taką uczelnię mogliby szybko zasiedlić wybitni naukowcy i dydaktycy z całego kraju. Jednak byłby to spory problem dla pozostałych uczelni, gdyby okazało się, że bez wielkich pieniędzy da się jednak coś zrobić.

Może coś jeszcze warto dorzucić do listy pomysłów?


Tomasz Włodarczyk

wtorek, 4 sierpnia 2015

Impakt oczekiwany vs zrealizowany

Przy okazji o dyskusji nad habilitacją i CK zastanawiam się sporo nad kwestią oceny dorobku, bo mam wrażenie, że coraz bardziej odchodzimy od sedna sprawy. Całkiem często pojawiają się prace w dobrych czasopismach, które są słabo cytowane, a równocześnie trafiają się prace w czasopismach z niższej półki, które pod względem cytowań radzą sobie zaskakująco dobrze (oczywiście uwzględniając rok publikacji). Które z nich mają większą wartość naukową i jak powinniśmy je oceniać? Zastanówcie się nad pytaniem, na które mi trudno odpowiedzieć: jaką pracę wolałbym mieć w swoim dorobku: z dobrego czasopisma ale niecytowaną, czy ze słabszego, ale z wieloma cytacjami? Czteroletnia praca w Auk z 0 cytacjami, czy publikacja w Ornis Fennica cytowana 25 razy? Powiecie, że jednak Auk? No dobrze, a OF cytowana 70 razy??

Skupiając się na jakości czasopisma (a więc de facto jego IF w danej kategorii tematycznej, bo na tym bazuje ranking ISI i MNiSW) przy równoczesnym ignorowaniu cytowań danej pracy, dochodzimy do paradoksalnej sytuacji, w której wskaźnik wpływu (IF) staje się ważniejszy niż sam wpływ (I). Ujmując rzecz przenośnią: stosujemy odpowiedzialność zbiorową i karzemy wybitnego uczonego, za to że pracuje w słabej jednostce (albo dobrego ucznia, za to że chodził do słabej szkoły). Przecież ta hipotetyczna praca z Ornis Fennica ma znacznie większy "impact" od tej z Auka, a IF tych czasopism jedynie obrazuje oczekiwania względem impaktu, które w odniesieniu do tych dwóch prac okazują się całkowicie mylące. Praca w Auk, której nikt nigdzie nie zacytuje praktycznie nie istnieje (i jest dowodem, że nawet najlepsi redaktorzy się mylą), a autor zamiast robić badania, mógłby spędzić ten czas przed telewizorem i nic by się nie zmieniło. Możemy oczywiście zarzucać wspomnianemu uczonemu, że powinien był się przenieść do lepszej jednostki, ale nie umniejsza to jego dokonań. Odwrotnie - gdyby pracował w jednostce dobrej, miałby jeszcze lepsze rezultaty, tak jak cytowany maszynopis - gdyby był opublikowany w Auk, byłby prawdopodobnie cytowany jeszcze częściej. 

Przykład ekstremalny: praca o ROC z czasopisma Radiology (IF=6.8) cytowana jest 8658 razy. Rozsądnie jest ją oceniać po impakcie czasopisma?

To rozumowanie prowadzi do wniosku, że w ocenie pracy naukowca tylko cytowania są ważne i nic innego się nie liczy. Jedynie one odzwierciedlają prawdziwy (=zrealizowany) wpływ naszej pracy na naukę, a wszystko pozostałe (jakość czasopism, częstotliwość publikowania itp.) to wyłącznie narzędzia, na których nie warto się skupiać. Jest to logiczny wniosek z zaakceptowania, że nie ma wartościowej publikacji bez cytowań i odwrotnie. 
Dostrzegacie gdzieś błąd w moim rozumowaniu??

michał żmihorski

PS pisząc o cytowaniach, raczej nie mam na myśli tych w stylu: "jak mylnie twierdzi Żmihorski (2010)..." ;-)