niedziela, 26 marca 2017

Czy Anna O. Szust jest problemem?

Wrocławsko-poznańska ekipa naukowców przeprowadziła ciekawy i bardzo oryginalny eksperyment, który opublikowała w Nature: stworzyli fikcyjną badaczkę, Annę O. Szust, która próbowała dostać się (wysyłając maila z ofertą współpracy) do redakcji 360 czasopism. Uwzględniono tu 3 rodzaje czasopism:
* 120 posiadających wskaźnik IF,
* 120 z bazy Directory of Open Access Journals (jak rozumiem bez IF)
* 120 z grupy tzw. predatory journals
Żadne z czasopism posiadających IF nie odpowiedziało pozytywnie na maila, kilkadziesiąt pozytywnych odpowiedzi fikcyjna badaczka otrzymała od czasopism z ostatniej grupy, kilka z drugiej grupy. W kilku przypadkach została mianowana na stanowisko redaktora naczelnego. Tutaj jest więcej o samym eksperymencie i jego wynikach:

Tyle streszczenia, a teraz interpretacja z mojej strony, bo to bardzo ciekawy temat - kilka punktów w kolejności losowej:

1. 
Eksperyment pokazał, że lista JCR jest wskaźnikiem jakości - żadna redakcja spośród 120 posiadających IF nie przyjęła tej badaczki. Znając pracę redakcji czasopism od podszewki przypuszczam, że w wielu redakcjach tych 120 czasopism przydałaby się  merytoryczna osoba do pomocy (bo w redakcji jest zawsze dużo pracy) - mimo to nikt nie zaryzykował podjęcia współpracy. Więc te badania to kolejny argument, że Impact Factor jest wskaźnikiem jakości - niedoskonałym, ale nie ma nic lepszego. Spójrzcie z perspektywy Anny O. Szust - myślicie, że ona chciałaby "kultu IF", czy też przyłączyłaby się do chóru jego przeciwników?

2. 
Dla nas lekcja jest taka: nie powinniśmy w ogóle uwzględniać żadnej listy B, C, D... w naukach biologicznych. Jak ktoś chce, to niech publikuje w Gościu Niedzielnym albo Wyborczej - jego sprawa. Po prostu tej części aktywności, podobnie jak spaceru z psem albo pastowania butów, nie zaliczamy do działalności naukowej. Będzie prościej (odpadnie część sprawozdawczości) i lepiej (odpadnie sklejanie punkcików z wielu niskiej jakości czasopism). Eksperyment wrocławsko-poznański pokazuje, kto w tych czasopismach może pilnować jakości...

3. 
Istnienie nieuczciwych periodyków jest zjawiskiem naturalnym i - paradoksalnie - pozytywnym. Powstawanie takich czasopism-oszustów pokazuje, że istnieje silna presja na naukowców, żeby publikowali. I tak być powinno! Wobec tego, ci którzy nie potrafią/nie chce im się/nie mają talentu, szukają innych miejsc niż lista JCR, próbują obejść dobrze na ogół działający system kontroli jakości, są gotowi płacić by publikować w słabych czasopismach, bo nikt nie chce ich prac w tych dobrych i - najczęściej - bezpłatnych. Więc istnienie tych czasopism-drapieżników pokazuje, że system działa, że granica jest szczelna, a miernoty kłębią się dociskane do tej granicy przez wymagania pracodawcy i szukają drogi wyjścia. Gdyby takich czasopism nie było, albo gdyby nagle zniknęły, powinniśmy się zacząć martwić. A skoro są, to jest dobrze.

4.
W eksperymencie przewija się kwestia Open Access. Wydaje mi się zasadne podsumowanie, że OA nie gwarantuje niczego w kwestii jakości (podobnie jak w kwestii cytowalności), natomiast może napędzać autorów czasopismom o wątpliwej jakości i z pewnością transferuje dużą forsę z budżetu do wydawców. Jak dla mnie kolejny powód, by na modę OA spoglądać z rezerwą. 

5.
Uwaga nieco bardziej z perspektywy wolnościowej: nic z tym zjawiskiem nie trzeba robić. Funkcjonowanie słabej jakości czasopism nie jest żadnym problemem i nie wymaga ingerencji. Podobnie jak funkcjonowanie słabej jakości uczelni. Jeśli będziemy mieć system naukowy, w którym wygrywa jakość (moje hasło: płacimy za efekty), to nie musimy się zajmować żadnym uzgadnianiem stopni, żadną akredytacją, nie musimy tworzyć rządowych agencji weryfikujących jakość nauczania itp. Co z tego, że gdzieś w Indiach czy Brazylii istnieją takie czasopisma? Jeśli ktoś chce w nich publikować, proszę bardzo. Jeśli ktoś chce, to może swoje przemyślenia drukować i kserować - z kserokopiarkami też będziemy walczyć? Jasne i ostre kryteria awansu naukowego i płacenie ludziom za efekty likwiduje potencjalne zagrożenie. Więc konkluzja taka jak zawsze: musimy rozliczać efekt, a nie regulować zasady osiągania efektu.

6. 
Jeszcze jedna rzecz: w nauce jakość utrzymuje się samoistnie, a często wbrew ingerencji ze strony państwa. Widzę to tak: redaktorzy czasopism, recenzenci i autorzy sami dbają o jakość nauki, sami stworzyli zewnętrzny i międzynarodowy system oceny (ISI, Scopus, H, IF, cytowania, i inne), sami eliminują słabych zawodników (recenzje). Natomiast największym zagrożeniem dla nauki jest ingerencja polityczno-państwowa. W Polsce to rząd utrzymuje na etatach tysiące O.Szustów, którzy na wolnym rynku naukowym nie mogą się przebić, ale mając umowę bezterminową, zagwarantowany pokój i komputer, oraz pieniądze z budżetu na Open Access w słabych czasopismach, nadal jakoś w systemie funkcjonują i napędzają inflację nauki. Płaćmy za efekty, a O.Szuści sami znikną.

Michał Żmihorski