Marcin Makowiecki: Biurokracja szkodzi nauce

Rozmowa z prof. Andrzejem Rosnerem, byłym dyrektorem Instytutu Rozwoju Wsi i Rolnictwa PAN

03.10.2019

Prof. dr Andrzej Rosner

Marcin Makowiecki: – Tygodnik Polityka (z 28 sierpnia b.r.) informuje o sporządzonej przez MNiSW nowej liście wydawnictw i czasopism, w których publikacje będą zaliczane do dorobku naukowców z instytutów i wyższych uczelni. Ze zdziwieniem odnotowano, że w dziedzinie nauk prawnych nie znalazły się na tej liście takie prestiżowe wydawnictwa jak np. C.H. Beck i Wolters Kluwer, a także renomowane periodyki dotychczas wysoko cenione. Są za to promowane tytuły i wydawnictwa, przejęte przez PiS po dojściu do władzy. Czy takie praktyki były stosowane także w innych dyscyplinach naukowych?

Andrzej Rosner: – Podobne listy powstały dla każdej dyscypliny naukowej. Przy ich tworzeniu ścierały się różne interesy, nie tylko polityczne. Trwało to długo, a od czasu, gdy zostały one opublikowane są krytykowane z różnych stron i powodów. Zastrzeżenia dotyczą nie tylko list dla nauk prawnych, ale także innych dyscyplin, np. socjologii, archeologii, ekonomii, historii. Najważniejsze wątpliwości odnoszą się jednak do wprowadzonych zasad oceny. Jej podstawą jest publikowanie w czasopismach artykułów naukowych przez pracowników instytutów i uczelni, za które uzyskują oni odpowiednie ilości punktów według ustalonych taryf. Taryfy te określone są właśnie przez listy, o których mowa. Ocena pracy naukowca nie dotyczy więc zawartości publikacji, ale tego, w jakim czasopiśmie została opublikowana.

– Proszę wyjaśnić naszym czytelnikom jak działa ów system przyznawania punktów za pracę naukową (zwany przez niektórych „punktozą”)? Czy liczba zdobytych punktów decyduje o karierze osobistej naukowca, czy wpływa na sytuację zespołu badaczy i instytutu?

–Tu też jest problem, ocena nie dotyczy autora publikacji, ale instytucji, w której pracuje. Najprościej mówiąc, dla instytucji zatrudniającej naukowców istotna jest średnia liczba punktów uzyskanych przez wszystkich pracowników na etatach naukowych w okresie ocenianym. Co więcej, od tych właśnie punktów zależy tzw. kategoria instytutu, a co za tym idzie dotacja stanowiąca podstawę finansowania.

Nieco upraszczając, przyjęto zasadę, że każdy z pracowników naukowych powinien wydać w ciągu roku jedną publikację. Jeżeli wyda więcej, nie wlicza się ich do oceny. Liczba uzyskanych punktów do oceny nie zależy od jakości opublikowanej pracy, ale od tego, kto jest jej wydawcą. Jeżeli jest to tytuł czasopisma z listy przypisanej dla danej dyscypliny naukowej (a w przypadku tzw. monografii – wydawnictwo) to punktów jest więcej. Jeżeli do innej, to mniej. Natomiast, gdy pracę naukową opublikuje wydawca nieznajdujący się na żadnej z tych list, wówczas autor nie uzyska też żadnych punktów. I tu powstaje problem: na jakiej podstawie ocenia się, które czasopisma i ich wydawcy są lepsi lub gorsi? Teoretycznie listy tworzą komisje składające się z naukowców, w praktyce – działa tu potężna gra interesów, nie będą oni przecież nisko oceniać wydawnictw, z którymi są związani, ani takich, których wydawcą jest ich pracodawca itp.

– Oznacza to, że nie ocenia się wartości samej pracy, ale miejsce jej wydania?

–Tak. Ale i to nie jest w tym systemie najgorsze. Jeśli oceniamy wyniki pracy instytutu, to musimy zsumować wszystkie uzyskane punkty. I w tym momencie tracimy z oczu ważny problem. Jak wiadomo, pracownicy naukowi są różni: niektórzy piszą dużo, inni mało, za to ich publikacje są często wybitne. Są też osoby, które wnoszą bardzo wiele do działalności zespołu tylko przez samo uczestnictwo w dyskusjach naukowych. W zespołach badawczych zazwyczaj role są podzielone, nie wszyscy muszą akurat publikować. Ale nie publikując obniżają punktację instytutu. Tych wszystkich aspektów nie uwzględnia wprowadzony system oceny.

Jednak są też inne wątpliwe rozwiązania. Wiadomo, że duża liczba publikacji naukowych powstaje w zespołach. Jeżeli ukazują się one w języku angielskim w czasopiśmie dającym dużo punktów, to każdy z autorów dostaje ich tyle na ile wyceniony jest dany periodyk. Jeżeli wydawnictwo wycenione jest gorzej, to uzyskane punkty dzieli się miedzy autorów, jeśli lepiej – każdy współautor uzyskuje całe przypisane punkty. To w praktyce oznacza, że w interesie pracodawcy (instytutu) w przypadku publikacji w wydawnictwach wysoko wycenianych można dostać premię za „dopisywanie się” do zespołu autorskiego. Uważam, że te dosyć częste praktyki są niemoralne, ale system je premiuje.

Równocześnie, istniejący system przeciwdziała pracy zespołowej, ponieważ oceny dotyczą „po równo” poszczególnych pracowników, a w zespole są przecież specjalności istniejące stosownie do potrzeb, ale wnoszące różny wkład w realizację projektu. Dalej – system nie sprzyja interdyscyplinarności badań. Instytut prowadzący badanie musi zadeklarować wstępnie jaką reprezentuje główną dyscyplinę, może nią być np. ekonomia. Jeżeli jednak w takiej placówce zdarzy się, że badania dotyczą demografii, to z punktu widzenia oceny instytutu nie mają wartości, bo demografia biurokratycznie „przypisana” została do socjologii.

–Jak z tego wynika, wprowadzony system oceny instytucji naukowych jest zbyt skomplikowany, niejasny i nie przystaje do specyfiki pracy naukowej…

–Potwierdza to jeszcze jeden przykład. Jeszcze jeden przykład. Za książkę (tak zwaną monografię) uzyskuje się około 80 punktów, a artykuł w jakimś anglojęzycznym czasopiśmie może przynieść 150 punktów. To jest z pewnością nieporozumienie. Inne, to automatyczne promowanie publikacji w języku angielskim. Są pewne tematy czy dziedziny specyficzne, np. etnografia, historia Polski lub opracowania kolejnych tomów słownika języka polskiego, które nie wymagają publikacji po angielsku, ale przez to są gorzej oceniane.

Dodajmy, że są dyscypliny, w których nie tylko publikacje są najważniejszą formą ogłaszania wyników, np. archeologia. Charakterystycznym dla niej sposobem prezentacji wyników są np. wystawy. Ale za to nie ma żadnych punktów wpływających na ocenę i finansowanie badań. Jest paradoksem tego systemu, że wszystkie dyscypliny nauki są oceniane w ten sam sposób. To fałszuje wyniki naszej, naukowców, pracy.

–Czy taki zbiurokratyzowany system oceny pracy w nauce to nowy pomysł władz?

–Pomysł zbiurokratyzowanego oceniania instytutów był już wprowadzany przez poprzedni rząd. Też były systemy oceny, też w cyklu czteroletnim. Miały one swoiste wady, choć także zalety w porównaniu z obecnymi zasadami. Jednym z założeń była wówczas walka z tak zwaną wieloetatowością: naukowiec powinien pracować w jednym miejscu. Z moich osobistych doświadczeń – dziesięciu lat dodatkowych zajęć na uczelniach – wiem, że taki zakaz był niepotrzebny. Prowadziłem tam seminaria magisterskie i wykłady monograficzne. Mówiłem o najnowszych wynikach badań, o ich metodach na przykładzie tego, co robimy w instytucie. Umożliwiało to przekazanie studentom informacji, których inaczej by nie uzyskali. Oczywiście nie dotyczy to zajęć ze studentami niższych lat, w tym przypadku „wieloetatowość” była dysfunkcyjna zarówno z punktu widzenia pracy na uczelni, jak i w instytutach badawczych.

Nieporozumieniem była też próba premiowania „mobilności” naukowców między ośrodkami, na wzór amerykański, po to, aby realizować projekty wymagające pracy zespołów powoływanych doraźnie. To też nie mogło się udać z prozaicznego powodu – specyfiki polskiego rynku mieszkań, braku możliwości pracy dla rodziny w nowym miejscu lub konieczności przenoszenia dzieci do nowych szkół. Wprowadzanie żywcem wzoru amerykańskiego do Polski było co najmniej nieporozumieniem.

Powodów do krytyki jest więcej. Dlatego podejmowane od dawna przez władze państwowe decyzje dotyczące instytutów i szkół wyższych spotykają się stale z licznymi zastrzeżeniami naszego środowiska. Przede wszystkim nie udało się dotychczas stworzyć optymalnych reguł oceny, a co za tym idzie także finansowania badań w instytutach i uczelniach od czego, jak wiadomo, również zależą ich wyniki.

– Jakie są zasadnicze zmiany w nowym systemie oceny instytutów?

Nowy system przejął niektóre zasady z poprzedniego, niektóre pogłębił, a z części zrezygnował, ale nie można jednoznacznie powiedzieć: jest lepiej – jest gorzej. W grupie osób przygotowujących reformę zauważalna jest obsesja na temat miejsca polskiej nauki w rankingach międzynarodowych. Wiemy jednak, że te rankingi niewiele znaczą, bo zależą od tego, jakie kryteria bierze się pod uwagę. Niektóre z nich w ogóle nie przystają do modelu polskiego (czy szerzej, naszej części Europy). Zwykle mówią one coś na temat systemu nauki i szkolnictwa w krajach o tradycjach anglosaskich. Ale w naszej części Europy były inne tradycje dotyczące stopni naukowych, organizacji uczelni, instytutów badawczych. Warto zauważyć np., że tzw. system punktów bolońskich na uczelniach nie do końca się sprawdza. Poza tym nie można oceniać pozycji całej polskiej nauki, ponieważ w niektórych dyscyplinach mamy dobre osiągnięcia na miarę klasy światowej, w innych zaś nie mamy czym się chwalić. Niektóre dyscypliny w Polsce praktycznie nie istnieją, inne mają długą tradycję i duże osiągnięcia. Nie przejmujmy się wiec tymi rankingami.

Poprzedni system premiował nie tylko publikacje, ale np. również działania w zakresie popularyzacji wyników badań, pracę nad ekspertyzami nieprzeznaczonymi do publikacji, ale zlecanymi przez organa administracji państwowej, organizację konferencji, zdobywanie grantów itp. Nowy ograniczył różnorodność ocenianych kierunków podejmowanych działań skupiając się głównie na publikacjach.

Jest też jeszcze jedno podobieństwo obu systemów. Okres oceny dotyczy wyników uzyskanych w czasie czterech lat. Jednak kryteria tej oceny są ogłaszane praktycznie pod koniec okresu, którego dotyczą. Stanowią więc rodzaj prawa działającego wstecz. Kryteria oceny instytutów i uczelni mówią o tym, czego władza, przekazująca środki na naukę, oczekuje od niej. Nie pozwala jednak działać racjonalnie, a więc spełniając te kryteria oceny, bo ujawnia je pod koniec okresu ocenianego.

– Co należałoby zrobić, aby uzdrowić ten system, który jak wynika także z wielu innych opinii, szkodzi rozwojowi badań naukowych?

– Po pierwsze, dać święty spokój pracownikom naukowym, którzy muszą mieć warunki do spokojnej pracy. To jest praca twórcza, której nie da się podporządkować biurokratycznym zasadom oceny. Chcielibyśmy pracować merytorycznie, a nie zastanawiać się, w jaki sposób lepiej spełniać zmieniające się kryteria. Jest to także problem zaufania do naukowców.

Następna niesłychanie istotna sprawa. Udział nauki w krajowym PKB wynosi mniej niż połowę procenta. To są wydatki na uczelnie wyższe finansowane z budżetu oraz instytuty naukowe. W krajach rozwiniętych wydatki na ten cel wynoszą z reguły ok. 2–3 proc. PKB. Polskie środowisko naukowe od lat zgłasza postulaty o zwiększenie nakładów na naukę, ale mimo obietnic władz nic nowego się nie zdarzyło. Widocznie dla polityków naukowcy są za małą grupą wyborców. Dlaczego te pieniądze są takie ważne?

– Wiadomo!

Tak, ale trzeba wziąć pod uwagę istotę problemu. Polska nauka jest biedna, to wiemy. Ale wiemy także, że warunkiem jej rozwoju jest pozytywny dobór kandydatów na naukowców. Najzdolniejsi, najbardziej twórczy, powinni po skończeniu studiów robić karierę w nauce. Jako dyrektor instytutu, spotykałem się kilka razy z taką sytuacją, że zatrudnialiśmy bardzo zdolnych absolwentów wyższych uczelni, którzy po paru miesiącach przychodzili i mówili – w banku mogę zarobić trzy razy tyle, nie stać mnie na to, żeby tu pracować.

– Z tego wniosek, że potrzebny jest znowu jakiś wstrząs, który zmieniłby radykalnie sytuację finansową polskiej nauki. Czy są zwolennicy takich radykalnych zmian?

– Z pewnością są ,ale teraz większość naukowców zajmuje się, bo musi, czymś innym – biurokracją. Nie ma czasu na wielkie projekty. Trzeba jednak zdobyć się na wysiłek – wrócić do podstawowej kwestii i ponownie odpowiedzieć na pytanie: jaki powinien być organizacyjny model polskiej nauki – twórczej, niezależnej i odbiurokratyzowanej a jej organizacja w miarę stabilna.

– Dziękuję za rozmowę.

Marcin Makowiecki

Print Friendly, PDF & Email
WP Twitter Auto Publish Powered By : XYZScripts.com