Criteri nel giudicare il lavoro di un ricercatore

Facebook
Twitter
LinkedIn

Spesso lo scienziato è raffigurato come uno studioso completamente libero che sceglie le proprie linee di ricerca autonomamente e indipendentemente da condizionamenti esterni; si ritiene che questa figura di scienziato sia un modello ideale, necessario a salvaguardare la libertà del pensiero scientifico, senza la quale la scienza degenererebbe.

In realtà lo scienziato autonomo, non condizionato, non esite più da molto tempo, se mai è esistito. Infatti qualsiasi giovane ricercatore si trova davanti due problemi pressanti: come finanziarsi le ricerche e come costruirsi la carriera scientifica, passando attraverso le varie tappe (borsista, ricercatore, professore associato….) fino a raggiungere un posizione stabile e soddisfaciente sia per lo stipendio che per il potere (per esempio professore ordinario). I criteri usati per distribuire i finanziamenti e per determinare gli scatti della carriera scientifica sono quindi cruciali nel condizionare il comportamento dei ricercatori.

I criteri dipendono dalla scelta delle persone che devono prendere le decisioni: se il potere decisionale non è affidato a dei tecnici, per esempio è in mano a politici o a burocrati, è difficile che si possa avere qualcosa di meglio dei finanziamenti a pioggia e di una carriera che si sviluppa semplicemente per anzianità. Generalmente non si ritiene che questa soluzione sia accettabile: i fondi assegnati per la ricerca scientifica pura (per quella applicata il discorso è più complicato) e le promozioni dovrebbero essere decisi sulla base delle reali capacità del ricercatore e il metro da usare per determinarle dovrebbe essere la produttività scientifica, che sembrerebbe essere un criterio scientifico oggettivo. Attualmente, quando si compila una richiesta per un finanziamento, non viene chiesto un curricolo scientifico del propenente, ma l’elenco delle pubblicazioni scritte negli ultimi cinque anni.

Fin qui niente di male in teoria. I guai vengono al momento che la commissione di esperti deve paragonare la produttività di ricercatori diversi. Per esempio se ci sono due candidati per un solo posto, la scelta è facile; al contrario se in un concorso a cattedra ci sono duecento candidati, con una cinquantina di pubblicazioni a testa, che concorrono per una dozzina di posti, è estremamente improbabile che i commissari leggano i diecimila lavori presentati (in dieci copie) da ciascuno dei candidati.

Se escludiamo il caso in cui alcuni dei candidati siano ben noti ai commissari (o per chiara fama o per amicizia o per appartenere alla stessa scuola), i commissari all’inizio del concorso hanno solo una vaga idea del valore di candidati. L’unica soluzione per fare prima cernita consiste nell’affidarsi a dei criteri oggettivi di verifica della produttività scientifica. Una soluzione di tutto respiro per i commissari consiste nel contare le pubblicazioni (al contrario il conteggio delle pagine stampate è molto meno usato, in quanto tenderebbe a favorire i candidati verbosi). Spesso un puro conteggio dei lavori non è ritenuto sufficiente e vengono eliminati tutti i lavori che sono stati pubblicati senza una cernita da parte di un comitato di redazione (per esempio non si contano nel numero le comunicazioni a congressi, per quei congressi in cui chiunque può contribuire con una relazione) e vengono salvati solo i lavori pubblicati su riviste a diffusione internazionale.

Il conteggio delle pubblicazioni è il metodo più semplice per stimare la produttività e forse il più diffuso. Con questo metodo il peso scientifico delle pubblicazioni non viene in nessun modo tenuto in conto. In alcune discipline si è tentato di usare medodi più sofisticati di stima della produttività scientifica, basati sul numero delle citazioni; in altri termini un lavoro prende un numero di punti uguale al numero di volte che il lavoro è stato citato (da persone diverse dall’autore stesso). Il conteggio delle citazioni sarebbe una operazione dispendiosissima in tempo se non fosse per l’esistenza del Citation Index ; infatti ogni anno questa rivista contiene l’elenco di tutte le citazioni che sono apparse nelle pubblicazioni di una data disciplina (ad esempio la fisica). Se per esempio volessi sapere se qualcuno cita ancora un mio lavoro sui sistemi disordinati del 1979, non dovrei fare altro che aprire il Citation Index e trovare (o non trovare) i lavori in cui appare la mia citazione. Lo scopo di questa rivista, mostruosa come numero di pagine, non è di gratificare degli autori, ma di permettere delle ricerche bibliografiche in avanti: se conosciamo i risultati ottenuti in un dato campo fino al 1982 e vogliamo sapere che cosa è stato fatto successivamente, possiamo cercare tutti i lavori (successivi al 1982) che citano gli articoli di nostra conoscenza.

Il Citation Index si può anche usare impropriamente per quantificare la produttività; se il puro conteggio dei lavori non entra nel merito della qualità, basarsi sul numero delle citazioni tende però a favorire fenomeni di moda: molto spesso lavori irrilevanti hanno qualche mese di grande notorietà per poi essere dimenticati, mentre lavori fondamentali vengono riconosciuti tali solo a distanza di molti anni.

Nostante che una commissione centrale di esperti non sia assolutamente in grado di verificare la produttività scientifica di centinaia di ricercatori, l’organizzazione attuale dei concorsi e dei finanziamenti ministeriali si basa sulla finzione che ciò sia possibile. Non è facile trovare una soluzione alternativa: forse la scelta migliore, nonostante tutti i difetti che potrebbe comportare, consiste nel decentrare le decisioni e nell’affidare le responsabilità alle singole unità di ricerca (per esempio ai dipartimenti universitari).