Skip to main content

La lotta per la sopravvivenza genera cattiva scienza?

Da un po’ e sempre più insistentemente si parla di valutazione della scienza, dei criteri che si devono usare per stabilire chi è un buono scienziato e vale la pena di essere finanziato e chi no. Perché le risorse sono limitate e vanno investite in modo oculato.

Di questo hanno scritto negli ultimi tempi le principali riviste scientifiche e sono perfino arrivate a formulare un documento noto come The San Francisco Declaration on Research Assessment o più semplicemente DORA declaration (http://am.ascb.org/dora/). Un problema difficile perché se da un lato e’ chiaro che bisogna applicare qualche parametro per valutare l’attività dei ricercatori, dall’altro non e’ facile stabilire quale. Ci sono scienziati che hanno prodotto pochissimo ma hanno segnato il modo di pensare. Altri che hanno pubblicato centinaia di lavori lasciando poco o nulla ai posteri. E’ giusto valutare uno scienziato semplicemente sulla base del prestigio delle riviste su cui pubblica?

Recentemente anche The Economist ha affrontato l’argomento da un punto di vista diverso con un articolo intitolato “How science goes wrong” (http://www.economist.com/news/leaders/21588069-scientific-research-has-changed-world-now-it-needs-change-itself-how-science-goes-wrong) .

The Economist si interroga sugli effetti che una eccessiva competizione possa avere sulla qualità della produzione scientifica. La risposta come ovvio attendersi quando si parla di scienza e’ : troppa pressione, troppa competizione rischia di far male alla scienza. L’articolo cita ad esempio il caso di una compagnia biotecnologica che ha cercato di riprodurre i risultati riportati in una cinquantina di lavori scientifici in campo oncologico e si è resa conto che solo il 10% era valido. Il resto spazzatura.

Il problema sollevato dall’articolo è reale? E quale è la causa?

Sicuramente non sono più i tempi di Darwin che ci ha messo 35 anni per pubblicare L’origine delle specie. E anche Darwin poi si è “affrettato” a farlo quando ha capito che se avesse aspettato ancora un po’ Wallace lo avrebbe superato. Oggi, sempre di più il lavoro del ricercatore e la sua capacità di ottenere finanziamenti vuol dire competere, arrivare primi, pubblicare su riviste con alta visibilità (si dice con alto impact factor). In America con i finanziamenti poer la ricerca ci paghi anche parte del tuo salario e quindi esiste una forte spinta economica ad essere il più bravo. Ormai se un giovane non ha pubblicato come primo autore un buon numero di lavori su riviste prestigiose come Nature fa fatica a trovare lavoro nelle università che contano. C’è posto solo per gli ottimi che però devono rimanere primi della classe sempre, con idee brillanti anno dopo anno. Pena, uscire dal giro dei finanziamenti con conseguente riduzione del salario, andare a lavorare in un’ Università meno prestigiosa che offre meno possibilità di lavoro. In questa situazione come logico attendersi qualcuno può avere la tentazione di barare: più e’ alta la posta in gioco, maggiore e’ la pressione e più è facile trovare qualcuno disposto a rischiare o barare. Come in ogni attività umana.

In Italia non è così drammatico come negli USA, anche se il problema di recuperare fondi per la ricerca è sempre più serio. E nelle istituzioni Italiane, che spesso non passano i mezzi necessari per permettere ai propri ricercatori di fare una ricerca competitiva, tutto diventa più difficile.

Nella mia personale esperienza di circa 30 anni di ricerca sono venuto a conoscenza di pochissimi casi di frode volontaria in articoli scientifici. Tutti con esiti terribili per i ricercatori. Anche perché il tam-tam dei commenti, il gossip, non lascia spazio al malcapitato. Molto più frequente e’ la situazione in cui uno sbaglia interpretazione in buona fede o sovra-interpreta i dati. Ma state tranquilli: in tutti i casi la scienza si corregge. E’ vero come dice l’articolo di The Economist che non si possono pubblicare articoli in semplicemente si verificano i dati di altri. Ma credo che nessuno sia interessato a farlo. Tuttavia tutti utilizzano i dati pubblicati come punto di partenza dei propri esperimenti. E se qualcosa non va salta all’occhio. Si chiedono informazioni. Parte il tam-tam tra i ricercatori di tutto il mondo. Spesso il giornale chiede una correzione o addirittura chiede di ritirare l’articolo. Il sistema di controllo è robusto. Voglio anche dire che ogni bravo ricercatore vive costantemente nell’angoscia di aver detto qualcosa di non corretto. Verifica Egli stesso i suoi dati e cerca conferme ai suoi risultati nel lavoro dei colleghi.

Ovviamente un problema esiste come dimostrato dal numero crescente di articoli ritirati e anche dai casi riportati sull’articolo di The Economist. Bisogna affrontarlo dato che la ricerca è alla base del futuro produttivo delle nostre società tecnologiche. Sicuramente un aumento dei controlli operati dai revisori delle riviste o dai finanziatori può rappresentare un’utile soluzione. Da solo, però , rischia di trasformarsi in una burocratizzazione. Modificare i criteri di valutazione con il quale selezionare i ricercatori può essere una valida alternativa. Qualche mese fa Bruce Alberts, Editor in Chief di Science, scriveva che bisogna imparare a valutare il singolo ricercatore leggendo i suoi lavori più significativi invece che fidarsi ciecamente di freddi indici bibliometrici. E poi dare spazio sulle riviste ai risultati negativi, pubblicizzare le ipotesi che sono risultate sbagliate. Perché dagli errori degli altri si può imparare molto. Per lo meno a non ripeterli


CONDIVIDI SU:

Gallerie fotografiche correlate

×

Iscriviti alla newsletter