Si parla tanto di “bufale” in riferimento all’informazione scientifica. Ma come ci si può difendere dalle cattive informazioni? In altre parole, esiste un metodo per valutare la credibilità di un’informazione scientifica?
Premesso che tutti, anche i migliori scienziati insigniti del Premio Nobel, possono sbagliare, producendo così informazioni scientifiche errate, ecco alcune regole che vi possono aiutare nel valutare la credibilità di un’informazione scientifica.
1) Il dato scientifico deve essere soggetto al processo di peer review, o revisione dei pari, che consiste in una valutazione accurata del dato scientifico eseguita da esperti del settore, al fine di giudicarne l’ammissibilità alla pubblicazione su una rivista scientifica. Dati scientifici, e quindi pubblicazioni che non siano stati soggetti a una revisione dei pari non sono generalmente considerati scientificamente validi dai ricercatori e dai professionisti del settore, e non dovrebbero essere considerati attendibili dal pubblico.
2) Il dato scientifico è tanto più credibile quanto maggiore è la credibilità della rivista scientifica su cui è stato pubblicato. La classificazione delle riviste scientifiche e la ricerca di metodologie convincenti per la definizione di adeguati ranking delle riviste, specie al fine di valutare la qualità della produzione scientifica, rappresentano un tema molto dibattuto nella comunità scientifica nazionale e internazionale. Negli anni sono stati proposti vari indicatori, tra cui si è andato sempre più affermando il cosiddetto Impact Factor (IF), che è calcolato ogni anno per ogni rivista scientifica (valuta quindi l’attendibilità della rivista su cui il dato scientifico è pubblicato, non l’attendibilità del singolo dato scientifico), e rappresenta il rapporto tra il numero di citazioni raccolte da una rivista e il numero di articoli pubblicati sulla stessa rivista in un determinato arco di tempo (in genere 2 o 5 anni). Come tutti gli indicatori, anche l’IF non è perfetto e soffre di una serie di limitazioni, legate all’abitudine degli autori di auto-citarsi (e quindi aumentare “artificiosamente” il numero di citazioni), al numero di articoli pubblicati da ciascuna rivista, all’area scientifica di riferimento della pubblicazione….Nondimeno rimane, a mio parere, l’indicatore più semplice per valutare l’attendibilità di una rivista scientifica, come dimostrato dalla forte correlazione tra IF e citazioni per pubblicazione scientifica (Figura da Nature Materials 12:89, 2013). Purtroppo l’IF è un prodotto commerciale della Thomson Reuters Corporation, divisione Healthcare & Science, disponibile solo a pagamento. Dalla figura potete farvi un’idea della credibilità delle riviste scientifiche più comuni. Nelle citazioni delle fonti da cui attingerò per i prossimi articoli aggiungerò l’IF, per aiutarvi a valutarne la credibilità.
3) Il dato scientifico è tanto più credibile quanto maggiore è la credibilità dell’autore. Anche qui può essere d’aiuto un indicatore, l’H-index, o indice di Hirsch, che valuta l’impatto scientifico di un autore, basandosi sul numero delle pubblicazioni prodotte durante l’intera vita scientifica e il numero delle citazioni ricevute. Un H-index più elevato indica una maggiore produttività scientifica e un maggiore riconoscimento di tale attività da parte della comunità scientifica, e quindi valuta l’autore (lo scienziato, non il singolo dato scientifico) più credibile. L’H-index di un autore può essere recuperato tramite PoP (Publish or Perish), un software open source disponibile per il download all’indirizzo.
4) Il dato scientifico deve essere riproducibile (e riprodotto) da parte di ricercatori indipendenti.