L’editoria scientifica è malata

Quando ero studente di dottorato mi capitava, con una certa frequenza, di partecipare in qualità di revisore al processo di peer review. Si tratta del meccanismo di controllo che dovrebbe garantire, per quanto possibile, la qualità degli articoli pubblicati sulle riviste specializzate. Potrebbe sorprendere qualcuno scoprire che un giovane dottorando privo di esperienza accademica sia ritenuto degno di valutare il lavoro proposto da ricercatori più affermati di lui, e anche a me sembrava bizzarro in un primo momento. Se l’argomento è molto di nicchia, però, gli autori che hanno pubblicato su di esso e che quindi sono riconosciuti come esperti in materia possono essere molto pochi. Penso fosse questo il mio caso: leggendo la letteratura scientifica per il mio progetto di tesi, mi rendevo conto che gli autori degli articoli sui microRNA delle piante erano una comunità molto ristretta, della quale anche io ero evidentemente entrato a far parte. Mi è bastato pubblicare un paio di lavori per farmi conoscere ed entrare nel club dei potenziali reviewers. Non credo affatto di essere stato un privilegiato, penso piuttosto che questo fenomeno sia più frequente di quanto si pensi: una parte dei lavori pubblicati nella letteratura scientifica sono stati sicuramente controllati da giovani ricercatori alle prime armi, carichi di entusiasmo e amore per la scienza ma certamente privi di esperienza. Alla luce delle recenti notizie sul caso Infascelli, il professore dell’Università di Napoli accusato di aver manipolato i risultati dei propri esperimenti per sostenere la pericolosità degli OGM, il controllo preventivo della qualità delle pubblicazioni diventa ancora più essenziale. Ma se ogni anno decine di articoli vengono ritirati (per frode e non solo), la colpa non può essere solo di qualche giovanotto disattento. La peer review ha, secondo me, un problema evidente che pochissimi si azzardano a sottolineare: è gratuita.

Pensate alle case editrici che tutti conosciamo, quelle che pubblicano romanzi. In questo caso, l’autore di un romanzo sottopone un proprio testo all’editore, il quale, se lo ritiene opportuno, lo mette in vendita e trasferisce una parte dei ricavi (piccola a piacere) allo scrittore. In regime di piena concorrenza, se il prezzo è troppo alto il libro non venderà; allo stesso modo, se le commissioni per l’autore sono troppo piccole, lo scrittore sottoporrà la sua proposta a un’altra casa editrice. Bene, nell’editoria scientifica non funziona così. I ricercatori la mettono raramente in discussione: si fa così perché si è sempre fatto così. Ma per un osservatore esterno questo sistema appare completamente folle. Vediamo di che si tratta.

academic_publishing

I soggetti coinvolti nel processo sono tre: gli editori delle riviste, le università e ovviamente la comunità scientifica. All’interno di quest’ultima convivono tre figure diverse che spesso però vengono a coincidere: i lettori degli articoli scientifici, gli autori degli stessi e i revisori. A differenza dell’autore di romanzi, il nostro bravo scienziato sottoporrà un articolo a un editore senza alcuna pretesa di guadagnarci qualcosa. La rivista a questo punto inizia il processo di peer review, e per accertarsi di non pubblicare castronerie si rivolge ancora una volta alla comunità scientifica. Una volta individuati due o tre esperti sull’argomento, questi saranno contattati e invitati a revisionare il manoscritto. Qualora accettassero, questi generosi ricercatori controlleranno che le conclusioni del lavoro siano supportate dai dati, che non ci siano evidenti errori di metodo e che tutta la letteratura pregressa sia stata adeguatamente presa in considerazione dagli autori. Tutto questo lavoro è offerto gratuitamente: le proprie competenze, il proprio tempo e le proprie energie sono donati alla casa editrice per puro amore della scienza. Tenetevi forte perché ora arriviamo alla beffa finale: la casa editrice, dopo aver pubblicato il lavoro revisionato non permette a chiunque di leggerlo, ma solo agli abbonati. Ed è qui che interviene l’università, costretta a pagare prezzi salatissimi per permettere ai suoi ricercatori di leggere i lavori che spesso hanno scritto loro stessi. A fronte di un contributo minimo e di limitate spese di gestione (in particolare per le riviste elettroniche), le case editrici sono in grado di fare degli utili elevatissimi; anzi, sono libere di prosciugare le già scarse risorse delle università alzando i prezzi a proprio piacimento, consapevoli che queste continueranno comunque a pagare. Come è possibile che un meccanismo tanto perverso possa reggersi in piedi? La risposta è semplice: il sistema del publish or perish (“pubblica o sei fuori”) azzera il potere di trattativa dei ricercatori, costretti a pubblicare su riviste prestigiose e carissime, pena la fine della propria carriera. Un problema serissimo, esacerbato dal fatto che l’editoria scientifica è in realtà un oligopolio di pochi grandi editori, che controllano le riviste che contano: in altre parole, non c’è reale concorrenza. Ma perché un ricercatore dovrebbe accettare di revisionare un articolo gratuitamente? Perché il lavoro di reviewer finisce anch’esso nel curriculum, e perché forse ci si illude che, entrando nelle grazie dell’editore, sia più facile pubblicare qualcosa su una delle sue riviste. Intendiamoci, alcuni ricercatori rifiutano: spesso sono i più impegnati e i più bravi a farlo, ma questo comporta uno slittamento dell’onere sui ricercatori più giovani e meno qualificati, a tutto detrimento della qualità della revisione.

Negli ultimi anni le riviste Open Access hanno cercato di cambiare le cose, sfruttando un modello diverso in cui a pagare non sono più i lettori (tramite le università) ma gli autori (sempre tramite le università). Il problema è che i prezzi per pubblicare un articolo non sono comunque trascurabili (siamo nell’ordine delle migliaia di euro), e inoltre per quale motivo un ricercatore dovrebbe pagare per pubblicare un lavoro, quando può farlo gratuitamente su riviste più prestigiose? D’altro canto, una rivista che vive di pubblicazioni potrebbe essere più portata ad accettare manoscritti di scarsa qualità, o a saltare a piè pari la fase di revisione. Non è un sospetto poi così infondato, visto il proliferare di riviste di dubbia fama che stanno infangando il nome dell’open access. E a proposito di fama, il punto cruciale è sempre lo stesso: le riviste più ambite, quelle che ti fanno fare carriera sono quelle storiche. Meglio puntare su quelle. Sono tutti fattori questi che hanno contribuito a frenare la trasformazione dell’editoria scientifica, e hanno consentito alle case editrici tradizionali di continuare ad arricchirsi: tanto per fare un esempio, il margine di profitto della Reed Elsevier sulle riviste medico-scientifiche è salito in dieci anni dal 30 fino a quasi il 40%. Che fare quindi? Sicuramente si deve insistere con l’open access, che ha l’indubbio vantaggio di rendere accessibili i risultati della ricerca scientifica, anche a quei cittadini contribuenti che con i loro soldi l’hanno finanziata. Ma se si vuole mettere davvero in difficoltà i giganti dell’editoria, occorre correggere le storture dell’open access e permettere a queste riviste di diventare realmente appetibili.

La mia proposta parte da un modello già esistente, quello della rivista PeerJ. Lanciata nel dicembre 2012, questa rivista funziona in modo simile alle altre riviste open access: pagano gli autori. La differenza, però, è che i ricercatori, con un abbonamento annuale di 399 dollari, sono liberi di pubblicare un numero illimitato di articoli. Essendo la rivista pagata con un abbonamento annuale, l’incentivo ad accettare lavori di scarsa qualità è inferiore rispetto al classico schema in cui si paga la pubblicazione di un singolo articolo. La peer review, che è ovviamente presente, potrà quindi essere molto più rigorosa, dal momento che la rivista non ha più alcun interesse economico a pubblicare a prescindere. Ma questo non è sufficiente a far vacillare l’impero dei grandi editori, che detengono comunque i marchi (le riviste) più prestigiosi. La proposta che faccio potrà sembrare assurda, ma sono convinto che potrebbe funzionare: paghiamo i reviewer. Non entro nei dettagli economici perché non è mia intenzione fare un business plan, ma immaginiamo per un attimo di aggiungere ai 399 dollari annuali una quota da destinare alla peer review. I revisori ora percepiranno un compenso (più o meno simbolico) per il loro lavoro e saranno maggiormente motivati a operare in modo più accurato; la pubblicazione sarà più difficile e di conseguenza la rivista diventerà più esclusiva. A questo punto, un potenziale autore si troverà davanti una rivista che i suoi colleghi considerano esclusiva e difficile da conquistare, su cui può pubblicare senza spese aggiuntive perché ha già pagato l’abbonamento, e che oltre a essere open access riconosce ai revisori il valore del loro lavoro (dal punto di vista dell’immagine un vantaggio non indifferente). In una situazione del genere, proporre l’articolo alle riviste storiche potrebbe non essere più una scelta così ovvia. E con revisori più agguerriti, forse le frodi scientifiche sarebbero smascherate ben prima della pubblicazione.

Annunci

Accelerare la ricerca: come fare?

Ho avuto un’interessante discussione con un mio lettore in questi giorni. Il tutto è iniziato quando ho pubblicato un post un po’ sarcastico e irriverente a proposito di un articolo apparso su Science, in cui si ipotizza che nell’uomo avvengano frequentemente degli eventi di RNA editing, cioè delle alterazioni a carico degli RNA messaggeri che li rendono quindi diversi dalla regione di DNA da cui si sono originati. L’articolo è stato criticato da molti: in particolare, Joe Pickrell su Genomes Unzipped ha spiegato che la metodologia utilizzata nello studio non era sufficientemente solida per supportare le conclusioni degli autori. Io ho semplicemente constatato questa cosa, facendo notare che è già la terza volta nel giro di pochi mesi che Science viene criticata pesantemente per un articolo pubblicato.

Il lettore con cui mi sono confrontato è Alberto, uno dei miei “fedelissimi”. Secondo lui, è ingiusto criticare Science per avere pubblicato questo lavoro, pur parziale e incompleto, per un semplice motivo: i responsabili della rivista hanno sentito il dovere morale di accelerare la ricerca in questo settore, dando visibilità a una scoperta potenzialmente rivoluzionaria. Non importa quindi che non si abbia ancora la conferma definitiva di quel risultato, l’importante era metterlo sotto gli occhi di tutti, annunciare al mondo che poteva esistere un meccanismo che fino ad ora ci era sfuggito. Toccherà agli altri ricercatori lavorare per dimostrare o eventualmente confutare quella scoperta. Questo, in sintesi, il pensiero di Alberto.

Io ho risposto dicendo che è buona cosa accelerare la ricerca, ma è altrettanto importante che i risultati di un lavoro scientifico siano il più solidi possibile. Il team di Science avrebbe dovuto chiedere agli autori di fare un semplice controllo: verificare con una veloce analisi bioinformatica che le sequenze “alternative” non provenissero per caso da altre regioni genomiche, anziché essere state oggetto di RNA editing. Certo, non sarebbe stata un’analisi conclusiva comunque, perché poi si sarebbe dovuto dimostrare quali delle regioni trovate fossero effettivamente trascritte, ma ad ogni modo era un controllo doveroso che avrebbe dato uno spessore molto diverso ai risultati.

La discussione è poi slittata sul mondo della ricerca in generale, e sulla diffusione e condivisione delle nuove scoperte. Peppe Liberti di Rangle sarebbe sicuramente più adatto di me a parlare di questo argomento, ma voglio comunque dire la mia. Io credo che velocizzare la ricerca sia fondamentale: è inaccettabile che nel mondo di Facebook, Twitter e di tutti gli altri socialcosi, i ricercatori siano rimasti bloccati al pachidermico sistema della peer-review old-style. La revisione tra pari è (o dovrebbe essere) garanzia di qualità per gli articoli pubblicati, ma la lentezza con cui si arriva alla pubblicazione, e soprattutto il fatto che molte riviste non sono ad accesso libero, di fatto riduce drasticamente la condivisione delle informazioni, e quindi il loro potenziale utilizzo per ricerche future. L’open-access è un grande passo avanti in questo senso, soprattutto quello delle riviste PLoS, dove i lettori possono lasciare i loro commenti direttamente sugli articoli pubblicati. In questo caso, il problema è – se vogliamo – di una eccessiva libertà di parola, dal momento che chiunque potrebbe scrivere le peggiori sciocchezze. Due strategie diverse, due differenti scuole di pensiero: la prima dovrebbe garantire la qualità a discapito della lentezza, la seconda promette velocità di diffusione senza fare troppo filtro sulla qualità.

Ecco perché io mi oppongo a una revisione all’acqua di rose da parte di Science: questa rivista fa parte della prima scuola di pensiero, ed è una delle migliori riviste al mondo. Il suo compito è pubblicare risultati forti e solidi, e se gli editor chiudono un occhio sulla robustezza dei risultati, allora viene meno l’unica cosa che possono offrire. A questo punto, meglio pubblicare su PLoS e lasciare che il Joe Pickrell di turno faccia immediatamente le sue rimostranze. Altrimenti cosa succede? Succede quello che è successo per l’articolo sul DNA ad arsenico, pubblicato a Dicembre prima di essere attaccato su tutti i fronti da decine di ricercatori. Anche in quell’occasione le critiche partirono da un blog, e soltanto oggi, dopo 6 mesi, Science le ha raccolte e pubblicate ufficialmente, conferendo loro un’aura di scientificità che evidentemente prima non avevano. E’ possibile, nell’era di internet, aspettare 6 mesi prima di conoscere l’opinione della comunità scientifica a proposito di un lavoro? Se si vuole accelerare la ricerca, bisogna passare dall’open-access. Oppure, se proprio si vuole restare vincolati al vecchio sistema, quantomeno pretendo che gli editor delle riviste pubblichino soltanto articoli con tutte le carte in regola, senza necessità di revisione post-pubblicazione. Ecco perché non sono d’accordo con il mio lettore Alberto, secondo il quale un risultato va pubblicato anche quando non è molto consistente, solo per portare la questione agli occhi dei ricercatori: questo, in un sistema di pubblicazione goffo e lento come quello della peer-review, non accelera la ricerca, ma al contrario rischia di rallentarla.

Dopo WikiLeaks arriva ScienceLeaks

Ho già parlato di Rosie Redfield su myGenomix. Beh, in realtà ne ha già parlato mezzo mondo. Si tratta infatti della microbiologa americana dal cui blog RRResearch partì il più grande attacco all’articolo sui batteri mangia-arsenico, pubblicato su Science il mese scorso. Allora la scienziata fece arrabbiare gli autori (Felisa Wolfe-Simon in primis), gli editor della rivista e addirittura la stessa NASA che aveva finanziato il progetto di ricerca. Questa volta, però, la Redfield ha voluto davvero esagerare.

Nel suo ultimo post, la microbiologa ha infatti da poco annunciato di avere aperto un nuovo blog ispirato a WikiLeaks, il sito guidato da Julian Assange che ha gettato lo scompiglio nei governi con le sue sconvolgenti rivelazioni. Il nome del blog, ScienceLeaks, dice molto sulle intenzioni della Redfield: rendere accessibili gratuitamente al pubblico articoli scientifici protetti dal paywall delle riviste, articoli che altrimenti potrebbero essere letti soltanto dietro un salatissimo pagamento (persino più di 30 dollari per un singolo articolo).

Chi lavora nell’ambito della ricerca sa che esiste un modo molto rapido ed efficace per ottenere articoli protetti: scrivere una mail a uno degli autori e chiedere il PDF. Generalmente, l’autore è ben felice di condividere il proprio lavoro con altri scienziati, anzi, spesso capita che gli articoli siano disponibili per il download sui siti personali degli stessi ricercatori. Il problema – scrive la Redfield – è che il grande pubblico non sa queste cose, e siccome la ricerca pubblica si fa grazie ai soldi dei cittadini, è giusto che questi ultimi possano valutare i frutti del loro “investimento”.

ScienceLeaks è un semplice blog, e come tale non si presta molto bene per un sistema di condivisione di articoli scientifici: in pratica, chi è interessato a un articolo scrive un commento con la richiesta, e qualcun’altro provvederà ad esaudirla. Da un punto di vista tecnico è un’idea che può sicuramente essere migliorata: dopotutto questo sito intende diventare una specie di PirateBay per la ricerca scientifica.

Leggendo i numerosi commenti che la Redfield ha ricevuto in seguito a questa iniziativa, ci si accorge che le opinioni in merito alla questione sono discordanti. Alcuni si limitano freddamente a informare la scienziata di una cosa ovvia, e cioè che con questo gesto andrà incontro a dei grossi guai con la giustizia: ScienceLeaks favorirebbe la circolazione di opere protette da diritto d’autore, un’attività perseguibile legalmente. Altri sostengono invece che un atto di disobbedienza sia moralmente deprecabile, ma necessario se si vuole cambiare le cose per una motivazione giusta.

GenoMIX #8 – Dicembre 2010

Il mese di Dicembre è stato segnato da alcune notizie veramente importanti, notizie che hanno coinvolto rispettivamente il mondo della scienza, della genetica umana e della blogosfera italiana. La prima è stata la scoperta, annunciata in grande stile dalla NASA, del famoso batterio californiano in grado di sostituire il fosforo con l’arsenico nella doppia elica del proprio DNA. Chi ha seguito un po’ i blog e i siti che parlano di scienza in queste settimane sa che questo articolo pubblicato su Science è stato aspramente criticato da diversi scienziati. Non solo, poiché le critiche sono arrivate tramite un canale alternativo quale sono considerati i blog, la cosa ha a sua volta scatenato una discussione su quale mezzo di comunicazione fosse il più adatto per parlare di scienza. Indirettamente, ci si è iniziati a fare anche qualche domanda sull’efficacia del sistema della peer-review per l’approvazione degli articoli scientifici.

Un altrettanto imponente dibattito si è aperto nel mondo della genetica umana quando il Bioscience Resource Project ha dichiarato, attraverso un articolo sul proprio sito internet, che le malattie comuni che affliggono l’umanità non hanno basi genetiche, ma sono solo il frutto dell’ambiente e del nostro stile di vita. Apriti cielo! Immediate sono arrivate le risposte dei principali commentatori del settore, in ordine di apparizione Mary Mangan, Luke Justins, Daniel MacArthur, Keith Grimaldi e Mary Carmichael. Tutti a difendere la roccaforte della genetica, e a cercare di spiegare ai negazionisti del DNA (soprannominati anche “deterministi ambientali”) che le malattie umane hanno – evidentemente – sia una componente ambientale sia una componente genetica.

Terza notizia, forse la più importante per i blog italiani che parlano di scienza, è l’introduzione della lingua italiana in Research Blogging, la piattaforma che unisce tutti i blog che commentano articoli scientifici peer-reviewed. D’ora in poi, previa iscrizione al sito, chiunque scriverà un post in cui discute una pubblicazione su rivista potrà fregiarsi dell’icona di Research Blogging e comparire nel database del conosciutissimo sito americano. Non so voi, ma io lo reputo un notevole passo in avanti per i blog italiani.

Research Blogging arriva in Italia!

Se leggete abitualmente blog in inglese, avrete già visto centinaia di volte questo simbolo: un foglio bianco con un angolo piegato e una “V” verde al centro. E’ il simbolo di Research Blogging, un sito web che funziona come un aggregatore di blog scientifici che commentano articoli peer-reviewed. Il foglio bianco, infatti, rappresenta un articolo scientifico che, dopo il processo noto come peer-review (revisione tra pari), riceve l’OK per la pubblicazione su una rivista come Nature, Science ecc. Da ieri sera, grazie soprattutto alla volontà e all’impegno di Peppe Liberti (il blogger di Rangle), questa famosissima piattaforma è ora disponibile in lingua italiana ed è pronta ad accogliere tutti quei blog che discutono di articoli peer-reviewed. Se ritenete di avere le carte in regola per partecipare (qui sotto trovate le linee guida tradotte da Peppe) non dovete far altro che andare su researchblogging.org e iscrivere il vostro blog. Uno tra me, Peppe Liberti e Amedeo Balbi di Keplero (siamo i tre editor italiani) approverà il vostro sito e potrete entrare a far parte del network, a cui partecipano già migliaia di blogger in tutto il mondo. Da quel momento, ogni volta che commenterete un articolo scientifico nel vostro blog, non dovrete far altro che collegarvi a Research Blogging e richiedere un codice da incollare nel vostro post. Forse non vi sembrerà una grande novità, ma secondo me è uno straordinario passo avanti per i blog scientifici italiani, che ora possono avvicinarsi ancora un po’ agli elevati standard internazionali. E mi auguro che questo sia solo l’inizio!

Linee Guida Per Usare Icona e Sito di Research Blogging

Le icone “Blogging on Peer-Reviewed Research” e l’aggregatore di ResearchBlogging.org sono dedicati a coloro i quali vogliono usarli per segnalare quando hanno scritto un post che analizza la ricerca soggetta a revisione paritaria e non un articolo di giornale o un comunicato stampa.

Questo post contiene le Linee Guida dettagliate per usare l’icona e l’aggregatore, basate su settimane di discussione che si sono svolte su ResearchBlogging.org.

  1. Le icone “Blogging on Peer-Reviewed Research” devono essere utilizzate esclusivamente per indicare singoli post che riguardano ricerca soggetta a revisione paritaria.
  2. Analogamente, quando un blogger è registrato su ResearchBlogging.org e usa il nostro sistema per generare una citazione per scopi di aggregazione sul nostro sito, questa citazione deve essere utilizzata unicamente per indicare i post che riguardano la ricerca soggetta a revisione paritaria che ad essa si riferiscono.
  3. Mentre non vi è alcuna definizione rigososa di “revisione paritaria”, la ricerca soggetta a revisione paritaria deve invece soddisfare le seguenti linee guida:
    • essere stata esaminata da esperti del settore
    • aver avuto approvazione editoriale
    • essere stata archiviata
    • essere stata pubblicata con gli standard di pubblicazione chiaramente definiti
    • essere ritenuta come degna di fiducia da parte degli esperti del campo
    • nel caso di alcuni archivi come arXiv.org, “l’intenzione” di sottoporre il lavoro a revisione può essere considerata come un requisito adeguato per la revisione paritaria
  4. I post che usano l’icona o il nostro codice dovrebbero offrire una citazione formale completa del lavoro (o dei lavori) oggetto di discussione
  5. L’autore del post dovrebbe aver letto e compreso l’intero lavoro che cita
  6. Il post dovrebbe esporre in maniera accurata ed analitica la ricerca che presenta
  7. Ove possibile, il post dovrebbe connettersi alla fonte originale e/o fornire il DOI o altri sistemi di numerazione universali.
  8. Il post dovrebbe contenere il lavoro originale dell’autore – pur se riportare il lavoro di altri è accettabile, gran parte del post dovrebbe contenere il contributo personale dell’autore
  9. Utilizzatori e lettori possono denunciare potenziali abusi dell’utilizzo delle icone e del sistema di aggregazione segnalando il post sul nostro sito. Gli abusi denunciati possono essere portati a conoscenza dei lettori e discussi pubblicamente online.
  10. Abusi ripetuti dell’utilizzo delle icone e del nostro sistema di aggregazione causeranno la rimozione dal nostro sistema di aggregazione.

Queste Linee Guida sono state create dalla comunità dei lettori di ResearchBlogging.org. Sono soggette a revisioni in corso d’opera.

Frequently Asked Questions

Posso mettere l’icona sui post più vecchi?
Si, ma non è una pratica incoraggiata.

L’icona può essere usata in post che criticano articoli peer-reviewed?
Si, quello che è importante è non travisare ciò che i lavori peer-reviewed affermano.

L’icona si usa solo per i lavori pubblicati di recente?
No, non c’è nessun “limite di età” per i lavori che possono essere commentati, l’unico requisito è quello che siano peer-reviewed.

L’utilizzo dell’icona è appropriato nei post che commentano libri pubblicati?
Anche i libri devono rispettare il punto 3 delle Linee Guida. Molti libri pubblicati da editori del grande circuito commerciale non sono “peer reviewed” ma in alcune discipline (per esempio in molti campi delle scienze umane) i libri sono considerati come il più importante standard di pubblicazione mentre in alcune aree scientifiche il libro è meno importante di un articolo pubblicato su una rivista. Citare i singoli capitoli, se recensiti, ha più senso che farlo per interi libri.

Bisogna limitarsi ad una sola fonte o si possono citare più lavori in un ìo stesso post?
Le citazioni multiple vanno benissimo. E’ importante però citare sempre solo gli articoli che vengono discussi in dettaglio.

Alcuni post riscrivono e sintetizzano articoli peer-reviewed. Come debbono essere considerati?
Anche questo può essere considerato un “lavoro originale dell’autore”, soprattutto se la riscrittura semplifica e chiarisce il lavoro citato. Ciò non esclude la possibilità di proporre per un articolo citato la rianalisi dei dati, la preparazione di nuovi grafici, video e dimostrazioni interattive o, addirittura, la possibiltà di fare effettivamente nuova ricerca.

C’era una volta Science

C’era un tempo in cui Science era, insieme a Nature, una delle riviste scientifiche più prestigiose e stimate. Per un ricercatore, riuscire a pubblicare su Science era come per un calciatore vincere la Coppa del Mondo: ne seguivano fama e una carriera sempre più brillante. A giudicare da quello a cui stiamo assistendo in questi mesi, invece, sembra che non sia più così. Science non è più garanzia di qualità. O meglio, pare che gli editor abbiano scelto di sacrificare il rigore scientifico per premiare la scoperta eclatante, quella con più chance di ricevere risonanza presso i media.

L’ultimo episodio riguarda proprio l’articolo pubblicato la scorsa settimana e sbandierato dalla NASA come la scoperta scientifica che avrebbe cambiato per sempre la ricerca di vita extraterrestre. Non intendo accusare i giornali per il fatto di avere usato un po’ troppo spesso e a sproposito la parola “alieno”, questo era anche lecito aspettarselo (la stampa ci ha abituato a imprecisioni ben più grossolane). Qui si parla della solidità scientifica del lavoro stesso, criticata duramente da moltissimi ricercatori, primi fra tutti i microbiologi Rosie Redfield e Alex Bradley.

I contestatori sono riusciti a dimostrare in modo piuttosto convincente che le conclusioni a cui sono arrivati gli autori dell’articolo sui batteri mangia-arsenico sono state tratte in modo troppo frettoloso. In pratica, gli scienziati non hanno eseguito sufficienti esperimenti per mostrare che l’arsenico si fosse realmente incorporato nel DNA dei batteri del lago Mono oggetto dello studio. Secondo i detrattori, è molto probabile che i microrganismi non abbiano sostituito il fosforo con l’arsenico, come sostenuto dagli autori, ma che l’arsenico fosse semplicemente localizzato vicino al DNA. Per sciogliere ogni dubbio, sarebbe bastato mettere il DNA in acqua: un DNA contenente arsenico avrebbe dovuto sfaldarsi rapidamente, al contrario di uno basato sul fosforo. Uno potrebbe dire che il DNA non poteva contenere fosforo perché ce n’era troppo poco nel mezzo di coltura utilizzato, ma anche questa affermazione è stata contestata: Max Bradley ci ricorda che i batteri che vivono nel mar dei Sargassi possono contare su quantità molto più basse di fosforo, eppure riescono comunque a mantenere un DNA basato sul fosforo. Insomma, come dice Rosie Redfield, pare che gli autori del lavoro non abbiano fatto tutti gli esperimenti necessari per validare o meno le loro conclusioni, ma soltanto quelli che gli facevano comodo.

La NASA, che ha finanziato la ricerca, ci tiene ovviamente a fare una bella figura in questa storia e non ha preso molto bene queste critiche. Un suo portavoce ha dichiarato che non accetta contestazioni pubblicate su blog e siti internet, ma solo comunicazioni ufficiali su riviste scientifiche, che siano sottoposte cioè alla stessa revisione che ha subito il loro articolo. Non voglio entrare nel merito della questione, quella che voglio fare è semplicemente una domanda: possiamo ancora fidarci di Science? Ricordate la storia dei geni dei centenari, pubblicata quest’estate? Anche in quel caso arrivarono feroci contestazioni alla metodologia utilizzata, e anche in quel caso la rivista era Science. E se non possiamo fidarci di una delle riviste più prestigiose del mondo, allora di chi ci possiamo fidare?

Altri link: