Tumori, il ruolo del caso e l’importanza della prevenzione

Il cancro è una malattia del DNA. Sono le mutazioni genetiche che si accumulano nelle nostre cellule, infatti, a scatenare il processo che le trasforma in cellule tumorali. Stiamo parlando in particolare di alcune mutazioni, le driver mutations, che, colpendo geni chiave legati al ciclo cellulare, compromettono i meccanismi che regolano la proliferazione e inducono le nostre cellule a moltiplicarsi in modo incontrollato.

Se questo è un fatto ormai noto e consolidato all’interno della comunità scientifica, più complicato è stabilire l’origine di queste mutazioni. L’argomento è ancora oggetto di dibattito, come dimostrano le polemiche delle ultime settimane. Ad accendere la discussione è stato un articolo pubblicato recentemente su Science e firmato dal matematico Cristian Tomasetti, professore presso la prestigiosa Johns Hopkins University School of Medicine, insieme ai colleghi Lu Li e Bert Vogelstein.

Tomasetti aveva destato scalpore già nel 2015, quando annunciò, sempre dalle pagine di Science, che gran parte delle mutazioni responsabili del cancro hanno in realtà un’origine casuale. Le conclusioni del suo lavoro non furono accolte benissimo dalla comunità scientifica, e se ne comprende il motivo: con il suo studio, Tomasetti aveva messo in crisi il concetto stesso di prevenzione, lasciando intendere che il cancro fosse un prodotto del caso e che quindi non fosse possibile prevenirlo. La pubblicazione che aveva fatto saltare sulla sedia migliaia di medici e ricercatori in tutto il mondo, però, aveva dei difetti, non ultimo quelle di essere basata esclusivamente su dati relativi alla popolazione americana.

Quest’anno il team di Tomasetti è tornato all’attacco, allargando lo sguardo a 69 Paesi e a diversi tipo di cancro. Le conclusioni del primo articolo reggono ancora: due mutazioni su tre sono dovute al caso. Prima di allarmarsi, però, è bene fare un passo indietro e capire che cosa esattamente hanno fatto gli autori dello studio, e in che modo sono arrivati a calcolare quel rapporto.

13-02-27-spielbank-wiesbaden-by-RalfR-093

Nel DNA le mutazioni possono dipendere da tre fattori: l’ambiente, l’ereditarietà e il caso. Tutti i discorsi sulla prevenzione si basano sull’identificazione dei fattori ambientali che aumentano il rischio di cancro, come il fumo di sigaretta per il cancro al polmone o i raggi ultravioletti per il melanoma. Anche la seconda componente, l’ereditarietà, è molto studiata, basti pensare alle mutazioni nei geni BRCA che predispongono al tumore al seno.

Forse se ne parla meno, ma la componente casuale è anch’essa molto importante. Ogni volta che una cellula si divide, si verificano mediamente 3 mutazioni, non a causa di qualche fattore esterno, ma semplicemente perché il macchinario molecolare deputato alla replicazione del DNA, pur essendo molto efficiente, non è perfetto, e qualche volta sbaglia. Intendiamoci, 3 errori in un testo di 6,5 miliardi di caratteri (tali sono le dimensioni del genoma umano, considerando sia il corredo paterno sia il corredo materno) sono davvero molto pochi; quando le divisioni cellulari sono parecchie, però, la statistica gioca contro, e anche una performance eccellente come questa può lasciare dietro di sé un numero considerevole di mutazioni. A soffrire di più, da questo punto di vista, sono ovviamente i tessuti dove le divisioni cellulari sono più frequenti.

A seconda della propria origine, una mutazione può quindi essere assegnata a una delle tre categorie sopra indicate: mutazioni indotte da fattori ambientali, mutazioni ereditate dai genitori, mutazioni introdotte casualmente durante la replicazione del DNA. Per quantificare l’importanza relativa di ciascuna tipologia nella genesi del cancro, il team di Tomasetti ha utilizzato i dati IARC relativi alle incidenze dei tumori nei 69 Paesi considerati, insieme ai dati sulle cellule staminali, disponibili per 17 tessuti diversi. Quest’ultima informazione serve proprio a stimare l’impatto del caso sull’incidenza dei tumori nella popolazione, poiché le staminali sono le cellule che, dividendosi, producono le mutazioni del terzo tipo descritte in precedenza. La correlazione tra il numero di divisioni cellulari in un tessuto e il rischio di cancro varia leggermente da Paese a Paese, ma nella quasi totalità dei casi si rivela essere superiore al 70%. Si tratta di un risultato molto forte e statisticamente significativo, che suggerisce un impatto rilevante della componente casuale nell’insorgenza dei tumori.

Analizzando i dati epidemiologici e le mutazioni rilevate nei tumori con il sequenziamento del genoma, Tomasetti e colleghi giungono alla conclusione che, mediamente, soltanto il 29% delle mutazioni driver sono indotte da fattori ambientali, il 5% sono ereditate, mentre il restante 66% sono legate alla replicazione cellulare. In altre parole, sono dovute al caso. Ovviamente, stiamo parlando di valori medi: di fatto, come illustrato nell’istogramma seguente, ogni tumore fa storia a sé. Per ognuno dei 27 tumori riportati nel database del Cancer Research UK, i ricercatori hanno calcolato la quota di mutazioni attribuibili a fattori ambientali o ereditari, assegnando al caso la quota rimanente.

Le mutazioni dell’osteosarcoma, nella parte sinistra del grafico, sono per la quasi totalità errori casuali introdotti durante la replicazione del DNA, così come quelle dei tumori ai testicoli e al cervello. Ovviamente, come sempre accade nella scienza, si tratta di stime basate sulle conoscenze disponibili attualmente: poiché la quota di mutazioni “casuali” è assegnata semplicemente per differenza, essa sarà necessariamente rivista al ribasso qualora emergessero nuovi fattori ambientali rilevanti per questi tumori. A destra troviamo invece quei tumori in cui il caso ha un ruolo minoritario, come il melanoma o il cancro ai polmoni: in questi casi i fattori ambientali sono più che sufficienti a spiegare la maggior parte delle mutazioni. Al centro del grafico, i tumori con caratteristiche intermedie.

tumore_caso

Gli autori dell’articolo pubblicato su Science sono perfettamente consapevoli del peso delle loro affermazioni, e memori delle reazioni suscitate con il primo lavoro del 2015 sottolineano più volte una cosa molto importante: dire che il 66% delle mutazioni nel cancro sono imputabili al caso non significa sostenere che il 66% dei casi di tumore sia dovuto al caso. Le due cose sono ben diverse! Per esplicitare meglio questa distinzione, Tomasetti e colleghi ricorrono a un espediente suggestivo e un po’ fantascientifico.

Immaginiamo di prendere un gruppo di persone con un DNA “perfetto”, privo di qualunque mutazione associata al cancro, e di trasferirle su un altro pianeta, dove anche l’ambiente è perfettamente sano. Niente fumo, niente inquinamento, niente raggi UV che favoriscono l’insorgenza di mutazioni. In un contesto del genere, tutte le mutazioni sono dovute a errori nella replicazione del DNA, cioè sono attribuibili al caso. Supponiamo ora che ad un certo punto appaia sul pianeta un potentissimo agente mutageno che aumenta drasticamente il rischio di cancro: in questa nuova situazione, il 90% dei casi di tumore sono ora direttamente legati all’introduzione del mutageno, e sarebbe possibile prevenirli semplicemente evitando l’esposizione ad esso. Tuttavia, se si contano le mutazioni da esso provocate, si scopre che la percentuale sul totale delle mutazioni è molto più bassa del 90%. Nell’esempio della figura qui sotto (pannello A), è pari al 60% (sono i pallini in grigio).

Questa discrepanza è dovuta al fatto che un tumore, per manifestarsi, necessita di più mutazioni: alcune saranno di origine ambientale, altre di origine casuale. In questo scenario, il 40% delle mutazioni sono dovute al caso (pallini in giallo), ma sono solo due i pazienti dove i pallini sono tutti gialli: significa che in tutti gli altri casi (il 90% dei pazienti, come si diceva più sopra) è possibile prevenire il cancro evitando l’esposizione all’agente mutageno. Lo scenario di fantasia illustrato non è molto lontano da quello che accade nella realtà con alcuni tipi di tumore con una forte componente ambientale e una componente ereditaria trascurabile, come l’adenocarcinoma del polmone (pannello B della figura): studi epidemiologici hanno dimostrato che il 90% dei tumori si può prevenire, e che il fumo è il fattore di rischio principale per questo tipo di cancro. Ogni tumore è un caso a parte, come abbiamo visto, ma il principio resta valido: pure nel caso estremo in cui la maggior parte delle mutazioni sia dovuta al caso, questo non implica necessariamente che la prevenzione sia inutile.

panelA_B

Il caso gioca un ruolo importante nelle nostre vite, a volte determina persino il lavoro che faremo, la persona che sposeremo o le malattie di cui ci ammaleremo. La casualità è sotto i nostri occhi in ogni momento delle nostre giornate, anche se non ce ne rendiamo conto. Quando la notiamo, poi, le diamo significati che non ha: parliamo di cattiva sorte, di destino, a volte ci ritroviamo a pensare che in fondo è già tutto scritto. Curiosamente, nella comunità scientifica spesso si riscontra l’atteggiamento opposto, quello di chi cerca una spiegazione meccanicistica a qualunque fenomeno, e si ribella con forza davanti ad articoli come quello di Tomasetti. Sono entrambi approcci sbagliati, a mio parere: accettare l’esistenza del caso non significa rassegnarsi al fatalismo, anzi, rappresenta il primo passo per conoscerlo, capire in che modo influenza la nostra vita e infine tentare di contrastarlo. Tornando al tema dell’articolo, questo discorso si traduce in una strategia duplice: da un lato, adottare uno stile di vita sano per evitare i tumori con una forte componente ambientale; dall’altro, sfuggire ai tumori con una forte componente casuale attraverso la diagnosi precoce. Non so se fare i conti con la casualità sia il modo migliore per affrontare la vita, di sicuro sembra essere un modo efficace per prendersi cura della propria salute.

 

 

 

La meningite in Toscana (e perché non viene dall’Africa)

Chi ha portato la meningite in Toscana? Nelle ultime settimane se ne è parlato moltissimo sui social network. A volte in modo pacato, altre volte con toni molto accesi, in ogni caso non sempre con la necessaria precisione. Se avete seguito il dibattito, è possibile che vi siate già fatti la vostra idea sull’argomento, ma forse alcuni di voi sono ancora confusi. Chi ha un minimo di dimestichezza con i social sa che le discussioni online sono spesso difficili da seguire, e in mezzo al caotico inseguirsi dei commenti e dei “mi piace” capita che alla fine non si riesca più a distinguere i fatti dalle opinioni. Lo scopo di questo post è cercare di rispondere, dati alla mano, alla domanda di partenza, evidenziando alcuni aspetti che nei dibattiti di questi giorni sono stati trascurati. Se avrete la pazienza di leggere fino in fondo, forse imparerete anche voi, come me, qualcosa di nuovo e interessante (anche nel caso in cui una risposta ce l’abbiate già).

La meningite è un’infiammazione delle meningi, cioè le membrane che rivestono e proteggono il cervello e il midollo spinale. Ne esistono forme lievi, come quelle di origine virale, e forme più gravi e addirittura letali, perlopiù batteriche. Sono diversi i batteri in grado di causare la meningite. I principali sono Neisseria meningitis (meningococco), Streptococcus pneumoniae (pneumococco) e Haemophilus influenzae (emofilo) di tipo B. Fino agli anni 90, era quest’ultimo a causare la maggior parte dei casi di meningite nei bambini con meno di cinque anni, ma in seguito all’introduzione del vaccino esavalente i numeri si sono notevolmente ridotti. Al giorno d’oggi, la maggior parte delle meningiti in Italia sono da pneumococco, mentre le meningiti da meningocco sono più rare. I casi di meningite riscontrati in Toscana negli ultimi due anni appartengono a quest’ultima categoria, e destano particolare preoccupazione perché si stanno presentando in numero più alto rispetto ai casi registrati in questa regione negli anni precedenti. Al fine di sgombrare subito il campo da ogni dubbio, in Italia non esiste nessuna epidemia di meningite: a livello nazionale, infatti, i numeri sono in linea con quelli rilevati in passato (1479 nel 2014, 1815 nel 2015, 1376 nel 2016). L’anomalia riguarda esclusivamente la regione Toscana, per la quale si può parlare, tecnicamente, di focolai epidemici. La peculiare situazione toscana è ben illustrata da questa figura, che riporta l’incidenza del meningococco come numero di casi su 100000 abitanti (figura estratta da Stefanelli et al, 2016). Nello specifico, il batterio coinvolto in questo caso è un meningococco di tipo C.

toscana

Il meningococco Neisseria meningitis, infatti, può essere classificato in diversi sierogruppi, a seconda delle molecole (antigeni) che il batterio presenta sulla sua capsula polisaccaridica, cioè il rivestimento esterno protettivo che è considerato il suo maggiore fattore di virulenza. L’identificazione degli antigeni presenti sulla capsula del batterio può essere fatta con tecniche standard di microbiologia come i saggi di agglutinazione, dove si usano vari anticorpi per “sondare” la superficie della cellula batterica, oppure tramite PCR, in cui si sequenziano direttamente i geni della capsula. I sierogruppi in grado di causare epidemie sono A, B, C, X, Y, W. Ognuno di questi ha una diffusione geografica caratteristica: in Italia, ad esempio, prevalgono il tipo B e il tipo C. Lo evidenzia molto bene la tabella seguente, estratta dagli ultimi dati di sorveglianza sulle malattie batteriche invasive (aggiornati a novembre 2016). Si nota, tra l’altro, il sorpasso del sierogruppo C sul B, avvenuto nel 2015 in concomitanza con l’anomalia toscana.

sorveglianza

L’identificazione del sierogruppo è sicuramente un passaggio fondamentale, utilissimo ad esempio per capire quale vaccino utilizzare per arrestare eventuali epidemie. Possiamo però fare molto di più: un ceppo di meningococco, infatti, può anche essere classificato in modo più preciso grazie a una tecnica molto usata in microbiologia, il sequenziamento MLST (Multi Locus Sequence Typing). In pratica, si vanno a sequenziare delle piccole porzioni di sette diversi geni, che nell’insieme forniscono una sorta di identikit del ceppo batterico. Una classificazione così fine permette di monitorare in modo molto preciso la diffusione di un patogeno, e in alcuni casi di ipotizzarne la sua origine geografica. Proprio grazie alla tecnica MLST è stato possibile identificare con precisione il ceppo responsabile dei casi di meningite in Toscana: si tratta di ST-11, un ceppo batterico che circola in Europa ormai da diversi anni.

Sembrerà incredibile, ma le discussioni che in questi giorni hanno infiammato i social network ruotavano attorno a questo concetto molto tecnico dei ceppi batterici. Una questione per addetti ai lavori, si direbbe, ma che in questa circostanza ha provocato accesi dibattiti e che alla fine si è allargata, commento dopo commento, fino a trasformarsi nell’eterna domanda: la scienza è democratica? Tranquilli, non parlerò di questo argomento, altri più competenti di me lo hanno già fatto e rischierei solo di annoiarvi. Quello che mi preme sottolineare è il vero motivo per cui gli immigrati africani non possono essere ritenuti in alcun modo responsabili dei casi di meningite che si sono verificati in Toscana, una tesi che è circolata per diversi giorni in rete, ma – come vedremo – priva di ogni fondamento. Alcuni esperti, tra cui il noto medico Roberto Burioni, hanno tentato subito di smontare questa teoria, affermando sostanzialmente che gli immigrati non c’entrano nulla con questa storia perché il sierogruppo C (responsabile dei casi in Toscana) non è fra quelli diffusi in Africa. Per molti queste parole hanno chiuso definitivamente la questione, e la verità unanimemente accettata da giornali e TV è diventata questa: il meningococco C in Africa non esiste. Il problema è che, forse per esigenze di semplificazione, gli esperti avevano omesso un’informazione importante, che essendo reperibile in rete su siti affidabili come quello dell’OMS è venuta inevitabilmente a galla senza timore di essere smentita: il meningococco C, in Africa, esiste eccome. In particolare, secondo un bollettino dell’OMS, il meningococco di tipo C è stato, nel 2015, la prima causa di meningite batterica nella cosiddetta “meningitis belt”, ossia la fascia di Paesi subsahariani che va dal Senegal all’Etiopia. Fino a qualche anno fa, come dimostra il grafico seguente (preso dal sito dell’OMS), il meningococco A era il sierogruppo dominante nell’Africa subsahariana, mentre il tipo C era praticamente inesistente, esattamente come si diceva all’inizio. Nel 2010, però, è partita una vaccinazione di massa per il meningococco A che ha modificato radicalmente il panorama della meningite in Africa: il meningococco A (in rosso) è progressivamente scomparso (sì, perché i vaccini funzionano!), lasciando il posto ad altri sierogruppi come il W (in blu), o alle meningiti da pneumococco (in verde). L’anomalia del 2015 è dovuta essenzialmente a grandi epidemie avvenute in Niger e in Nigeria, che hanno fatto salire alle stelle le statistiche del meningococco C (nel grafico in azzurro).

meningite

I numeri sono inequivocabili, comprensibile quindi che a molti sia venuto il dubbio: ma siamo proprio sicuri che i migranti non c’entrino nulla? Ebbene, la risposta ancora una volta è sì: i migranti non c’entrano nulla. E non perché il tipo C in Africa non esista, ma perché il meningococco C africano è completamente diverso da quello toscano. La risposta che cerchiamo, infatti, ce la fornisce la classificazione fine, quella ottenuta con la tecnica MLST: mentre il ceppo toscano è denominato ST-11, il ceppo responsabile delle grandi epidemie africane del 2015 è stato chiamato ST-10217 ed è un ceppo completamente nuovo, mai rilevato in precedenza. Stiamo parlando quindi sempre di meningite, e sempre da meningococco di tipo C; quando si va a guardare l’identikit più preciso, però, risulta evidente che siamo di fronte a due ceppi batterici differenti. Questi casi di meningite, meglio ripeterlo ancora una volta, non hanno nessuna relazione con le epidemie africane.

L’epidemiologia è una faccenda complicata. I batteri si spostano insieme a noi: salgono sui barconi dei migranti e sugli aerei dei turisti, si moltiplicano sui treni del mattino affollati di pendolari, e a volte – come nel caso del meningococco – viaggiano in incognito, trasportati da inconsapevoli portatori sani. Come spesso accade, per conoscere la verità tocca andare in fondo alle questioni. È un processo faticoso che a volte ti porta ad affrontare questioni tecniche molto complesse e ti costringe a mettere in discussione i tuoi preconcetti, ma alla fine ne vale la pena.

 


 

Ringrazio Roberta Villa, Riccardo Gallina e il professor Pier Luigi Lopalco per i preziosi suggerimenti, le informazioni e i link che hanno condiviso con me.

Informazioni generali sulla meningite:

Risorse utili sulla situazione italiana:

Risorse utili sulla situazione africana:

 

Dialogo sulla complessità

qpkoap2quxts6eftkrs5“Hai visto la pubblicità a favore dell’olio di palma? Accidenti, ci vuole un bel coraggio, eh?”

“In che senso?”

“Ci stanno vendendo un veleno e hanno addirittura la faccia tosta di spiattellarcelo in faccia, nemmeno la dignità di nasconderlo!”

“Non esagerare, veleno addirittura?”

“Ma certo, l’olio di palma provoca il cancro, il diabete, e non so cos’altro. Ma dove sei stato negli ultimi mesi? Le merendine e i dolci che compri al supermercato sono tutti pieni di questa schifezza.”

“Ne sei sicuro? No, perché l’Istituto Superiore di Sanità ha appena pubblicato un rapporto in cui si dice che non è vero niente.”

“Certo, allora è stato alzato tutto questo polverone per nulla? Stai a vedere che ora l’olio di palma è diventato un prodotto nutriente e salutare! Magari inizieranno a venderlo anche in farmacia.”

“Un attimo, non passare da un estremo all’altro. L’olio di palma non è certo la cosa più salutare al mondo, ma non è nemmeno un veleno. Il problema dell’olio di palma è che è ricco di grassi saturi, se ne assumi troppi aumenta il rischio di malattie cardiovascolari.”

“Vedi allora che fa male? Bisognerebbe boicottare le aziende che ne fanno uso, così magari inizierebbero a usare ingredienti più sani.”

“Beh, fa male come tutti i cibi che contengono grassi saturi. Se la mettiamo su questo piano, il burro fa malissimo! Eppure non vedo in giro campagne allarmistiche contro il burro.”

“Va beh, che c’entra, basta non esagerare.”

“Appunto! Basta non esagerare. Le calorie derivanti da grassi saturi devono essere meno del 10% rispetto alle calorie giornaliere totali, che arrivino dall’olio di palma, dal burro, dal latte o da qualsiasi altro cibo. Questo dicono i medici.”

“Mmm. E va bene. Ma la sostenibilità dell’olio di palma dove la metti? Ho sentito che nel sudest asiatico stanno bruciando le foreste per coltivarci le palme. Non ti interessa la salvaguardia dell’ambiente?”

“Veramente l’olio di palma è quello con la resa più alta: significa che serve meno terreno per produrre la stessa quantità di olio. La colza e il girasole hanno una resa di 5-6 volte più bassa! Cosa succederebbe se le aziende fossero costrette a smettere di coltivare palme da olio? Chissà, magari inizierebbero a coltivare colza o girasole, e per le tue amate foreste sarebbe molto peggio!”

“In effetti hai ragione. Ma cosa ne so io di cosa combinano nel sudest asiatico? Mica voglio incentivare i disboscamenti.”

“Per questo esiste una certificazione apposita, la RSPO. Se vai sul loro sito trovi tutti i nomi delle aziende che coltivano palma da olio in modo sostenibile, e i produttori che lo usano. Persino il WWF ne ha parlato bene!”

“Sarà.. Certo che di quello che gira intorno all’agricoltura ne sappiamo proprio poco, eh? Ad esempio, quella storia degli ulivi pugliesi! Li stanno bruciando perché c’è un batterio che li fa ammalare e vogliono fermare l’epidemia. In realtà, questo è quello che vogliono farci credere. La Procura ha messo sotto sequestro gli ulivi, pare che non sia il batterio la causa della malattia. E ci sono pure dei ricercatori indagati!”

“Ah sì, la Xylella. Perché dici che non è il batterio la causa dell’epidemia?”

“Dicono che in Puglia ci siano nove ceppi diversi di questo batterio! Vuol dire che è lì da chissà quanti anni, ormai si è adattato. Non può essere quella la causa!”

“Forse non sei aggiornato sulle ultime novità. Il CNR di Bari ha appena pubblicato uno studio che dimostra che il ceppo di Xylella è in realtà uno solo: hanno prelevato campioni un po’ ovunque, e tutti rimandano a un unico ceppo insediatosi nel Salento e proveniente dal Costarica.”

“Ok ma questo non dimostra che il colpevole sia per forza Xylella.”

“No, è vero. In effetti nessuno ha ancora dimostrato in modo inequivocabile che sia il batterio a provocare la malattia degli ulivi, anche se molti indizi lasciano pensare che sia proprio così. (*)”

“Vedi? Stiamo devastando l’economia della Puglia senza neanche conoscere la causa della malattia!”

“Beh, vedila in un altro modo. Se non eliminiamo le piante infette, e il responsabile fosse davvero il batterio, l’epidemia si diffonderà sempre più velocemente. Rischiamo di devastare l’economia italiana ed europea, non solo quella pugliese! Nel dubbio, meglio non rischiare. Non credi?”

“Effettivamente.. Ma nulla mi toglie dalla testa che dietro ci sia lo zampino di Monsanto. A proposito, che ne pensi degli OGM?”

“Quali OGM?”

“Come quali OGM? Quelli che fa Monsanto, no? Quelli che hanno i semi sterili, che bisogna pagare i brevetti e i contadini indiani si ammazzano.”

“Aspetta, aspetta. Una cosa alla volta. Gli OGM non sono sterili, questa è una vecchia leggenda senza fondamento. Ci sono gli ibridi come il mais i cui semi devono essere ricomprati ogni volta per avere le stesse caratteristiche, ma questo non c’entra con gli OGM: è un problema di tutti gli ibridi, OGM e non OGM. E anche quella storia dei contadini indiani, è una bufala. Sui brevetti invece hai ragione, ma non è un problema che riguarda solo gli OGM. Tutte le nuove varietà possono essere tutelate e protette come proprietà intellettuale, cerca su Google “mela Pink Lady”. Se sei contro i brevetti, va bene, ne parliamo. Ma è un altro discorso, con gli OGM non c’entra.”

“Sì ma lo studio che dice che gli OGM provocano il cancro non l’hai letto?”

“Quello di Séralini? Maddai, è stato ritirato da un pezzo. Aveva fatto un sacco di errori sperimentali, giusto per dimostrare che gli OGM erano pericolosi e per promuovere il documentario che sarebbe uscito dopo la pubblicazione dell’articolo.”

“Sì, ma finché non dimostrano che gli OGM sono sicuri io non mi fido.”

“Gli americani li mangiano da vent’anni e non hanno mai avuto problemi. Comunque qui il punto è un altro: non sono “gli” OGM a essere sicuri o non sicuri, bisogna valutare ogni singolo OGM! In Europa lo fa l’EFSA, e quelli autorizzati a livello europeo sono molto pochi. Per questo ti ho chiesto quali OGM poco fa: esistono un sacco di OGM diversi, ognuno con caratteristiche diverse.”

“Sì, ma – guarda caso! – sono venduti tutti dalle grandi multinazionali. Dai, è solo un grande business!”

“Forse ti stupirà sapere che anche la ricerca pubblica italiana ha lavorato sugli OGM, e non per fare enormi distese di monocolture che danneggiano la biodiversità. No, lo scopo era salvare i nostri prodotti tipici, come il pomodoro San Marzano o il riso Carnaroli. Leggi il libro Contro Natura, di Bressanini/Mautino, scoprirai tante cose interessanti! Se non hai tempo va bene anche questa puntata di Presa Diretta.”

“E perché non sono in commercio tutti questi prodotti?”

“Per due motivi. Primo, l’EFSA chiede un sacco di controlli per dare il via libera a un nuovo OGM. Questi controlli costano, e solo le multinazionali possono permettersi di farli. Il secondo motivo, che riguarda in particolare l’Italia, è molto semplice: qui non si può fare ricerca in campo aperto, è vietato per legge. Ma se non puoi fare ricerca, come puoi capire se un OGM è sicuro oppure no? Che peccato, vero? Pensare che potremmo anche ridurre l’uso di pesticidi, grazie alle colture OGM!”

“A proposito di pesticidi, ho sentito che in Italia usano un erbicida che provoca il cancro, il glifosato. Dovrebbe essere vietato! Che infami, ci stanno avvelenando.”

“Ehm. Un momento. Che il glifosato sia probabilmente cancerogeno lo ha detto l’OMS, ma l’EFSA non è d’accordo. Ma anche se lo fosse, sai che anche la carne rossa è probabilmente cancerogena? E quindi dovremmo forse vietarla?”

“Sì, va beh, che c’entra? Dipende da quanta ne mangi. Se segui una dieta equilibrata non c’è pericolo!”

“Appunto, il rischio – se esiste – dipende dalla dose! Se vale per la carne, perché non deve valere per il glifosato?”

“Sì ok, ma che ti costa eliminare il glifosato? Almeno siamo più tranquilli, no?”

“Ti darei ragione se avessimo un altro diserbante più sicuro e altrettanto efficace. Ma al momento non esiste, a sentire gli agricoltori! Vuoi strappare le erbacce a mano?”

“Ok, ok. Ma non voglio veleni in quello che mangio! Ho letto che hanno trovato glifosato in diverse marche di birra. Dovrebbero aumentare i controlli!”

“Su questo siamo d’accordo! Infatti bisogna stabilire delle soglie di sicurezza e soprattutto farle rispettare, non vietare l’uso del glifosato! Vedo che finalmente stai iniziando a ragionare. Sono questioni complesse, non si può cavarsela con un sì o con un no. Ogni nostra scelta ha delle conseguenze di cui dobbiamo tenere conto. Che succede se vieto la ricerca pubblica sugli OGM? Che le multinazionali si arricchiscono. Se tolgo il glifosato dal commercio verrà sostituito da un altro erbicida, magari più pericoloso. Se boicotto l’olio di palma sostituiranno le palme con qualcos’altro di meno redditizio, e le foreste spariranno più velocemente. Se non elimino gli ulivi malati, rischio di peggiorare l’epidemia di Xylella. Non dare retta a chi ti vende verità semplici, non ti fidare degli slogan.”

“E va bene. Mi hai quasi convinto. Quasi. Ma tu comunque non mi piaci, non mi piaci per niente. Per me nascondi qualcosa. Chi ti paga?”

*Il rapporto di causalità tra Xylella e malattia degli ulivi è stato confermato da uno studio dell’EFSA pubblicato il 22 marzo 2016.

L’editoria scientifica è malata

Quando ero studente di dottorato mi capitava, con una certa frequenza, di partecipare in qualità di revisore al processo di peer review. Si tratta del meccanismo di controllo che dovrebbe garantire, per quanto possibile, la qualità degli articoli pubblicati sulle riviste specializzate. Potrebbe sorprendere qualcuno scoprire che un giovane dottorando privo di esperienza accademica sia ritenuto degno di valutare il lavoro proposto da ricercatori più affermati di lui, e anche a me sembrava bizzarro in un primo momento. Se l’argomento è molto di nicchia, però, gli autori che hanno pubblicato su di esso e che quindi sono riconosciuti come esperti in materia possono essere molto pochi. Penso fosse questo il mio caso: leggendo la letteratura scientifica per il mio progetto di tesi, mi rendevo conto che gli autori degli articoli sui microRNA delle piante erano una comunità molto ristretta, della quale anche io ero evidentemente entrato a far parte. Mi è bastato pubblicare un paio di lavori per farmi conoscere ed entrare nel club dei potenziali reviewers. Non credo affatto di essere stato un privilegiato, penso piuttosto che questo fenomeno sia più frequente di quanto si pensi: una parte dei lavori pubblicati nella letteratura scientifica sono stati sicuramente controllati da giovani ricercatori alle prime armi, carichi di entusiasmo e amore per la scienza ma certamente privi di esperienza. Alla luce delle recenti notizie sul caso Infascelli, il professore dell’Università di Napoli accusato di aver manipolato i risultati dei propri esperimenti per sostenere la pericolosità degli OGM, il controllo preventivo della qualità delle pubblicazioni diventa ancora più essenziale. Ma se ogni anno decine di articoli vengono ritirati (per frode e non solo), la colpa non può essere solo di qualche giovanotto disattento. La peer review ha, secondo me, un problema evidente che pochissimi si azzardano a sottolineare: è gratuita.

Pensate alle case editrici che tutti conosciamo, quelle che pubblicano romanzi. In questo caso, l’autore di un romanzo sottopone un proprio testo all’editore, il quale, se lo ritiene opportuno, lo mette in vendita e trasferisce una parte dei ricavi (piccola a piacere) allo scrittore. In regime di piena concorrenza, se il prezzo è troppo alto il libro non venderà; allo stesso modo, se le commissioni per l’autore sono troppo piccole, lo scrittore sottoporrà la sua proposta a un’altra casa editrice. Bene, nell’editoria scientifica non funziona così. I ricercatori la mettono raramente in discussione: si fa così perché si è sempre fatto così. Ma per un osservatore esterno questo sistema appare completamente folle. Vediamo di che si tratta.

academic_publishing

I soggetti coinvolti nel processo sono tre: gli editori delle riviste, le università e ovviamente la comunità scientifica. All’interno di quest’ultima convivono tre figure diverse che spesso però vengono a coincidere: i lettori degli articoli scientifici, gli autori degli stessi e i revisori. A differenza dell’autore di romanzi, il nostro bravo scienziato sottoporrà un articolo a un editore senza alcuna pretesa di guadagnarci qualcosa. La rivista a questo punto inizia il processo di peer review, e per accertarsi di non pubblicare castronerie si rivolge ancora una volta alla comunità scientifica. Una volta individuati due o tre esperti sull’argomento, questi saranno contattati e invitati a revisionare il manoscritto. Qualora accettassero, questi generosi ricercatori controlleranno che le conclusioni del lavoro siano supportate dai dati, che non ci siano evidenti errori di metodo e che tutta la letteratura pregressa sia stata adeguatamente presa in considerazione dagli autori. Tutto questo lavoro è offerto gratuitamente: le proprie competenze, il proprio tempo e le proprie energie sono donati alla casa editrice per puro amore della scienza. Tenetevi forte perché ora arriviamo alla beffa finale: la casa editrice, dopo aver pubblicato il lavoro revisionato non permette a chiunque di leggerlo, ma solo agli abbonati. Ed è qui che interviene l’università, costretta a pagare prezzi salatissimi per permettere ai suoi ricercatori di leggere i lavori che spesso hanno scritto loro stessi. A fronte di un contributo minimo e di limitate spese di gestione (in particolare per le riviste elettroniche), le case editrici sono in grado di fare degli utili elevatissimi; anzi, sono libere di prosciugare le già scarse risorse delle università alzando i prezzi a proprio piacimento, consapevoli che queste continueranno comunque a pagare. Come è possibile che un meccanismo tanto perverso possa reggersi in piedi? La risposta è semplice: il sistema del publish or perish (“pubblica o sei fuori”) azzera il potere di trattativa dei ricercatori, costretti a pubblicare su riviste prestigiose e carissime, pena la fine della propria carriera. Un problema serissimo, esacerbato dal fatto che l’editoria scientifica è in realtà un oligopolio di pochi grandi editori, che controllano le riviste che contano: in altre parole, non c’è reale concorrenza. Ma perché un ricercatore dovrebbe accettare di revisionare un articolo gratuitamente? Perché il lavoro di reviewer finisce anch’esso nel curriculum, e perché forse ci si illude che, entrando nelle grazie dell’editore, sia più facile pubblicare qualcosa su una delle sue riviste. Intendiamoci, alcuni ricercatori rifiutano: spesso sono i più impegnati e i più bravi a farlo, ma questo comporta uno slittamento dell’onere sui ricercatori più giovani e meno qualificati, a tutto detrimento della qualità della revisione.

Negli ultimi anni le riviste Open Access hanno cercato di cambiare le cose, sfruttando un modello diverso in cui a pagare non sono più i lettori (tramite le università) ma gli autori (sempre tramite le università). Il problema è che i prezzi per pubblicare un articolo non sono comunque trascurabili (siamo nell’ordine delle migliaia di euro), e inoltre per quale motivo un ricercatore dovrebbe pagare per pubblicare un lavoro, quando può farlo gratuitamente su riviste più prestigiose? D’altro canto, una rivista che vive di pubblicazioni potrebbe essere più portata ad accettare manoscritti di scarsa qualità, o a saltare a piè pari la fase di revisione. Non è un sospetto poi così infondato, visto il proliferare di riviste di dubbia fama che stanno infangando il nome dell’open access. E a proposito di fama, il punto cruciale è sempre lo stesso: le riviste più ambite, quelle che ti fanno fare carriera sono quelle storiche. Meglio puntare su quelle. Sono tutti fattori questi che hanno contribuito a frenare la trasformazione dell’editoria scientifica, e hanno consentito alle case editrici tradizionali di continuare ad arricchirsi: tanto per fare un esempio, il margine di profitto della Reed Elsevier sulle riviste medico-scientifiche è salito in dieci anni dal 30 fino a quasi il 40%. Che fare quindi? Sicuramente si deve insistere con l’open access, che ha l’indubbio vantaggio di rendere accessibili i risultati della ricerca scientifica, anche a quei cittadini contribuenti che con i loro soldi l’hanno finanziata. Ma se si vuole mettere davvero in difficoltà i giganti dell’editoria, occorre correggere le storture dell’open access e permettere a queste riviste di diventare realmente appetibili.

La mia proposta parte da un modello già esistente, quello della rivista PeerJ. Lanciata nel dicembre 2012, questa rivista funziona in modo simile alle altre riviste open access: pagano gli autori. La differenza, però, è che i ricercatori, con un abbonamento annuale di 399 dollari, sono liberi di pubblicare un numero illimitato di articoli. Essendo la rivista pagata con un abbonamento annuale, l’incentivo ad accettare lavori di scarsa qualità è inferiore rispetto al classico schema in cui si paga la pubblicazione di un singolo articolo. La peer review, che è ovviamente presente, potrà quindi essere molto più rigorosa, dal momento che la rivista non ha più alcun interesse economico a pubblicare a prescindere. Ma questo non è sufficiente a far vacillare l’impero dei grandi editori, che detengono comunque i marchi (le riviste) più prestigiosi. La proposta che faccio potrà sembrare assurda, ma sono convinto che potrebbe funzionare: paghiamo i reviewer. Non entro nei dettagli economici perché non è mia intenzione fare un business plan, ma immaginiamo per un attimo di aggiungere ai 399 dollari annuali una quota da destinare alla peer review. I revisori ora percepiranno un compenso (più o meno simbolico) per il loro lavoro e saranno maggiormente motivati a operare in modo più accurato; la pubblicazione sarà più difficile e di conseguenza la rivista diventerà più esclusiva. A questo punto, un potenziale autore si troverà davanti una rivista che i suoi colleghi considerano esclusiva e difficile da conquistare, su cui può pubblicare senza spese aggiuntive perché ha già pagato l’abbonamento, e che oltre a essere open access riconosce ai revisori il valore del loro lavoro (dal punto di vista dell’immagine un vantaggio non indifferente). In una situazione del genere, proporre l’articolo alle riviste storiche potrebbe non essere più una scelta così ovvia. E con revisori più agguerriti, forse le frodi scientifiche sarebbero smascherate ben prima della pubblicazione.

Ci vediamo al Festival!

Informazione di servizio per genovesi e non: domani pomeriggio, ore 16, sarò al Galata Museo del Mare di Genova per parlare di metafore del DNA insieme a Ivo Silvestro. Lui filosofo, io bioinformatico, sarà interessante scoprire cosa ne uscirà! Il Festival della Scienza di quest’anno ha per tema l’equilibrio, e come sempre sarà ricchissimo di ospiti straordinari. Non mi riferivo a me, maligni! Tanto per fare un nome, io non vedo l’ora di assistere alla conferenza di Jared Diamond, domani sera. In ogni caso, ci vediamo al Festival!

Ritratto di un embrione da giovane – #storiediscienza

ResearchBlogging.orgDISCLAIMER: questo post riporta più o meno fedelmente i risultati descritti nel paper pubblicato alcuni giorni fa su Nature Communications. Shintaro Katayama e Juha Kere esistono veramente, ma il dialogo tra i due è frutto della mia immaginazione. Non so in che rapporti siano, né se il professor Kere sia mai entrato in uno Starbucks. Si può scrivere un racconto di fantasia per parlare di una scoperta scientifica? Consideratelo il mio esperimento letterario.


Le cellule erano state spedite alcune settimane prima dal centro per la fertilità ProCrea di Lugano. Il materiale da sequenziare includeva alcuni ovociti e diversi embrioni ai primi stadi dello sviluppo, ed erano questi ultimi il pezzo forte dell’esperimento: grazie alla generosità di anonimi donatori, i ricercatori del Karolinska Institutet di Stoccolma potevano studiare i cambiamenti nell’espressione genica che avvenivano durante i primissimi istanti dello sviluppo embrionale, all’alba della formazione di una nuova vita. Per farlo occorreva una tecnica di sequenziamento a risoluzione elevatissima, che permettesse di monitorare in modo preciso l’attività di ogni singola cellula. La tecnica in questione esiste, si chiama single-cell sequencing e ha consentito agli scienziati svedesi di scoprire quali geni si accendevano in due momenti particolari: nel passaggio da ovocita a embrione di quattro cellule, e nel passaggio da quest’ultimo a embrione di otto cellule.

Nel suo ufficio di Huddinge, alla periferia di Stoccolma, Shintaro Katayama stava ricontrollando per l’ennesima volta i risultati del sequenziamento. I frammenti di DNA prodotti dal sequenziatore erano stati allineati contro la sequenza standard del genoma umano, e l’attività di ogni singolo gene era stata quantificata sulla base del numero di sequenze ad esso associate. Confrontando l’espressione genica nei diversi momenti dello sviluppo erano emersi dei risultati straordinari, che Shintaro voleva condividere al più presto con il professor Kere. Proprio in quell’istante squillò il telefono.

Juha Kere, classe 1958, aveva la cattedra di genetica molecolare del Karolinska Institutet dal 2001. Laureatosi in medicina nell’84, dopo una breve esperienza negli Stati Uniti era tornato in Scandinavia per fondare e dirigere il Finnish Genome Centre di Helsinki. Autore di oltre 400 pubblicazioni scientifiche, non era esattamente l’ultimo arrivato. Tuttavia, la notizia che stava per comunicargli Katayama avrebbe sorpreso anche lui. Seduto a un tavolo dello Starbucks di Stureplan, il quartiere vip di Stoccolma, il professor Kere aveva appena composto il numero del collega. Era stato via alcuni giorni e sperava che nel frattempo il progetto avesse prodotto qualche risultato.

«Professore buongiorno! – rispose Shintaro con voce squillante – Come è andato il congresso?»
«Poteva andare meglio. Certo qualche talk era interessante, ma niente di particolarmente innovativo. E il cibo era pessimo. Sono felice di essere tornato in Svezia, mi mancavano i nostri smörgårbord!» All’altro capo del telefono, Shintaro rise di gusto. «In ogni caso non ti chiamavo per invitarti a cena – continuò Kere – ma per avere qualche aggiornamento sui nostri embrioni. Ci sono novità?»
«Altroché, prof! Ho terminato le analisi e stavo appunto riguardando i risultati. Abbiamo 32 geni che si accendono nel passaggio da ovocita a embrione di quattro cellule, e 129 geni che si attivano allo stadio di otto cellule.»
Sorseggiando il caffé, Kere aggrottò le sopracciglia. «Mmm.. Mi sembrano pochi. Ricordo un articolo di qualche tempo fa in cui si parlava di quasi 3000 geni! Era di un team cinese, se non sbaglio. Sei sicuro che i calcoli siano giusti?»
«Si fidi di me, prof. – rispose Shintaro – Il nostro metodo di normalizzazione è più corretto. Si adatta meglio agli esperimenti come questo, dove c’è uno sbilanciamento enorme tra i geni che aumentano di espressione e quelli che si disattivano. Non dimentichi i trascritti materni, che nelle prime ore dalla fecondazione devono essere distrutti. Mi conceda una metafora informatica: prima di iniziare a svilupparsi, l’embrione deve formattare il sistema. Se avessimo utilizzato lo stesso metodo di normalizzazione dei cinesi, saremmo stati ingannati dall’enorme numero di geni che si spengono durante questo “reset”.»
Il professore annuì con convinzione, sorseggiando il suo caffè. «Capisco. – rispose – E quindi? Che hanno di interessante questi geni?»
«Beh, diciamo che molti non erano mai stati annotati. – rivelò con soddisfazione Shintaro, certo di aver catturato l’attenzione del suo interlocutore – Di questi sappiamo poco o nulla, ed è proprio questo a renderli interessanti. Non crede? Abbiamo una dozzina di posizioni genomiche che si accendono durante le prime due divisioni cellulari, e non sappiamo a cosa diavolo servano! Ma non è finita qui.»
«Dimmi Shintaro, dimmi!» Il professore addentò un pezzo di muffin al cioccolato.
«Abbiamo scoperto che la maggior parte di questi geni hanno per così dire un interruttore comune. Nelle loro vicinanze troviamo con una certa frequenza la stessa sequenza di DNA: è un pattern ricorrente, e la statistica ci dice che non può essere lì per caso. Professore, è un sito di attacco per gli homeobox! Certo, non stupisce più di tanto, visto che questi fattori di trascrizione sono noti per svolgere funzioni importanti durante lo sviluppo, ma i nostri fattori in particolare sono dei nuovi attori in scena. E soprattutto – qui viene il bello – abbiamo anche scoperto chi ha piazzato quegli interruttori proprio in quelle posizioni.»
«Non tenermi sulle spine, forza!», rispose Kere spazientito.
«Ok, ok. Ecco, ha presente quella cosa che un tempo chiamavamo con una certa supponenza “DNA spazzatura”? Pensavamo che gran parte del genoma umano fosse composto da sequenze inutili, soltanto perché ancora non ne conoscevamo la funzione. D’altra parte, a cosa potevano servire tutte quelle sequenze che si ripetono identiche un po’ ovunque nel nostro DNA? Beh, le confermo che ci sbagliavamo di grosso, come hanno già affermato scienziati più famosi di me. Il pattern ricorrente di cui le parlavo si trova sempre circondato da ripetizioni Alu, le sequenze mobili più abbondanti nel genoma umano.»
«Aspetta! – lo fermò Kere – Mi stai dicendo che quei dannati trasposoni hanno portato i siti di attacco per gli homeobox proprio lì dove servivano?!»
Shintaro sorrise. «Beh, ovviamente non lo hanno fatto di proposito. Ma sì, la teoria è proprio questa: i trasposoni, o “jumping genes” come li chiama qualcuno, hanno creato dei nuovi circuiti di regolazione fondamentali per lo sviluppo embrionale. Di fatto, il DNA spazzatura ha plasmato la nostra evoluzione»
«Accidenti, ma è fantastico! – esclamò Kere – Amico mio, questo risultato finisce dritto dritto su Nature


Töhönen, V., Katayama, S., Vesterlund, L., Jouhilahti, E., Sheikhi, M., Madissoon, E., Filippini-Cattaneo, G., Jaconi, M., Johnsson, A., Bürglin, T., Linnarsson, S., Hovatta, O., & Kere, J. (2015). Novel PRD-like homeodomain transcription factors and retrotransposon elements in early human development Nature Communications, 6 DOI: 10.1038/ncomms9207

Nell’Europa di Juncker c’è ancora spazio per la scienza?

JunckerÈ sicuramente troppo presto per giudicare l’operato di Jean-Claude Juncker, da poche settimane alla guida della Commissione Europea. Ma per la comunità scientifica, il nuovo Presidente è partito con il piede sbagliato: sono infatti diversi, ormai, i segnali che fanno capire che difficilmente le rinnovate istituzioni europee saranno particolarmente favorevoli alla ricerca e alla scienza.

Il primo segnale è arrivato l’11 novembre, quando la Commissione Ambiente ha approvato con un’ampia maggioranza la nuova normativa in merito all’autorizzazione di coltivazioni OGM sul territorio europeo. Quando le nuove regole diventeranno ufficiali, i Paesi membri saranno liberi di vietare la coltivazione di varietà geneticamente modificate entro i propri confini, anche di quelle approvate a livello europeo. Mentre finora era necessario dimostrare, dati scientifici alla mano, che le varietà fossero pericolose per l’ambiente o la salute umana, con la nuova normativa sarà sufficiente addurre motivazioni di tipo socio-economico. Ovviamente, l’EFSA continuerà a svolgere il suo lavoro di valutazione scientifica, e se una varietà sarà ritenuta non sicura non verrà autorizzata. Da questo punto di vista, quindi, niente di nuovo: la voce della scienza sarà comunque ascoltata. Tuttavia, se rigiriamo il discorso, significa anche che sarà possibile bandire dal commercio un prodotto definito sicuro, e vanificare di conseguenza il parere degli esperti. Non sono in grado di valutare gli effetti distorsivi che queste nuove misure avranno sul mercato comune europeo, ma di sicuro si trasmette il messaggio che non devono essere necessariamente le evidenze scientifiche a guidare le scelte europee. Le critiche degli scienziati non si sono fatte attendere. Intervistato da Science, il professor Stefan Jansson, docente di biologia vegetale presso l’Università di Umea in Svezia, ha dichiarato in modo molto efficace che “Se si dimostra che un prodotto è sicuro lo usiamo, se non è sicuro non lo usiamo”. Continua Jansson: “Se iniziamo a dire che ci sono altri motivi per bandire un prodotto, mettiamo in pericolo le basi scientifiche di tutto il sistema”.

Quasi a confermare questi timori, è arrivata il giorno dopo la notizia che il ruolo di Chief Scientific Advisor non sarà più presente nell’organigramma della Commissione Europea. La posizione di consulente scientifico, voluta dal predecessore di Juncker Manuel Barroso, è stata ricoperta dalla biologa scozzese Anne Glover, che lascerà quindi l’incarico a fine gennaio. A nulla sono serviti gli appelli di svariate associazioni di scienziati e giornalisti scientifici, che hanno chiesto a Juncker di mantenere questo ruolo così essenziale per i processi decisionali europei: il presidente della Commissione ha deciso diversamente. E non sono rassicuranti le parole della portavoce Lucia Caudet, secondo cui “Il presidente Juncker crede nell’importanza di una consulenza scientifica indipendente, ma non ha ancora deciso in che modo istituzionalizzare questa consulenza”. Un triste epilogo per la Glover, che – contestata da Greenpeace per le sue dichiarazioni sugli OGM – ha finito per perdere il suo posto dopo essersi battuta per una politica evidence-based. Nel racconto dei suoi 1000 giorni come consulente scientifico, la scienziata scozzese ha evidenziato le notevoli difficoltà incontrate durante il suo incarico, sostenendo che invece di essere utilizzate per orientare le politiche della Commissione, molto spesso le evidenze scientifiche erano strumentalizzate per dare sostegno a questa o quella decisione. Certo non una novità per noi italiani, abituati a questo genere di strumentalizzazioni, ma per una anglosassone come la Glover deve essere stato frustrante.

Inquadrata in questo contesto, anche la recente decisione di tagliare una quota dei fondi previsti per Horizon 2020 desta preoccupazione. Nell’annunciare il nuovo piano di investimenti per la crescita da 315 miliardi di euro, Juncker ha rivelato che intende sottrarne 2,7 al programma di ricerca settenale coordinato dall’Unione Europea. Si tratta di una piccola percentuale rispetto al totale previsto per il programma (70 miliardi), e Juncker sostiene che grazie agli investimenti degli Stati membri e dei privati, questo taglio sarà ricompensato abbondantemente. “Ogni singolo euro che entra nel nuovo fondo per la crescita genererà 15 euro per gli stessi progetti di ricerca. – ha rassicurato Juncker davanti al Parlamento Europeo – Non stiamo spostando soldi da un posto all’altro, stiamo facendo un investimento”. Sarà, ma i ricercatori europei storcono il naso, e lo scetticismo è giustificato: degli oltre 300 miliardi che si spera di ottenere, solo 21 sono già pronti sul piatto. Tutti auspicano che il fondo crescerà, ma non ci sono garanzie: i soldi sottratti a Horizon 2020, purtroppo, sono invece molto reali.

Articolo pubblicato su iMille.org